[] Zoals Emily hiervoor gezegd heeft, gaan we machine learning bestuderen door middel van een grote reeks van praktijksituaties in verschillende toepassingen die de basis vormen van de achterliggende concepten. In andere machine learning cursussen, die je zou kunnen volgen, bestaan vooral uit een lange lijst van algoritmen en methoden, zoals vector machines en kernels, logische redeneren, netwerken en zo voort. Maar ze zijn ook alleen maar een lijst van methoden. Het nadeel van die aanpak waarbij je begint met algoritmen, is dat je eindigt bij zeer eenvoudige toepassingen, die te ver af staan van de werkelijkheid. In deze specialisatie gaan we het echt anders doen en hierin hebben wij al veel ervaring. Emily en ik hebben al een cursus op de University of Washington ontwikkeld over machine learning in het groot, voor big data. Hierin pionierden wij met de praktijkgerichte aanpak voor het bestuderen van machine learning. In die cursus kregen we veel positieve reacties van mensen die de concepten nu echt begrepen hadden. Daarom beginnen we ook deze eerste cursus met de praktijksituaties Beginnend met de praktijksituaties wordt je echt in staat gesteld om de basis concepten en technieken te begrijpen, die je in staat stellen om intelligente applicatie te bouwen, de kwaliteit te meten en ook te begrijpen waarom ze wel of niet werken. Uiteindelijk ga je een hele serie van deze intelligente applicaties ontwikkelen. Dus om intelligente toepassingen te bouwen, moet je nadenken over welke task, machine learning methode, moet ik gaan gebruiken. Stel: ik moet een sentiment analyse probleem analyseren, welke modellen, welke machine learning modellen moet ik gaan gebruiken, en bij zaken als vector machines of regression: welke methoden en welke parameters er optimaal zijn bij dat model. Daarna moet ik me afvragen of dit me echt de intelligentie biedt, die ik verwachte te vinden? Hoe meten we kwaliteit van het systeem? Dus in deze cursus van de specialisatie gaan we de basis leggen hoe we een model beschrijven. In de opvolgende cursussen gaan we dit optimaliseren. Deze eerste cursus helpt ons om te bepalen welke taak we willen oplossen, welke machine learning methoden er relevant zijn en hoe we dit meten. Door de algoritmen als black boxen te zien, wordt het ons mogelijk gemaakt om een brede reeks van echte intelligente applicaties te bouwen. We gaan ze echt coderen en bouwen en daarmee demonstreren een groot aantal verschillende manieren. Er zijn vier opvolgende cursussen, gevolgd door een eindproject. Die cursussen gaan echt de diepte in. Laat mij je een paar snelle voorbeelden van die diepte laten zien in deze specialisatie. De regression cursus gaat over verschillende voorspelmethoden van een echte waarde, zoals bijvoorbeeld de verkoopprijs van huis, afgeleidt uit de eigenschappen van het huis. Ook gaan we lineaire regressie technieken bestuderen. Geavanceerde technieken als ridge regression en lasso, die je in staat stellen om die eigenschappen te selecteren die het beste gebruikt kunnen worden voor je probleem. We gaan het hebben over optimalisatietechnieken, zoals gradient descent en coördinat descent, om daarmee de parameters van deze modellen te optimaliseren. Daarbij ook nog enkele basis machine learning concepten als verliesfunctions, bias-variance tradeoffs en cross validation. Zaken die je echt moet weten over regression, om deze te verbeteren, te ontwikkelen en toepassingen ermee te bouwen. De tweede cursus gaat over classificatie. We gaan bijvoorbeeld een sentiment analyse toepassing bouwen. Emily heeft dat al gezegd. We gaan het hebben over meerdere soorten classificatietechnieken, van lineaire classificaties tot meer geavanceerde als lineaire regressie, sorry, logaritmisch regressie, support vector machines. Daarna voegen we kernels toe en beslisbomen, die het mogelijk om met niet lineaire complexe eigenschappen te werken. We gaan het hebben over optimalisatie methoden, bij grootschalige toepassing van classificatie technieken en complexe samenstellingen daarvan, ook wel boosting genoemd. Daaraan onderliggende concepten van machine learning die werkelijk helpen om de juiste classifier te vinden, dit op te schalen en toe te passen voor verschillende methoden. In de daaropvolgende cursus houden we ons bezig met clustering en zoeksystemen in het bijzonder rond documenten. We bestuderen basistechnieken als nearest neighbour, maar ook meer geavanceerde technieken als Gaussians en zelfs hoe latent Dirichliet aliocatie tekst analyse clustering kan verbeteren. We gaan het hebben over de onderliggende algoritmen hiervan en hoe we deze kunnen opschalen met technieken als KD-trees en sampling-and-expectation maximalisatie. Deze basis concepten zorgen voor opschalingsmogelijkheden, voor kwalteitsbepalingen en hoe de algoritmen gedistribueerd te bouwen, gebruik maken van technieken als map-reduce, zoals geïmplementeerd zijn in Hadoop, waar je mogelijk wel van gehoord hebt. In deze vierde cursus ga je ook echt map-reduce code voor gedistribueerd machine learning schrijven. In de laatste cursus bestuderen we technieken als matrix factorization en dimensionality reduction. zoals deze breed toegepast worden in met name in aanbeveling systemen om producten aan te bevelen. Dit zij zaken als collaborative filtering, matrix factorization, PCA en de onderliggende technieken om deze optimalisaren, zoals Coordinat descnt, Eigen Decomposition en SVD. Daarnaast ook nog een grote variëteit van machine learning concepten die bruikbaar zijn, met name bij aanbeveling toepassingen. Zoals: hoe selecteren van een verzameling van aanbevelingen, hoe op te schalen naar omvangrijke problemen. Het eindproject, capstone, wordt zeer interessant. Aan het einde van deze module ga ik hier meer over uitleggen. Maar om je een kleine hint te geven: je gaat iets moois bouwen, wat je aan al je vrienden en potentiële werkgevers kunt demonstreren. Je zult zien dat echt slimme, intelligente toepassingen op het gebied van aanbevelingen, gecombineerd met tekst-data, image data, sentiment analyse en deep learning. Het zal echt indrukwekkend worden. []