Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Korte omschrijving

In dit OLOD bekijken we de fundamentele bouwstenen van Artificiële Intelligentie (AI) en Machine Learning (ML): lineaire algebra, kansrekenen, statistiek en optimalisatie. Dit doen we met een combinatie van theorie en interactieve voorbeelden in Python, de programmeertaal bij uitstek voor AI toepassingen.
Lineaire algebra ligt aan de basis van de meeste algoritmes die gebruikt worden voor AI en is belangrijk om te begrijpen wat er zich achter de schermen afspeelt bij deze algoritmes. We bekijken ook een toepassing van lineaire algebra voor beeldcompressie.
Het gebeurt maar zelden dat we iets met 100% zekerheid kunnen voorspellen, meestal is er een onzekerheid aan verbonden. Dit geldt ook bij voorspellingen voor AI-toepassingen. Het is dan ook erg belangrijk om de onzekerheid van deze voorspellingen te kunnen inschatten. Kansrekenen leert ons hoe we met variabelen met onzekerheid kunnen werken en met statistiek kunnen we onzekerheid bepalen.
Bij de ontwikkeling van AI-algoritmes moet er vaak iets geoptimaliseerd worden. Het doel is vaak om zo optimaal mogelijk de data te beschrijven. We bekijken hiervoor het gradient descent algoritme dat onder andere aan de basis ligt van deep learning waar veel moderne AI-toepassingen op gebaseerd zijn.
De werking van de verschillende bouwstenen wordt geïllustreerd aan de hand van een eenvoudig maar in de praktijk vaak gebruikt ML algoritme: lineaire regressie.

OLR-Leerdoelen (lijst)

Onderzoeken

Beoordeelt de prestaties van machine learning modellen met behulp van intervalschattingen en foutmarges.

Ontwerpen

Voert het gradient descent algoritme uit voor neurale netwerken met verschillende activerings- en kostenfuncties.
Bespreekt de eigenschappen van veelgebruikte kansverdelingen in machine learning.
Past vector- en matrixalgebrabewerkingen toe, zoals scalair product, inverse en determinant.
Past statistische methoden zoals maximum likelihood estimation (MLE) en maximum a priori (MAP) toe binnen de context van machine learning.
Beschrijft en kwantificeert de onzekerheid die inherent is aan voorspellingen van modellen voor machine learning.

Realiseren

Geeft data weer als vectoren en matrices en identificeert hun eigenschappen met behulp van concepten als singulariteit en lineaire onafhankelijkheid.
Optimaliseert functies die vaak gebruikt worden bij machine learning analytisch en numeriek met behulp van eigenschappen van afgeleiden.

Leerinhoud

Programma

WeekDatumOnderdeelLabo
119/09Lineaire algebra #1Vectoren, matrices & tensors
226/09Lineaire algebra #2Dot products, speciale tensors & stelsels van lineaire vergelijkingen
303/10Gradients #1OLS & gradient descent voor lineaire Regressie
410/10Gradients #2Gradient descent voor logistische regressie
517/10Gradients #3Backpropagation
624/10Gradients #4Backpropagation (Praktijk)
Herfstvakantie
707/11Probabiliteit #1Kansvariabelen en -verdelingen
814/11Probabiliteit #2Hypothese testen en Likelihood
921/11Probabiliteit #3Bayesiaanse aanpak van lineaire regressie
1028/11Structurele data-analysePCA, t-SNE & UMAP
1105/12Voorbereiding examen
1212/12Presentaties
1319/12Optioneel

Evaluatie

20%Permanente EvaluatieZie “Opdracht” sectie in de “Afspraken” pagina
40%KennistoetsGesloten boek, Leerstof: Cursus (online), Eigen notities, Labo’ - Zie “Leerstof” sectie in de “Afspraken” pagina
40%VaardigheidstoetsOefeningen in Jupyter notebook, Open boek