Derivative in Neural Networks and Eigenvalues and Eigenvectors in PCA

Tijdens mijn premaster volgde ik onder andere de module "Mathematics for Machine Learning". Tijdens deze module verdiepte ik me verder in de wereld van calculus en lineaire algebra. Onderdeel van deze module was het werken aan een project, waarin je in duo's je verdiepte in de wiskunde achter verschillende onderwerpen. Samen met mijn projectpartner heb ik me voor dit project verdiept in de rol van afgeleiden in neurale netwerken en de wiskunde achter principal component analysis (PCA).

Meer informatie

In ons project hebben we de wiskundige basis van afgeleiden in neurale netwerken en de rol van eigenwaarden en eigenvectoren in PCA onderzocht. We verdiepten ons in hoe gradient descent wordt gebruikt om neurale netwerken te optimaliseren en bekeken technieken zoals ADAGRAD. Voor PCA richtten we ons op dimensiereductie en de invloed hiervan op trainingstijden van machine learning modellen. Dit project gaf ons een grondig begrip van deze cruciale wiskundige concepten en hun praktische toepassingen in AI.

Downloads

Enkele bestanden die je kan downloaden.

Project Mathematics for Machine Learning