Machine Learning met Python
Lesgeld
Machine Learning Intro
De cursus Machine Learning met Python gaat van start met een overzicht van de basis concepten van Machine Learning waarbij modellen worden gemaakt op basis aangeleverde data. Hierbij wordt het verschil duidelijk gemaakt tussen Supervised en Unsupervised Learning.
Scikit-learn Library
Vervolgens wordt ingegaan op de libraries die het fundament vormen achter Machine Learning met Scikit-learn zoals Numpy, Panda's, MatPlotLib en Seaborn. In de basis
Machine Learning Intro
De cursus Machine Learning met Python gaat van start met een overzicht van de basis concepten van Machine Learning waarbij modellen worden gemaakt op basis aangeleverde data. Hierbij wordt het verschil duidelijk gemaakt tussen Supervised en Unsupervised Learning.
Scikit-learn Library
Vervolgens wordt ingegaan op de libraries die het fundament vormen achter Machine Learning met Scikit-learn zoals Numpy, Panda's, MatPlotLib en Seaborn. In de basis architectuur van Scikit-learn wordt de data gesplitst in een feature matrix en een target array. Aan de orde komt verder hoe een model wordt getraind met een training set om vervolgens te worden vergeleken een test set met de Estimator API.
Feature Handling
Onderdeel van het programma van de cursus Machine Learning met Python is ook Feature Engineering. Hierbij wordt besproken hoe omgegaan kan worden met categorische features, text features, image features en derived features. En ook het gebruik van features pipelines wordt uitgelegd.
Regressies
Na een behandeling van het Naive Bayes theorema met Naive Bayes classifiers en de daarop gebaseerde modellen wordt dan ingegaan Lineaire en ook Logistische regressie. Ook specialistische versies daarvan zoals Polynomial Regression, Ridge Regression en Lasso Regularization worden behandeld.
Classificaties
Dan wordt in de cursus Machine Learning met Python aandacht besteed aan verschillende varianten van Machine Learning algoritmes die gebaseerd zijn op classificatie. Hierbij komen Support Vector Machines en Decision Trees ter sprake.
Unsupervised Learning
Tenslotte wordt in de cursus Machine Learning met Python ingegaan op Principal Component Analysis als voorbeeld van een unsupervised learning algoritme. Ook Dimensionality Reduction wordt dan behandeld.
Doelgroep Cursus Machine Learning met Python
De cursus Machine Learning met Python is bedoeld voor data scientists die Python en machine learning libraries willen gebruiken voor het doen van voorspellingen op basis van modellen.
Voorkennis training Machine Learning met Python
Om aan deze cursus te kunnen deelnemen is kennis van en ervaring met Python vereist en kennis van data analyse libraries zoals Numpy, Pandas en Matplotlib wenselijk.
Uitvoering Cursus Machine Learning met Python
De theorie wordt behandeld aan de hand van presentaties. Illustratieve demo's verduidelijken de concepten. De theorie wordt afgewisseld met oefeningen. Als ontwikkelomgeving wordt de Anaconda distributie met Jupyter notebooks gebruikt. De cursustijden zijn van 9.30 tot 16.30.
Officieel Certificaat Machine Learning met Python
De deelnemers krijgen na het goed doorlopen van de cursus een officieel certificaat Machine Learning met Python.
Modules
Module 1 : Intro Machine Learning
- What is Machine Learning?
- Building Models of Data
- Model Based Learning
- Tunable Parameters
- Supervised Learning
- Labeling Data
- Discrete Labels
- Continuous Labels
- Classification and Regression
- Unsupervised Learning
- Data Speaks for Itself
- Clustering and Dimensionality Reduction
Module 2 : Numpy and Pandas
- Numpy Arrays
- NumPy Data Types
- Pandas Data Frames
- Inspect Data
- Operations on Data
- Missing Data
- Pandas Series
- Pandas Indexes
- Time Series
- MatplotLib
- Plotting with Pandas
- Seaborn Library
Module 3 : Scikit-learn Library
- Data Representation
- Estimator API
- Features Matrix
- Target Array
- Seaborn Visualization
- Model Classes
- Choosing Hyperparameters
- Model Validation
- Fit and Predict Method
- Label Predicting
- Training and Testing Set
- Transform Method
Module 4 : Feature Engineering
- Categorical Features
- Vectorization
- Text and Image Features
- Derived Features
- Adding Columns
- Handling Missing Data
- Imputation of Missing Data
- Feature Pipelines
- Polynomial Basis Functions
- Gaussian Basis Functions
- Regularization
Module 5 : Naive Bayes
- Naive Bayes Classifiers
- Applicability
- High Dimensional Datasets
- Bayes’s Theorem
- Generative Models
- Gaussian Naive Bayes
- Probabilistic Classification
- predict_proba Method
- Multinomial Naive Bayes
- Confusion Matrix
- When to Use Naive Bayes
Module 6 : Linear Regression
- Slope and Intercept
- LinearRegression Estimator
- coef_ and intercept_ Parameter
- Multidimensional Linear Models
- Basis Function Regression
- Polynomial Regression
- PolynomialFeatures Transformer
- Gaussian Basis Functions
- Overfitting
- Ridge Regression
- Lasso Regularization
Module 7 : Support Vector Machines
- Discriminative Classification
- Maximizing the Margin
- Linear Kernel
- C Parameter
- Support Vectors
- SVM Visualization
- Kernel SVM
- Radial Basis Function
- Kernel Transformation
- Kernel Trick
- Softening Margins
Module 8 : Decision Trees
- Ensemble Learner
- Creating Decision Trees
- DecisionTreeClassifier
- Overfitting Decision Trees
- Ensembles of Estimator
- Random Forests
- Parallel Estimators
- Bagging Classifier
- Random Forest Regression
- RandomForestRegressor
- Non Parametric Model
Module 9 : Principal Components
- PCA Unsupervised Learning
- Learn about Relationships
- Principal Axes
- Demonstration Data
- Affine Transformation
- Components
- Explained Variance
- Dimensionality Reduction
- Inverse Transformation
- Explained Variance Ratio
- PCA as Noise Filtering