- Leren door doen
- Trainers met praktijkervaring
- Klassikale trainingen
- Gedetailleerd cursusmateriaal
- Duidelijke inhoudsbeschrijving
- Maatwerk inhoud mogelijk
- Trainingen die doorgaan
- Kleine groepen
In de cursus Machine Learning met Python leren de deelnemers hoe je machine learning algoritmes kunt implementeren door gebruik te maken van Python en de Scikit-learn library. Scikit-learn is grotendeels geschreven in Python en maakt veel gebruik van Numpy voor high-performance lineaire algebra en array operaties.
De cursus Machine Learning met Python gaat van start met een overzicht van de basis concepten van Machine Learning waarbij modellen worden gemaakt op basis aangeleverde data. Hierbij wordt het verschil duidelijk gemaakt tussen Supervised en Unsupervised Learning.
Vervolgens wordt ingegaan op de libraries die het fundament vormen achter Machine Learning met Scikit-learn zoals Numpy, Panda's, MatPlotLib en Seaborn. In de basis architectuur van Scikit-learn wordt de data gesplitst in een feature matrix en een target array. Aan de orde komt verder hoe een model wordt getraind met een training set om vervolgens te worden vergeleken een test set met de Estimator API.
Onderdeel van het programma van de cursus Machine Learning met Python is ook Feature Engineering. Hierbij wordt besproken hoe omgegaan kan worden met categorische features, text features, image features en derived features. En ook het gebruik van features pipelines wordt uitgelegd.
Na een behandeling van het Naive Bayes theorema met Naive Bayes classifiers en de daarop gebaseerde modellen wordt dan ingegaan Lineaire en ook Logistische regressie. Ook specialistische versies daarvan zoals Polynomial Regression, Ridge Regression en Lasso Regularization worden behandeld.
Dan wordt in de cursus Machine Learning met Python aandacht besteed aan verschillende varianten van Machine Learning algoritmes die gebaseerd zijn op classificatie. Hierbij komen Support Vector Machines en Decision Trees ter sprake.
Tenslotte wordt in de cursus Machine Learning met Python ingegaan op Principal Component Analysis als voorbeeld van een unsupervised learning algoritme. Ook Dimensionality Reduction wordt dan behandeld.
De cursus Machine Learning met Python is bedoeld voor data scientists die Python en machine learning libraries willen gebruiken voor het doen van voorspellingen op basis van modellen.
Om aan deze cursus te kunnen deelnemen is kennis van en ervaring met Python vereist en kennis van data analyse libraries zoals Numpy, Pandas en Matplotlib wenselijk.
De theorie wordt behandeld aan de hand van presentaties. Illustratieve demo's verduidelijken de concepten. De theorie wordt afgewisseld met oefeningen. Als ontwikkelomgeving wordt de Anaconda distributie met Jupyter notebooks gebruikt. De cursustijden zijn van 9.30 tot 16.30.
De deelnemers krijgen na het goed doorlopen van de cursus een officieel certificaat Machine Learning met Python.
Module 1 : Intro Machine Learning |
Module 2 : Numpy and Pandas |
Module 3 : Scikit-learn Library |
What is Machine Learning? Building Models of Data Model Based Learning Tunable Parameters Supervised Learning Labeling Data Discrete Labels Continuous Labels Classification and Regression Unsupervised Learning Data Speaks for Itself Clustering and Dimensionality Reduction |
Numpy Arrays NumPy Data Types Pandas Data Frames Inspect Data Operations on Data Missing Data Pandas Series Pandas Indexes Time Series MatplotLib Plotting with Pandas Seaborn Library |
Data Representation Estimator API Features Matrix Target Array Seaborn Visualization Model Classes Choosing Hyperparameters Model Validation Fit and Predict Method Label Predicting Training and Testing Set Transform Method |
Module 4 : Feature Engineering |
Module 5 : Naive Bayes |
Module 6 : Linear Regression |
Categorical Features Vectorization Text and Image Features Derived Features Adding Columns Handling Missing Data Imputation of Missing Data Feature Pipelines Polynomial Basis Functions Gaussian Basis Functions Regularization |
Naive Bayes Classifiers Applicability High Dimensional Datasets Bayes’s Theorem Generative Models Gaussian Naive Bayes Probabilistic Classification predict_proba Method Multinomial Naive Bayes Confusion Matrix When to Use Naive Bayes |
Slope and Intercept LinearRegression Estimator coef_ and intercept_ Parameter Multidimensional Linear Models Basis Function Regression Polynomial Regression PolynomialFeatures Transformer Gaussian Basis Functions Overfitting Ridge Regression Lasso Regularization |
Module 7 : Support Vector Machines |
Module 8 : Decision Trees |
Module 9 : Principal Components |
Discriminative Classification Maximizing the Margin Linear Kernel C Parameter Support Vectors SVM Visualization Kernel SVM Radial Basis Function Kernel Transformation Kernel Trick Softening Margins |
Ensemble Learner Creating Decision Trees DecisionTreeClassifier Overfitting Decision Trees Ensembles of Estimator Random Forests Parallel Estimators Bagging Classifier Random Forest Regression RandomForestRegressor Non Parametric Model |
PCA Unsupervised Learning Learn about Relationships Principal Axes Demonstration Data Affine Transformation Components Explained Variance Dimensionality Reduction Inverse Transformation Explained Variance Ratio PCA as Noise Filtering |