NemtyrevAI

Data Science. Практика


Скачать книгу

Logistic Regression (логистическая регрессия)

      * Linear Discriminant Analysis (линейный дискриминантный анализ)

      * Decision Trees (дерево решений)

      * Random Forests (случайные леса)

      * Support Vector Machines (машины опорных векторов)

      * K-Nearest Neighbors (k ближайших соседей)

      * Gradient Boosting (градиентный бустинг)

      2. Регрессия:

      * Linear Regression (линейная регрессия)

      * Ridge Regression (линейная регрессия с регуляризацией)

      * Lasso Regression (линейная регрессия с L1-регуляризацией)

      * Polynomial Regression (полиномиальная регрессия)

      * Support Vector Regression (регрессия с машиной опорных векторов)

      * Decision Trees Regression (регрессия с деревом решений)

      * Random Forests Regression (регрессия с случайными лесами)

      3. Кластеризация:

      * K-Means Clustering (кластеризация методом k-средних)

      * Hierarchical Clustering (иерархическая кластеризация)

      * DBSCAN (кластеризация с плотностью)

      4. Дименсиональное сокращение:

      * Principal Component Analysis (анализ главных компонент)

      * Linear Discriminant Analysis (линейный дискриминантный анализ)

      * t-SNE (t-Student стохастическая близость смещением и растяжением)

      5. Избирательное обучение:

      * Recursive Feature Elimination (рекурсивное удаление признаков)

      * SelectKBest (выбор K лучших признаков)

      * Lasso/Ridge Regression Feature Selection (выбор признаков с помощью линейной регрессии с L1/L2-регуляризацией)

      6. Оценка моделей:

      * Cross-Validation (перекрёстная проверка)

      * Grid Search (поиск по сетке)

      * Randomized Search (рандомизированный поиск)

      * Learning Curve (график обучения)

      Кроме основных алгоритмов машинного обучения, библиотека Scikit-learn также предоставляет множество вспомогательных функций и инструментов, которые могут быть полезны для обработки данных и обучения моделей. Вот некоторые из них:

      1. Предобработка данных:

      * Функции для нормализации и стандартизации данных

      * Функции для обработки пропущенных данных

      * Функции для кодирования категориальных переменных

      * Функции для выборки данных

      2. Извлечение признаков:

      * Функции для извлечения текстовых признаков, такие как CountVectorizer и TfidfVectorizer

      * Функции для извлечения признаков из изображений, такие как Histogram of Oriented Gradients (HOG) и Local Binary Patterns (LBP)

      * Функции для извлечения признаков из аудио, такие как Mel-frequency cepstral coefficients (MFCC) и Chroma features

      3. Оценка моделей:

      * Функции для оценки качества моделей, такие как accuracy\_score, precision\_score, recall\_score, f1\_score и roc\_auc\_score

      * Функции для визуализации результатов классификации, такие как confusion\_matrix, classification\_report и ROC curves

      * Функции для оценки качества регрессии, такие как mean\_squared\_error, mean\_absolute\_error, r2\_score и explained\_variance\_score

      4. Выбор параметров:

      * Функции для выбора оптимальных параметров модели, такие как GridSearchCV и RandomizedSearchCV

      * Функции для настройки гиперпараметров с помощью методов, таких как cross\_val\_score и validation\_curve

      5. Визуализация данных и моделей:

      * Функции для визуализации данных, такие как scatter\_plot, line\_plot, bar\_plot и histogram\_plot

      * Функции для визуализации моделей, такие как decision\_boundary, decision\_function, feature\_importances\_ и permutation\_importance

      Эти