Vahid Mirjalili

Python Machine Learning


Скачать книгу

aprendizaje automático

       Resumen

      Capítulo 2: Entrenar algoritmos simples de aprendizaje automático para clasificación

       Neuronas artificiales: un vistazo a los inicios del aprendizaje automático

       La regla de aprendizaje del perceptrón

       Implementar un algoritmo de aprendizaje de perceptrón en Python

       Una API perceptrón orientada a objetos

       Entrenar un modelo de perceptrón en el conjunto de datos Iris

       Neuronas lineales adaptativas y la convergencia del aprendizaje

       Minimizar funciones de coste con el descenso de gradiente

       Implementar Adaline en Python

       Mejorar el descenso de gradiente mediante el escalado de características

       Aprendizaje automático a gran escala y descenso de gradiente estocástico

       Resumen

      Capítulo 3: Un recorrido por los clasificadores de aprendizaje automático con scikit-learn

       Elegir un algoritmo de clasificación

       Primeros pasos con scikit-learn:entrenar un perceptrón

       Modelar probabilidades de clase mediante regresión logística

       Intuición en regresión logística y probabilidades condicionales

       Aprender los pesos de la función de coste logística

       Convertir una implementación Adaline en un algoritmo para regresión logística

       Entrenar un modelo de regresión logística con scikit-learn

       Abordar el sobreajuste con la regularización

       Margen de clasificación máximo con máquinas de vectores de soporte

       Margen máximo de intuición

       Tratar un caso separable no lineal con variables flexibles

       Implementaciones alternativas en scikit-learn

       Resolver problemas no lineales con una SVM kernelizada

       Métodos kernel para datos inseparables lineales

       El truco de kernel para encontrar hiperplanos separados en un espacio de mayor dimensionalidad

       Aprendizaje basado en árboles de decisión

       Maximizar la ganancia de información: sacar el mayor partido de tu inversión

       Crear un árbol de decisión

       Combinar árboles de decisión múltiples mediante bosques aleatorios

       K-vecinos más cercanos: un algoritmo de aprendizaje vago

       Resumen

      Capítulo 4: Generar buenos modelos de entrenamiento: preprocesamiento de datos

       Tratar con datos ausentes

       Eliminar muestras o características con valores ausentes

       Imputar valores ausentes

       Entender la API de estimador de scikit-learn

       Trabajar con datos categóricos

       Características nominales y ordinales

       Crear un conjunto de datos de ejemplo

       Mapear características ordinales

       Codificar etiquetas de clase

       Realizar una codificación en caliente sobre características nominales

       Dividir un conjunto de datos en conjuntos de prueba y de entrenamiento individuales

       Ajustar las características a la misma escala

       Seleccionar características significativas

       Una interpretación geométrica de la regularización L2

       Soluciones dispersas con la regularización