Introducción a los algoritmos de aprendizaje automático

El Internet de las cosas, o IoT, es un sistema interrelacionado de identificadores únicos, como un dispositivo informático o una etiqueta de seguimiento en un animal, que transfiere datos a través de una red sin interacción humana o informática.

Corporación Internacional de Datos predice que para 2025, 41.6 millones de dispositivos IoT conectados generarán 79,4 zettabytes de datos, lo que equivale a casi 86 billones de gigabytes. Gran parte de este big data se utilizará para el aprendizaje automático, que entrena a los modelos para hacer predicciones o inferencias de salida sin la necesidad de programarlos explícitamente. En términos generales, ML es el uso de datos para enseñar a una computadora cómo responder preguntas correctamente, la mayoría de las veces.

ESCUELAS PATROCINADAS

Universidad de Rutgers

Rutgers Data Science Bootcamp

Adquiera las habilidades necesarias para analizar datos y ofrecer valor a las organizaciones. Complete proyectos utilizando conjuntos de datos reales del mundo de las finanzas, la salud, el gobierno, el bienestar social y más.



Universidad Metodista del Sur

Campamento de entrenamiento de ciencia de datos de SMU

Desarrolle habilidades de datos concretas y en demanda y aprenda cómo ayudar a impulsar las decisiones comerciales y resolver los desafíos que enfrentan las empresas. No se requiere experiencia en programación.



Universidad Northwestern

Campamento de entrenamiento de visualización y ciencia de datos de Northwestern

Northwestern Data Science and Visualization Bootcamp enseña habilidades prácticas y técnicas en 24 semanas intensivas. Los estudiantes aplican sus conocimientos a proyectos prácticos que se traducen directamente en trabajo en el campo.



Universidad del Sur de California

USC Viterbi Data Analytics Boot Camp

Amplíe su conjunto de habilidades y crezca como analista de datos. Este programa cubre las habilidades especializadas para tener éxito en el campo de los datos en 24 semanas.



Si tiene curiosidad sobre big data y cómo transformarlo en información procesable, una carrera que incluya el aprendizaje automático como parte de un conjunto de herramientas podría resultar ideal. Una de esas disciplinas es la ciencia de datos. Si bien el campo en sí implica muchas herramientas, Científicos de datos utilizar una variedad de técnicas de ML para entrenar máquinas / dispositivos a partir de la entrada de datos. Para ayudarlo a decidir si esta es la opción de carrera para usted, aquí hay una mirada más cercana al aprendizaje automático y sus algoritmos.

¿Qué es el aprendizaje automático?

La gente a menudo considera que el aprendizaje automático y la inteligencia artificial son lo mismo. Sin embargo, los términos no son sinónimos.

La inteligencia artificial es la ciencia de entrenar máquinas para realizar tareas humanas, mientras que el aprendizaje automático es un subconjunto de la inteligencia artificial que instruye a una máquina cómo aprender.

Sin aprendizaje automático, no tienes IA. El proceso de ML incorpora varios algoritmos de aprendizaje automático que permiten que un sistema identifique patrones y tome decisiones sin participación humana.

Aunque no es evidente en la superficie, ML es responsable de muchas de sus interacciones diarias con la tecnología. Algunos de los dispositivos y aplicaciones que dependen del aprendizaje automático son:

  • Dispositivos móviles
  • Coches autónomos
  • Búsqueda en Google
  • Recomendaciones de películas de Netflix
  • Reconocimiento facial
  • Depósitos móviles de cheques
  • Rastreadores de fitness y relojes inteligentes portátiles

El mundo de IoT, incluidos dispositivos como asistentes domésticos inteligentes, electrodomésticos y juguetes, depende de algoritmos de aprendizaje automático para mejorar la experiencia del usuario.

Pasos de aprendizaje automático

Para lograr los resultados necesarios para la tecnología actual, los científicos de datos deben seguir varios pasos:

  1. Defina el problema o haga una pregunta.
  2. Recopilar conjunto de datos.
  3. Limpieza de datos e ingeniería de características: solucione valores atípicos, valores faltantes y otros problemas que puedan afectar a la salida. Elija las características esenciales, representadas por columnas que desea ver a través de la normalización o estandarización de datos. Aumente con columnas adicionales o elimine columnas innecesarias.
  4. Elija algoritmo: aprendizaje supervisado vs. no supervisado.
  5. Modelo de tren: desarrolle un modelo que supere el de una línea base.
  6. Modelo de evaluación: determine un protocolo de evaluación y una medida de éxito.
  7. Ajuste el algoritmo.
  8. Predecir y presentar resultados; Vuelva a sintonizar si es necesario.

El algoritmo que elija para su proyecto dependerá del tipo de datos que utilice. Ya sea nominal, binario, ordinal o intervalo, el aprendizaje automático puede encontrar información valiosa.

Algoritmos de aprendizaje automático

Hay tres conjuntos principales de algoritmos de aprendizaje automático: supervisados y no supervisados, incluido su número cada vez mayor de subtipos, y algoritmos de aprendizaje por refuerzo.

La mayoría del aprendizaje automático utiliza algoritmos de aprendizaje supervisado, que se indican mediante el uso de datos etiquetados (como la hora y el clima) que implican variables de entrada (x) y salida (y). Usted, como «maestro», conoce la(s) respuesta(s) correcta(s) y supervisa el algoritmo mientras hace predicciones basadas en los datos de entrenamiento. Si es necesario, realice correcciones hasta que el algoritmo alcance un nivel adecuado de ejecución.

Aunque hay una variedad de algoritmos de aprendizaje automático supervisado, los más utilizados incluyen:

Los algoritmos de aprendizaje automático no supervisados se utilizan para que los datos no estructurados encuentren características comunes y patrones distintos en el conjunto de datos. Debido a que este tipo de algoritmo de ML no requiere entrenamiento previo o datos etiquetados, es libre de explorar la estructura de la información.

Al igual que los algoritmos de aprendizaje automático supervisado, existen varios tipos de algoritmos no supervisados, como los métodos del kernel y la agrupación en clústeres k-means.

Regresión lineal

Una técnica de regresión lineal de variable simple es un tipo de algoritmo de ML que demuestra cómo una sola variable independiente de la entrada (variable de característica) y una variable dependiente de la salida trabajan juntas.

Más común es el algoritmo de regresión lineal multivariable, que determina la relación entre múltiples variables de entrada y una variable de salida. Los modelos de regresión están destinados a ser utilizados con valores reales como enteros o valores de punto flotante (cantidades, cantidades y tamaños).

Ventajas: Rápido de modelar. Fácil de entender. Útil para conjuntos de datos más pequeños que no son demasiado complicados.

Desventajas: Difícil de diseñar para datos no lineales. Tiende a ser ineficaz cuando se trabaja con datos altamente complejos.

Regresión logística

Un algoritmo alternativo de aprendizaje automático de regresión es el modelo logístico. Esta técnica está diseñada para problemas de clasificación binaria, como lo indican dos posibles resultados que se ven afectados por una o más variables explicativas.

Simple de interpretar y versátil en sus usos, la regresión logística es ideal para aplicaciones donde la interpretabilidad y la inferencia son vitales, como la detección de fraudes.

Ventajas: Fácil de implementar e interpretar. Adecuado para un conjunto de datos linealmente separable.

Desventajas: Una cantidad excesiva de datos crea un modelo complejo que puede llevar a un sobreajuste en conjuntos de datos de alta dimensión (el número de características es mayor que las observaciones). La regresión logística asume linealidad entre las variables dependientes e independientes.

Árboles de decisión

Esta clase de potentes algoritmos de aprendizaje automático es capaz de alcanzar altos niveles de precisión y es altamente interpretable. El conocimiento aprendido por un algoritmo de árbol de decisión se expresa como una estructura jerárquica, o «árbol», completa con varios nodos y ramas.

Cada nodo de decisión representa una pregunta sobre los datos, y las ramas que se derivan de un nodo representan posibles respuestas. Un tipo secundario de nodo, que es menos seguro en sus respuestas, es un nodo de oportunidad. Un nodo final se indica al final del proceso de toma de decisiones.

Los algoritmos de aprendizaje automático de árbol de decisión se pueden usar para resolver problemas de clasificación y regresión, a menudo denominados CART. Una técnica de árbol de decisión es útil para identificar tendencias.

Ventajas: Fácil de explicar. No requiere normalización ni escalado de datos.

Desventajas: Puede conducir a un sobreajuste. Afectado por el ruido (las distorsiones en la información pueden hacer que el algoritmo pierda patrones en los datos). No es adecuado para grandes conjuntos de datos.

Bosque aleatorio

Un Algoritmo de aprendizaje automático de bosque aleatorio Se considera un método de conjunto porque es una colección de cientos y, a veces, miles de árboles de decisión. El modelo aumenta el poder predictivo combinando las decisiones de cada árbol de decisión para encontrar una respuesta. El algoritmo de bosque aleatorio aprende a clasificar datos no etiquetados mediante el uso de datos etiquetados.

La técnica del bosque aleatorio es simple, altamente precisa y ampliamente utilizada por los ingenieros.

Ventajas: Aplicable tanto para problemas de regresión como de clasificación. Eficiente en grandes conjuntos de datos. Funciona bien con los datos que faltan.

Desventajas: No es fácilmente interpretable. Puede causar sobreajuste si se detecta ruido. Más lento que otros modelos en la creación de predicciones.

Redes neuronales

Este subconjunto de aprendizaje automático está inspirado en las redes neuronales dentro del cerebro humano. Un algoritmo de aprendizaje automático de red neuronal se construye con neuronas artificiales distribuidas en tres o más capas, lo que proporciona al observador una mayor cantidad de datos de una manera más detallada y distinta.

Debido a estas varias capas y al hecho de que el proceso es similar al humano, el algoritmo de aprendizaje automático de la red neuronal se considera aprendizaje profundo. Las aplicaciones del mundo real incluyen Face ID de Apple, y es el poder detrás de GoogLeNet y resultados del motor de búsqueda de Google.

Las redes neuronales se pueden utilizar para problemas de regresión y son ideales para tratar problemas de alta dimensión como el reconocimiento de voz y objetos.

Ventajas: Proporciona mejores resultados con una gran cantidad de datos. Capaz de trabajar con información incompleta. Capacidad de procesamiento paralelo.

Desventajas: Requiere muchos más datos que otros algoritmos de aprendizaje automático. El método tiene una naturaleza de «caja negra», lo que significa que no sabemos cómo o por qué el modelo obtuvo una salida en particular. Computacionalmente costoso.

Kernel Métodos

Kernel métodos son un grupo de algoritmos de aprendizaje automático supervisados o no supervisados utilizados para el análisis de patrones. Localizan y examinan tipos generales de relaciones, como clasificaciones, grupos o clasificaciones en conjuntos de datos, y separan los puntos de datos entre dos categorías. La aplicación de método de kernel más popular es la máquina de vectores de soporte (SVM).

Las funciones del kernel funcionan en gráficos, texto, imágenes, vectores y datos secuenciales. Pueden ayudar a convertir cualquier modelo lineal en un modelo no lineal cuando se necesita aprendizaje basado en instancias.

Ventajas: Eficaz en espacios de alta dimensión. Es poco probable que se sobreajuste. Versátil. Útil en minería de datos.

Desventajas: Complejo, que requiere una gran cantidad de memoria. No se escala bien a conjuntos de datos más grandes. Por lo general, se prefiere el bosque aleatorio a las SVM.

Agrupamiento de K-Means

La técnica simple de agrupamiento de k-means es uno de los algoritmos de aprendizaje automático no supervisado más populares. Su objetivo es colocar (n) observaciones en una serie de grupos (k). Cada grupo contiene observaciones, o puntos de datos, que tienen características similares, mientras que k sirve como prototipo de cada uno. El propósito de esta técnica es minimizar las varianzas dentro del grupo.

Los campos que utilizan este tipo de algoritmo de aprendizaje automático incluyen minería de datos, marketing, ciencia, planificación urbana y seguros.

Ventajas: Relativamente simple de implementar. Se adapta a nuevos ejemplos. Escala a grandes conjuntos de datos.

Desventajas: Sensibilidad a la escala. Sólo se puede utilizar con datos numéricos. Debe determinar el número de clústeres. Carece de consistencia.

Aprende más

Los científicos de datos organizan, analizan e informan sobre los grandes conjuntos de datos que reciben. Los datos pueden provenir de cualquier industria, y es su trabajo tratar de predecir y planificar para el futuro. Si bien tienen muchas herramientas para ayudarlos a analizar estos datos, Los algoritmos de aprendizaje automático ayudan a los científicos de datos Obtenga información valiosa más rápido. A medida que los datos en todo el mundo continúan multiplicándose y se introducen nuevos algoritmos, puede esperar que los campos de la ciencia de datos y el aprendizaje automático se expandan aún más para mantener el ritmo.