Qué es el refuerzo?
El refuerzo es un algoritmo que ayuda a reducir la varianza y el sesgo en un conjunto de aprendizaje automático. El algoritmoLos algoritmos (algos) son un conjunto de instrucciones que se introducen para realizar una tarea. Automatizan el trading para generar beneficios con una frecuencia imposible para un trader humano. ayuda en la conversión de alumnos débiles en alumnos fuertes mediante la combinación de N número de alumnos.
El refuerzo también puede mejorar las predicciones del modelo para los algoritmos de aprendizaje. Los alumnos débiles son corregidos secuencialmente por sus predecesores y, en el proceso, se convierten en alumnos fuertes.
Formas de apostar
El refuerzo puede adoptar varias formas, entre ellas:
1. Boosting adaptativo (Adaboost)
Adaboost pretende combinar varios aprendices débiles para formar un único aprendiz fuerte. Adaboost se concentra en los aprendices débiles, que suelen ser árboles de decisión con una sola división y que suelen denominarse muñones de decisión. El primer muñón de decisión en Adaboost contiene observaciones que se ponderan por igual.
Los errores anteriores se corrigen, y a las observaciones que fueron clasificadas incorrectamente se les asigna más peso que a otras observaciones que no tuvieron errores de clasificación. Los algoritmos de Adaboost se utilizan popularmente en los procedimientos de regresión y clasificación. Un error advertido en los modelos anteriores se ajusta con la ponderación hasta conseguir un predictor preciso.
2. Gradient Boosting
El refuerzo por gradiente, al igual que cualquier otro procedimiento de aprendizaje automático por conjuntos, añade secuencialmente predictores al conjunto y sigue la secuencia en la corrección de los predictores anteriores para llegar a un predictor preciso al final del procedimiento. Adaboost corrige sus errores anteriores ajustando los pesos para cada observación incorrecta en cada iteración. Aun así, el gradient boosting tiene como objetivo ajustar un nuevo predictor en los errores residuales cometidos por el predictor precedente.
El refuerzo de gradiente utiliza el descenso de gradiente para señalar los retos en los aprendices’ predicciones utilizadas anteriormente. Se destaca el error anterior y, al combinar un aprendiz débil con el siguiente, el error se reduce significativamente con el tiempo.
3. XGBoost (Extreme Gradient Boosting)
XGBoostimg implementa árboles de decisión con gradiente potenciado, rendimiento mejorado y velocidad. La implementación de las máquinas de gradiente reforzado es relativamente lenta debido al entrenamiento del modelo que debe seguir una secuencia. Por lo tanto, carecen de escalabilidadLa escalabilidad puede caer tanto en contextos financieros como de estrategia empresarial. En ambos casos, representa la capacidad de la entidad para soportar la presión debido a su lentitud.
XGBoost depende del rendimiento de un modelo y de la velocidad de cálculo. Proporciona varias ventajas, como la paralelización, la computación distribuida, la optimización de la caché y la computación fuera del núcleo.
XGBoost proporciona una paralelización en la construcción del árbol mediante el uso de los núcleos de la CPU durante el entrenamiento. También distribuye la computación cuando entrena grandes modelos utilizando clusters de máquinas. La computación fuera de núcleo se utiliza para conjuntos de datos más grandes que pueden’t caben en el tamaño de la memoria convencional. La optimización de la caché también se utiliza para los algoritmos y las estructuras de datos para optimizar el uso del hardware disponible.
Pros y contras del Boosting
Como modelo de conjunto, el boosting viene con un algoritmo fácil de leer e interpretar, lo que hace que sus interpretaciones de predicción sean fáciles de manejar. La capacidad de predicción es eficiente mediante el uso de sus métodos clónicos, como el baggingBagging (Bootstrap Aggregation)El aprendizaje automático conjunto puede clasificarse principalmente en bagging y boosting. La técnica de bagging es útil para la regresión y la clasificación estadística. o bosque aleatorio y árboles de decisión. El refuerzo es un método resistente que frena fácilmente el sobreajuste.
Una de las desventajas del boosting es que es sensible a los valores atípicos, ya que cada clasificador está obligado a corregir los errores de los predecesores. Por lo tanto, el método es demasiado dependiente de los valores atípicos. Otra desventaja es que el método es casi imposible de ampliar. Esto se debe a que cada estimador basa su corrección en los predictores anteriores, lo que dificulta la racionalización del procedimiento.
Qué son los árboles de decisión?
Los árboles de opción son los sustitutos de los árboles de decisión. Representan clasificadores de conjunto mientras que derivan una estructura única. La diferencia entre los árboles de opción y los árboles de decisión es que los primeros incluyen tanto nodos de opción como de decisión, mientras que los segundos sólo incluyen nodos de decisión.
La clasificación de una instancia requiere filtrarla a través del árbol. Se requiere un nodo de decisión para elegir una de las ramas, mientras que un nodo de opción debe tomar todo el grupo de ramas. Esto significa que, con un nodo de opción, uno termina con múltiples hojas que requerirían ser combinadas en una clasificación para terminar con una predicción. Por lo tanto, se requiere una votación en el proceso, donde un voto mayoritario significa que el nodo’s se ha seleccionado como la predicción para ese proceso.
El proceso anterior deja claro que los nodos de opción no deben venir con dos opciones ya que acabarán perdiendo el voto si no pueden encontrar un ganador definitivo. La otra posibilidad es tomar la media de las estimaciones de probabilidad de varios caminos siguiendo enfoques como el bayesiano o el método de medias no ponderadas.
Los árboles de opciones también pueden desarrollarse a partir de la modificación de los alumnos del árbol de decisiones existente o de la creación de un nodo de opciones en el que se correlacionen varias divisiones. Todo árbol de decisión dentro de un nivel de tolerancia admisible puede convertirse en árboles de opciones.
Más recursos
Para seguir aprendiendo y desarrollando sus conocimientos sobre la inteligencia empresarial, le recomendamos encarecidamente los recursos adicionales de nuestro sitio web que figuran a continuación: