XGBoost | ||
---|---|---|
![]() | ||
Información general | ||
Tipo de programa | biblioteca de software | |
Desarrollador | Colaboradores de XGBoost | |
Lanzamiento inicial | 27 de marzo del 2014 | |
Licencia | Apache License 2.0 | |
Información técnica | ||
Programado en | ||
Versiones | ||
Última versión estable | 2.0.3 / 19 de diciembre del 2023 () | |
Enlaces | ||
XGBoost [1] (eXtreme Gradient Boosting) es una biblioteca de software de código abierto que proporciona un marco de regularización de potenciación de gradiente para C++, Java, Python,[2] R,[3] Julia,[4] Perl,[5] y Scala. . Funciona en Linux, Microsoft Windows,[6] y macOS.[7] El propósito del proyecto es ofrecer una biblioteca distribuida, portátil y escalable para potenciación de gradiente. Esta biblioteca puede operar tanto en una única máquina como en entornos de procesamiento distribuido Apache Hadoop, Apache Spark, Apache Flink y Dask.[8][9]
A mediados de la década de 2010, XGBoost ganó mucha popularidad y atención al ser el algoritmo elegido por una gran cantidad de equipos ganadores de competiciones de aprendizaje automático.[10]
© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search