XGBoost

XGBoost
Información general
Tipo de programa biblioteca de software
Desarrollador Colaboradores de XGBoost
Lanzamiento inicial 27 de marzo del 2014
Licencia Apache License 2.0
Información técnica
Programado en
Versiones
Última versión estable 2.0.3 / 19 de diciembre del 2023 ()
Enlaces

XGBoost [1]​ (eXtreme Gradient Boosting) es una biblioteca de software de código abierto que proporciona un marco de regularización de potenciación de gradiente para C++, Java, Python,[2]R,[3]Julia,[4]Perl,[5]​ y Scala. . Funciona en Linux, Microsoft Windows,[6]​ y macOS.[7]​ El propósito del proyecto es ofrecer una biblioteca distribuida, portátil y escalable para potenciación de gradiente. Esta biblioteca puede operar tanto en una única máquina como en entornos de procesamiento distribuido Apache Hadoop, Apache Spark, Apache Flink y Dask.[8][9]

A mediados de la década de 2010, XGBoost ganó mucha popularidad y atención al ser el algoritmo elegido por una gran cantidad de equipos ganadores de competiciones de aprendizaje automático.[10]

  1. «GitHub project webpage». GitHub. June 2022. Archivado desde el original el 1 de abril de 2021. Consultado el 5 de abril de 2016. 
  2. «Python Package Index PYPI: xgboost». Archivado desde el original el 23 de agosto de 2017. Consultado el 1 de agosto de 2016. 
  3. «CRAN package xgboost». Archivado desde el original el 26 de octubre de 2018. Consultado el 1 de agosto de 2016. 
  4. «Julia package listing xgboost». Archivado desde el original el 18 de agosto de 2016. Consultado el 1 de agosto de 2016. 
  5. «CPAN module AI::XGBoost». Archivado desde el original el 28 de marzo de 2020. Consultado el 9 de febrero de 2020. 
  6. «Installing XGBoost for Anaconda in Windows». IBM. Archivado desde el original el 8 de mayo de 2018. Consultado el 1 de agosto de 2016. 
  7. «Installing XGBoost on Mac OSX». IBM. Archivado desde el original el 8 de mayo de 2018. Consultado el 1 de agosto de 2016. 
  8. «Dask Homepage». Archivado desde el original el 14 de septiembre de 2022. Consultado el 15 de julio de 2021. 
  9. «Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation». xgboost.readthedocs.io. Archivado desde el original el 4 de junio de 2022. Consultado el 15 de julio de 2021. 
  10. «XGBoost - ML winning solutions (incomplete list)». GitHub. Archivado desde el original el 24 de agosto de 2017. Consultado el 1 de agosto de 2016. 

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search