Stable Diffusion | ||
---|---|---|
Información general | ||
Tipo de programa | text-to-image model | |
Autor | LMU Munich and Runway | |
Desarrollador | https://github.com/CompVis/stable-diffusion | |
Modelo de desarrollo | Código abierto | |
Lanzamiento inicial | 22 de agosto de 2022 | |
Licencia | Licencia Creative ML OpenRAIL-M | |
Idiomas | Inglés | |
Información técnica | ||
Programado en | Python | |
Versiones | ||
Última versión estable | SDXL 1.026 de julio de 2023 | |
Enlaces | ||
Stable Diffusion es un modelo de aprendizaje automático desarrollado por Runway y LMU Múnich[1] para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural o estímulos (prompts en inglés). El modelo se puede usar para diferentes tareas, como la generación de traducciones de imagen a imagen guiadas por mensajes de texto y la mejora de imágenes.
A diferencia de modelos de la competencia como DALL-E, Stable Diffusion es de código abierto[2] y no limita artificialmente las imágenes que produce.[3] Los críticos han expresado su preocupación por la ética de la IA, afirmando que el modelo se puede utilizar para crear deepfakes.[4] Puede ejecutarse en el hardware del usuario equipado con una tarjeta gráfica (GPU), es completamente gratis, se puede acceder a él en línea y fue elogiado por PC World como "la próxima aplicación revolucionaria para su PC".[5] Desde su lanzamiento inicial, más de 200.000 personas han descargado el código.[6] El modelo original fue liberado a través de la colaboración de las comunidades CompVis LMU, Runway, y Stability AI con el apoyo de EleutherAI y LAION.
© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search