mirror of
https://github.com/carlospolop/hacktricks
synced 2025-02-16 14:08:26 +00:00
Translated ['todo/test-llms.md'] to es
This commit is contained in:
parent
2576de0bdb
commit
1a8422a1b9
2 changed files with 51 additions and 0 deletions
|
@ -838,6 +838,7 @@
|
|||
* [Low-Power Wide Area Network](todo/radio-hacking/low-power-wide-area-network.md)
|
||||
* [Pentesting BLE - Bluetooth Low Energy](todo/radio-hacking/pentesting-ble-bluetooth-low-energy.md)
|
||||
* [Industrial Control Systems Hacking](todo/industrial-control-systems-hacking/README.md)
|
||||
* [Test LLMs](todo/test-llms.md)
|
||||
* [LLM Training - Data Preparation](todo/llm-training-data-preparation/README.md)
|
||||
* [0. Basic LLM Concepts](todo/llm-training-data-preparation/0.-basic-llm-concepts.md)
|
||||
* [1. Tokenizing](todo/llm-training-data-preparation/1.-tokenizing.md)
|
||||
|
|
50
todo/test-llms.md
Normal file
50
todo/test-llms.md
Normal file
|
@ -0,0 +1,50 @@
|
|||
# Test LLMs
|
||||
|
||||
## Run & train models locally
|
||||
|
||||
### [**Hugging Face Transformers**](https://github.com/huggingface/transformers)
|
||||
|
||||
Hugging Face Transformers es una de las bibliotecas de código abierto más populares para usar, entrenar y desplegar LLMs como GPT, BERT y muchos otros. Ofrece un ecosistema completo que incluye modelos preentrenados, conjuntos de datos e integración sin problemas con el Hugging Face Hub para el ajuste fino y el despliegue.
|
||||
|
||||
### [**LangChain**](https://github.com/langchain-ai/langchain)
|
||||
|
||||
LangChain es un marco diseñado para construir aplicaciones con LLMs. Permite a los desarrolladores conectar modelos de lenguaje con fuentes de datos externas, APIs y bases de datos. LangChain proporciona herramientas para la ingeniería de prompts avanzada, gestión del historial de conversaciones e integración de LLMs en flujos de trabajo complejos.
|
||||
|
||||
### [**LitGPT**](https://github.com/Lightning-AI/litgpt)
|
||||
|
||||
LitGPT es un proyecto desarrollado por Lightning AI que aprovecha el marco Lightning para facilitar el entrenamiento, ajuste fino y despliegue de modelos basados en GPT. Se integra sin problemas con otras herramientas de Lightning AI, proporcionando flujos de trabajo optimizados para manejar modelos de lenguaje a gran escala con un rendimiento y escalabilidad mejorados.
|
||||
|
||||
### [**LitServe**](https://github.com/Lightning-AI/LitServe)
|
||||
|
||||
**Descripción:**\
|
||||
LitServe es una herramienta de despliegue de Lightning AI diseñada para desplegar modelos de IA de manera rápida y eficiente. Simplifica la integración de LLMs en aplicaciones en tiempo real al proporcionar capacidades de servicio escalables y optimizadas.
|
||||
|
||||
### [**Axolotl**](https://github.com/axolotl-ai-cloud/axolotl)
|
||||
|
||||
Axolotl es una plataforma basada en la nube diseñada para optimizar el despliegue, escalado y gestión de modelos de IA, incluidos LLMs. Ofrece características como escalado automatizado, monitoreo e integración con varios servicios en la nube, facilitando el despliegue de modelos en entornos de producción sin una gestión extensa de infraestructura.
|
||||
|
||||
## Try models online
|
||||
|
||||
### [**Hugging Face**](https://huggingface.co/)
|
||||
|
||||
**Hugging Face** es una plataforma y comunidad líder en aprendizaje automático, particularmente conocida por su trabajo en procesamiento de lenguaje natural (NLP). Proporciona herramientas, bibliotecas y recursos que facilitan el desarrollo, compartición y despliegue de modelos de aprendizaje automático.\
|
||||
Ofrece varias secciones como:
|
||||
|
||||
* **Models**: Un vasto repositorio de **modelos de aprendizaje automático preentrenados** donde los usuarios pueden explorar, descargar e integrar modelos para diversas tareas como generación de texto, traducción, reconocimiento de imágenes y más.
|
||||
* **Datasets:** Una **colección completa de conjuntos de datos** utilizados para entrenar y evaluar modelos. Facilita el acceso fácil a diversas fuentes de datos, permitiendo a los usuarios encontrar y utilizar datos para sus proyectos específicos de aprendizaje automático.
|
||||
* **Spaces:** Una plataforma para alojar y compartir **aplicaciones interactivas de aprendizaje automático** y demostraciones. Permite a los desarrolladores **mostrar** sus modelos en acción, crear interfaces amigables y colaborar con otros compartiendo demostraciones en vivo.
|
||||
|
||||
## [**TensorFlow Hub**](https://www.tensorflow.org/hub) **&** [**Kaggle**](https://www.kaggle.com/)
|
||||
|
||||
**TensorFlow Hub** es un repositorio completo de módulos reutilizables de aprendizaje automático desarrollados por Google. Se centra en facilitar la compartición y el despliegue de modelos de aprendizaje automático, especialmente aquellos construidos con TensorFlow.
|
||||
|
||||
* **Modules:** Una vasta colección de modelos preentrenados y componentes de modelos donde los usuarios pueden explorar, descargar e integrar módulos para tareas como clasificación de imágenes, incrustación de texto y más.
|
||||
* **Tutorials:** Guías y ejemplos paso a paso que ayudan a los usuarios a entender cómo implementar y ajustar modelos utilizando TensorFlow Hub.
|
||||
* **Documentation:** Guías completas y referencias de API que asisten a los desarrolladores en la utilización efectiva de los recursos del repositorio.
|
||||
|
||||
## [**Replicate**](https://replicate.com/home)
|
||||
|
||||
**Replicate** es una plataforma que permite a los desarrolladores ejecutar modelos de aprendizaje automático en la nube a través de una API simple. Se centra en hacer que los modelos de ML sean fácilmente accesibles y desplegables sin necesidad de una configuración extensa de infraestructura.
|
||||
|
||||
* **Models:** Un repositorio de modelos de aprendizaje automático contribuidos por la comunidad que los usuarios pueden explorar, probar e integrar modelos en sus aplicaciones con un esfuerzo mínimo.
|
||||
* **API Access:** APIs simples para ejecutar modelos que permiten a los desarrolladores desplegar y escalar modelos sin esfuerzo dentro de sus propias aplicaciones.
|
Loading…
Add table
Reference in a new issue