2.3. Ollama y prototipo
2.3. Instalación de infraestructura: Elige tu camino
Para ejecutar Llama, necesitamos un "motor". En este taller ofrecemos dos rutas de implementación. Ambas son válidas, pero atienden a perfiles distintos.
CRITERIO DE DECISIÓN
Elige Ruta A si quieres privacidad total y tienes una laptop moderna (M1/M2/M3 o Windows con GPU).
Elige Ruta B si tu equipo es antiguo o corporativo (bloqueado) y priorizas la velocidad.
Herramienta: LM Studio / Ollama
Esta ruta descarga el "cerebro" a tu disco duro. Funciona sin internet.
Paso 1: Instalación del motor
Descarga LM Studio desde su sitio oficial.
Instala y ejecuta la aplicación.
Paso 2: Adquisición del modelo (Llama 3.2)
En la barra de búsqueda (lupa), escribe:
llama 3.2 3b.Selecciona la opción "Quantization q4_k_m" (Balance ideal velocidad/calidad).
Clic en Download.
Paso 3: Inferencia
Ve a la pestaña de Chat (burbuja).
Selecciona el modelo cargado arriba al centro.
Prueba de fuego: Desconecta tu WiFi y escribe: "Hola, ¿estás funcionando?"
Resultado: Tienes una IA privada, soberana y gratuita de por vida.
Herramienta: Groq (API)
Esta ruta utiliza servidores externos ultra-rápidos. Ideal para prototipar agentes complejos.
Paso 1: Acceso
Ingresa a la consola de Groq.
Crea una cuenta gratuita.
Paso 2: Selección de modelo
En el menú desplegable, selecciona
llama-3.2-70b-versatile(Modelo de mayor capacidad).Ajusta la "Temperatura" a
0(para tareas precisas) o0.7(para creatividad).
Paso 3: Inferencia
Escribe tu prompt en el área de System y User.
Resultado: Velocidad de 300 tokens/segundo. Ideal para procesar documentos largos en segundos.
Validación de Instalación
Antes de pasar al siguiente módulo, asegúrate de cumplir este checklist:
Última actualización

