Ollama es una útil herramienta que te permitirá ejecutar diferentes LLM localmente en tu Mac. Aprovechando las ventajas de un depurado desarrollo open source, tan solo tendrás que iniciar diferentes comandos en el CMD de tu computadora para iniciar conversaciones repletas de información. Además, el potencial del sistema operativo de Apple te ayudará a generar respuestas a toda velocidad.
Ejecuta Meta Llama 3 y otros modelos en tu Mac
A través de Ollama no te resultará nada complicado ejecutar el potencial de modelos como Phi 3, Mistral, Gemma, Llama 2 o Llama 3 en tu computadora. Si optas por arrancar el LLM más avanzando de Meta, tan solo tendrás que ejecutar ollama run llama3 en el CMD para empezar la instalación. Eso sí, asegúrate de contar con espacio libre en el disco duro porque este modelo de lenguaje requerirá de varios GB libres para funcionar sin problemas.
Una comunicación con mucho contexto
Almacenar el contexto de preguntas y respuestas previas, en cada conversación, siempre será posible al utilizar Ollama. Al igual que ocurre con otros LLM online como ChatGPT o Copilot, la herramienta generará resultados teniendo en cuenta la información anterior. Así irás obteniendo líneas de texto que te permitirán aprovechar al máximo el tremendo potencial de cada modelo de lenguaje.
Instala una interfaz visual para Ollama en Mac
Instalar una interfaz visual te permitirá utilizar Ollama de forma más intuitiva en Mac. Para conseguir esta mejora bastará con aprovechar Docker con la intención de ejecutar el comando Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main. Así interaccionarás con la herramienta mediante una pantalla mucho más atractiva que la consola de comandos.
Descarga Ollama para Mac y aprovecha todas las ventajas que te ofrecerá esta sobresaliente herramienta mediante la que ejecutarás cualquier LLM en local sin dificultad.
Comentarios
Muy guay