Ollama es una herramienta, de código abierto, que te permitirá ejecutar cualquier modelo de lenguaje en una máquina local. Aprovechando el potencial de tu computadora, esta utilidad te ayudará a generar respuestas sin necesidad de acceder a un LLM de forma online. Y lo mejor de todo es que siempre obtendrás datos, aunque tu PC cuente con unos recursos limitados. Eso sí, un hardware poco eficaz podrá mermar bastante la velocidad a la que generarás los "tokens".
Aprovecha el potencial de modelos de lenguaje muy poderosos
A través de Ollama lo tendrás muy fácil para instalar diferentes modelos equipados con billones de parámetros como Llama 3, Phi 3, Mistral o Gemma con solo introducir sus respectivos comandos. Por ejemplo, si quieres correr el poderoso Llama 3 de Meta, únicamente necesitarás ejecutar ollama run llama3 en la consola para iniciar la instalación. Hay que tener en cuenta que, por defecto, Ollama generará las conversaciones a través del CMD de Windows. Por cierto, resultará recomendable disponer del doble de espacio en disco libre con relación al peso de cada LLM que añadas.
Conversaciones fluidas
Al igual que ocurre con los modelos de lenguaje que puedes ejecutar en la nube, Ollama te permitirá ir almacenando las respuestas anteriores para generar cohesión y contexto. Así, de manera fluida, conseguirás crear una conversación muy bien estructurada que aprovechará todo el potencial de los LLM más sofisticados.
Instala una interfaz alternativa
Gracias al repositorio de ollama-webui podrás exprimir el potencial de Ollama bajo una interfaz mucho más visual similar a la de ChatGPT. Ejecutando en Docker el comando Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main pondrás en marcha un contenedor que te ayudará a disponer de un diseño visual mucho más intuitivo.
Crea tu propio LLM
Por otro lado, Ollama también te permitirá crear tu propio LLM para disfrutar de una experiencia mucho más personalizada. En este sentido, realizando una configuración propia, podrás integrar diferentes modelos, al mismo tiempo, para obtener respuestas que combinen los recursos de cada asistente.
Descarga Ollama para Windows y disfruta de las infinitas posibilidades que te brindará esta sobresaliente herramienta mediante la que utilizarás cualquier LLM localmente. Así aumentarás tu privacidad y no tendrás que compartir información online con los peligros que ello puede conllevar para tu privacidad.
Comentarios
Fantástica herramienta para probar LLMs en local sin complicaciones. Los modelos que se ejecutan en tu ordandor tienen menos limitaciones (por la censura que aplica OpenAI y otras compañías), son priv...Ver más