No utilices más la inteligencia artificial online: estos modelos funcionan directamente en tu PC

Los principales modelos de IA nacieron de grandes corporaciones de cara al gran público. Por ejemplo, ChatGPT fue el comienzo de toda la fiebre que ha arrastrado a Claude, Google o Twitter a hacer sus propios modelos de inteligencia artificial. Pero el tiempo ha pasado, y la comunidad ha hecho mucho por democratizar el a los mismos.
Ahora, la IA está más cerca que nunca para todos los s. Y lejos han quedado los días en que se necesitaban al 100% los servidores en la nube para trabajar con ella. Toda la optimización y liberación de los modelos han hecho que muchos de los sistemas de IA más potentes se puedan instalar en nuestro propio PC. Y eso es exactamente lo que venimos a contaros.
La revolución que ha supuesto para s de todo tipo el poder utilizar una IA de manera privada no tiene precio. El hecho es que ya no dependemos únicamente de plataformas como ChatGPT y Copilot. Ahora, directamente, puedes montarte tu propio asistente dentro de tu disco duro y sin gastar un solo euro.
Así que vamos a mostraros cuáles han sido los más aplaudidos hasta la fecha, que además funcionen sin una gráfica dedicada y con los recursos menos vanguardistas. Tan solo vas a necesitar un procesador decente y algo de memoria RAM.
Los mejores modelos de IA para usar de manera local
GPT4All
Sin duda, puede ser una de las que más han conquistado al gran público. GPT4All permite que descarguemos algunos modelos como Mistral, Llama o Falcon de manera local. Su app es bastante fácil de entender y no requiere que utilicemos nuestra GPU por el camino. Tan solo te pide un procesador con AVX2 y 8 GB de RAM. Así que si quieres chatear con el bot, resumir textos o responder preguntas básicas, es todo tuyo.
LM Studio
Esta herramienta también la puedes descargar, de manera gratuita, para gestionar con ella varios modelos de lenguaje. Por ejemplo, tienes Llama, ChatGPT, DeepSeek, y más. Y no solo eso, sino que te permite cargar tus archivos en PDF para que la propia IA le dé un buen repaso. Lo único que vas a necesitar es una gráfica con 6 GB de VRAM (o es lo recomendado), pero también puede funcionar solo con el procesador.
Ollama
Famosa entre los programadores, Ollama es uno de los programas más utilizados para ejecutar los modelos en versión de consola. Por ejemplo, bien puedes utilizar Llama 2 o Mistral de manera local, y todo se hará con comandos muy sencillos. El propio Ollama te va a pedir 8 GB de RAM y soporte AVX2.
Llama.p
Este programa destaca enormemente por lo ligero que es. Y además, te va a dejar ejecutar modelos pequeños con solo tu procesador, sin hacer uso de ninguna gráfica. Pero por lo que más destaca es por adaptarse muy bien a ordenadores portátiles.
Jan.ai
Si te importa la privacidad ante todo, quieres hacer uso de una herramienta de código abierto, y descargarla desde GitHub, estás ante la mejor. Soporta Gemma 2, Phi-3, Llama3-2, etc.