Ubunlog Diego Germán González  

Más sobre la integración de la Inteligencia Artificial en Ubuntu

Integrando IA en Ubuntu

En este post vamoas a hablar más sobre la integración de la Inteligencia Artificial en Ubuntu. Lo estamos haciendo con un enfoque prudente lejos del enfoque sectario y exageradamente optimista de algunos divulgadores que insisten en ignorar los riesgos de seguridad y privacidad.

Con las precauciones debidas, el uso de la Inteligencia Artificial puede ayudarnos a acelerar los tiempos de trabajo y automatizar tareas rutinarias, siempre que se tomen las precauciones que enumeré en el artículo anterior.

Más sobre la integración de la Inteligencia Artificial en Ubuntu

Vamos a continuar con la lista de aplicaciones que usando extensiones pueden integrarse con modelos de Inteligencia Artificial.

Visual Studio Code

El Entorno Integado de Desarrollo de Microsoft ofrece una extensión para usasr su asistente de Inteligencia Artificial para codificación GitHub Copilot ofrece sugerencias de código en tiempo real, uso de agentes autónomos y posibilidad de chatear. También puede almacenar código guardado en múltiples archivos. Requiere la suscripción gratuita o de pago al servicio.

GitHub Copilot puede descargarse desde el Marketplace de la aplicación

.Github Copilot Language Server

Hace exactamente lo mismo que el anterior pero con otros Entornos Integrados de Desarrollo compatibles con el protocolo LSP como Neovim y Emacs. Requiere también la instalación de complementos en el editor.

El servidor de lenguaje se instala con:
sudo snap install copilot-language-server

Blender MCP

Permite controlar este software de creación de modelos 3d desde modelos de Inteligencia Artificial. Algunas características:

  • Permite la integración con DeepSeek y Claude.
  • Puede ejecutar código escrito en Python.
  • Modificación de materiales usando los modelos.
  • Ajuste mediante lenguaje natural de la posición de la cámara, iluminación y propiedades de la escena.
  • Capturas de pantalla de alta calidad.

Las instrucciones de instalación pueden encontrarse aquí.

Instalación de modelos locales

Si bien el uso de los grandes modelos de Inteligencia Artificial requieren de equipos muy poderosos, hay modelos con menos prestaciones que pueden correrse en equipos más modestos aunque los resultados también lo serán.  Aclaremos esto:

Nuestra interacción con la Inteligencia Artificial es con los llamados modelos de lenguaje a gran escala (LLM por sus siglas en inglés). Para que puedan interactuar con nosotros usando lenguaje natural es necesario entrenarlos con grandes cantidades de datos y paraámetros para establecer relaciones entre ellos y controlar patrones.  Un modelo con 7 millones de parámetros podrá usarse con un equipo de 8gb sin tarjeta gráfica dedicada, pero no mucho más. Con este nivel de parámetros lo máximo que podrás esperar es que te responda en «spanglish». Claro que si cuentas con un ordenador nivel gamer podrás aspirar a modelos más completos.

Instalar modelos localmente tiene algunas ventajas y desventajas.

Entre las ventajas:

  • Mantener el control de los datos evitando la fuga de información sensible.
  • Se puede elegir libremente el modelo y dado que son de código abierto, modificarlo.
  • El único costo de uso es el del hardware y la electricidad.
  • No requiere conexión a Internet
  • No hay latencia o es más baja.

Las desventajas son:

  • Los resultados dependen del hardware, los mejores modelos necesitan tarjetas gráficas muy potentes, mucha RAM y grandes capacidades de almacenamiento.
  • La optimización o adaptación de los modelo requiere muchos conocimientos. Esto es solo si se requiere una modificación especializada.
  • Los modelos suelen tener un rendimiento menor en tareas complejas que los comerciales.
  • La escalabilidad del modelo está limitada por la disponibilidad del hardware.

Los requerimientos de hardware para los diferentes modelos son:

Equipos sin tarjeta gráfica

  • Un modelo de  1–3B 8 necesita 12 GB para tener un funcionamiento aceptable.
  • Un modelo de 7B  requiere enre 16 y 24 GB para funcionar lentamente.
  • Un modelo de 13B funcionará muy lento con 32 GB de RAN
  • El ordenador hará las valijas y se irá si intentas ejecutar uno de más de 30B

Equipos con tarjeta gráfica dedicada

  • Para modelos entre 1–3B se necesitan 8 GB de memoria RAM y de 4 a 6 GB de memoria de video, un procesador de  4 cores. Con esta configuración podremos hacer chats simples y cor
  • En modelos de 7B requeriremos de 16 GB de RAM y de  8 a 10 GB de memoria de video. El procesador debe tener  6–8 cores. Los modelos podrán usarse para chats generales  o  tareas básicas
  • Si subimos a 13B de parámetros necesitaremos  entre  24 y32 GB de RAM y 16 a 24 GB de memoria de video. El procesador necesitará de  8 a 12 cores y aya tendremos acceso a modelos de calidad profesional.
  • Para modelos que codifiquen y hagan análisis de documentos necesitamos entre 30 y 34B de parámetros, entre 48 y 64 GB de memoria RAM y 24 a 48 de memoria de video además de un procesador de entre 12 y 16 cores.
  • Si buscas calidad parecida  a los modelso de pago, estamos hablando de  entre 65 y 70B de parámetros, 128 GB de RAM, 48 a 80 GB de memoria de video y de 16 a 32 cores.
  • Para 100B de parámetros ya nos fuimos a  entre 128 y 256 GB de RAM, de 80 a 160 GB  de memoria de video y un procesador 32+ cores. Claro que ya estamos hablando de nivel empresarial.

Todavía no hablamos del almacenamiento

  • Para 7B de parámetros necesitamos DE 4 a 8 GB.
  • Para 13B de 8 a 15 GB
  • Para 70B de 40 a 70 GB.

Seguramente te diste cuenta que la B al lado de los parámetros significa miles de millones. La cantidad de parámetros y hardware condicionarán el rendimiento del modelo

Ollama

Capttura de pantalla de Ollama

Ollama nos permite administrar localmente modelos de Inteligencia Artificial

OllamaAI es una herramienta que nos permite descargar, actualizar y eliminar modelos de Inteligencia Artificial. Estos modelos pueden utilizarse desde la terminal de Linux o dede una interfaz gráfica que comentamos en otro artículo.

Ollama se instala con el comando:

curl https://ollama.ai/install.sh | sh

ollama run nombre_del_modelo

Los modelos disponibles se ejecutan con el comando:
ollama run nombre_del_modelo
La primera vez que ejecutamos este comando el modelo se descargará. Debemos tener en cuenta que el modelo queda almacenado en nuestro disco y algunos ocupan varios gigabytes.

Para borrar el modelo usamos el comando:

ollama rm nombre_del modelo
Se pueden ver los modelos instalados con:

ollama list

En el próximo artículo veremos una opción que combina lo mejor de dos mundos.El uso de las API’S de los modelos comerciales nos permiten usar los modelos comerciales a un costo reducido y con mejores opciones de privacidad.

Ubunlog Diego Germán González  

Más sobre la integración de la Inteligencia Artificial en Ubuntu

Integrando IA en Ubuntu

En este post vamoas a hablar más sobre la integración de la Inteligencia Artificial en Ubuntu. Lo estamos haciendo con un enfoque prudente lejos del enfoque sectario y exageradamente optimista de algunos divulgadores que insisten en ignorar los riesgos de seguridad y privacidad.

Con las precauciones debidas, el uso de la Inteligencia Artificial puede ayudarnos a acelerar los tiempos de trabajo y automatizar tareas rutinarias, siempre que se tomen las precauciones que enumeré en el artículo anterior.

Más sobre la integración de la Inteligencia Artificial en Ubuntu

Vamos a continuar con la lista de aplicaciones que usando extensiones pueden integrarse con modelos de Inteligencia Artificial.

Visual Studio Code

El Entorno Integado de Desarrollo de Microsoft ofrece una extensión para usasr su asistente de Inteligencia Artificial para codificación GitHub Copilot ofrece sugerencias de código en tiempo real, uso de agentes autónomos y posibilidad de chatear. También puede almacenar código guardado en múltiples archivos. Requiere la suscripción gratuita o de pago al servicio.

GitHub Copilot puede descargarse desde el Marketplace de la aplicación

.Github Copilot Language Server

Hace exactamente lo mismo que el anterior pero con otros Entornos Integrados de Desarrollo compatibles con el protocolo LSP como Neovim y Emacs. Requiere también la instalación de complementos en el editor.

El servidor de lenguaje se instala con:
sudo snap install copilot-language-server

Blender MCP

Permite controlar este software de creación de modelos 3d desde modelos de Inteligencia Artificial. Algunas características:

  • Permite la integración con DeepSeek y Claude.
  • Puede ejecutar código escrito en Python.
  • Modificación de materiales usando los modelos.
  • Ajuste mediante lenguaje natural de la posición de la cámara, iluminación y propiedades de la escena.
  • Capturas de pantalla de alta calidad.

Las instrucciones de instalación pueden encontrarse aquí.

Instalación de modelos locales

Si bien el uso de los grandes modelos de Inteligencia Artificial requieren de equipos muy poderosos, hay modelos con menos prestaciones que pueden correrse en equipos más modestos aunque los resultados también lo serán.  Aclaremos esto:

Nuestra interacción con la Inteligencia Artificial es con los llamados modelos de lenguaje a gran escala (LLM por sus siglas en inglés). Para que puedan interactuar con nosotros usando lenguaje natural es necesario entrenarlos con grandes cantidades de datos y paraámetros para establecer relaciones entre ellos y controlar patrones.  Un modelo con 7 millones de parámetros podrá usarse con un equipo de 8gb sin tarjeta gráfica dedicada, pero no mucho más. Con este nivel de parámetros lo máximo que podrás esperar es que te responda en «spanglish». Claro que si cuentas con un ordenador nivel gamer podrás aspirar a modelos más completos.

Instalar modelos localmente tiene algunas ventajas y desventajas.

Entre las ventajas:

  • Mantener el control de los datos evitando la fuga de información sensible.
  • Se puede elegir libremente el modelo y dado que son de código abierto, modificarlo.
  • El único costo de uso es el del hardware y la electricidad.
  • No requiere conexión a Internet
  • No hay latencia o es más baja.

Las desventajas son:

  • Los resultados dependen del hardware, los mejores modelos necesitan tarjetas gráficas muy potentes, mucha RAM y grandes capacidades de almacenamiento.
  • La optimización o adaptación de los modelo requiere muchos conocimientos. Esto es solo si se requiere una modificación especializada.
  • Los modelos suelen tener un rendimiento menor en tareas complejas que los comerciales.
  • La escalabilidad del modelo está limitada por la disponibilidad del hardware.

Los requerimientos de hardware para los diferentes modelos son:

Equipos sin tarjeta gráfica

  • Un modelo de  1–3B 8 necesita 12 GB para tener un funcionamiento aceptable.
  • Un modelo de 7B  requiere enre 16 y 24 GB para funcionar lentamente.
  • Un modelo de 13B funcionará muy lento con 32 GB de RAN
  • El ordenador hará las valijas y se irá si intentas ejecutar uno de más de 30B

Equipos con tarjeta gráfica dedicada

  • Para modelos entre 1–3B se necesitan 8 GB de memoria RAM y de 4 a 6 GB de memoria de video, un procesador de  4 cores. Con esta configuración podremos hacer chats simples y cor
  • En modelos de 7B requeriremos de 16 GB de RAM y de  8 a 10 GB de memoria de video. El procesador debe tener  6–8 cores. Los modelos podrán usarse para chats generales  o  tareas básicas
  • Si subimos a 13B de parámetros necesitaremos  entre  24 y32 GB de RAM y 16 a 24 GB de memoria de video. El procesador necesitará de  8 a 12 cores y aya tendremos acceso a modelos de calidad profesional.
  • Para modelos que codifiquen y hagan análisis de documentos necesitamos entre 30 y 34B de parámetros, entre 48 y 64 GB de memoria RAM y 24 a 48 de memoria de video además de un procesador de entre 12 y 16 cores.
  • Si buscas calidad parecida  a los modelso de pago, estamos hablando de  entre 65 y 70B de parámetros, 128 GB de RAM, 48 a 80 GB de memoria de video y de 16 a 32 cores.
  • Para 100B de parámetros ya nos fuimos a  entre 128 y 256 GB de RAM, de 80 a 160 GB  de memoria de video y un procesador 32+ cores. Claro que ya estamos hablando de nivel empresarial.

Todavía no hablamos del almacenamiento

  • Para 7B de parámetros necesitamos DE 4 a 8 GB.
  • Para 13B de 8 a 15 GB
  • Para 70B de 40 a 70 GB.

Seguramente te diste cuenta que la B al lado de los parámetros significa miles de millones. La cantidad de parámetros y hardware condicionarán el rendimiento del modelo

Ollama

Capttura de pantalla de Ollama

Ollama nos permite administrar localmente modelos de Inteligencia Artificial

OllamaAI es una herramienta que nos permite descargar, actualizar y eliminar modelos de Inteligencia Artificial. Estos modelos pueden utilizarse desde la terminal de Linux o dede una interfaz gráfica que comentamos en otro artículo.

Ollama se instala con el comando:

curl https://ollama.ai/install.sh | sh

ollama run nombre_del_modelo

Los modelos disponibles se ejecutan con el comando:
ollama run nombre_del_modelo
La primera vez que ejecutamos este comando el modelo se descargará. Debemos tener en cuenta que el modelo queda almacenado en nuestro disco y algunos ocupan varios gigabytes.

Para borrar el modelo usamos el comando:

ollama rm nombre_del modelo
Se pueden ver los modelos instalados con:

ollama list

En el próximo artículo veremos una opción que combina lo mejor de dos mundos.El uso de las API’S de los modelos comerciales nos permiten usar los modelos comerciales a un costo reducido y con mejores opciones de privacidad.

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.