MuyLinux J.Pomeyrol  

Canonical prepara la integración de IA en Ubuntu: inferencia local y modelos abiertos

Canonical tiene planes para integrar la IA en Ubuntu, pero que nadie se asuste, porque la compañía ha detallado cómo piensa y la distribución no va a convertirse en un “producto» de inteligencia artificial. La idea es introducir estas tecnologías donde aporten valor real, con un enfoque contenido y coherente con el proyecto.

Así lo explica Jon Seager, vicepresidente de ingeniería de Canonical. En esencia, la compañía quiere apoyarse en modelos con pesos abiertos, con licencias compatibles con sus principios, apoyándose en herramientas abiertas y en la inferencia local como opción por defecto.

Aquí hay un matiz relevante: en el ámbito de los LLM, “pesos abiertos” no se refiere al tipo de modelo, sino a su forma de distribución; y que se refieran a ello como «abierto» tampoco equivale a “código abierto” en el sentido clásico, por lo que la selección de modelos no dependerá solo de su disponibilidad, sino también de las condiciones de uso.

Canonical plantea dos vías de integración de la IA: por un lado, mejoras sobre funciones ya existentes —como accesibilidad con voz a texto o texto a voz— que no cambian la forma de uso; por otro, capacidades más visibles basadas en agentes, orientadas a generar contenido, asistir en diagnósticos o automatizar tareas. IA en Ubuntu, sí. Agéntica, para más señas. Pero el listón será más alto: controles de seguridad, permisos limitados y confinamiento son obligatorios.

¿Cómo se implementará todo esto? El puente técnico, según adelantan, pasa por lo que denominan como inference snaps, con los que se pretende simplificar el uso de modelos locales optimizados para cada equipo, evitando la complejidad habitual de herramientas, repositorios y dependencias, al tiempo que se facilita todo lo relativo a la seguridad.

Ejemplos como nemotron-3-nano ilustran este enfoque, respaldado por el confinamiento propio de Snap y por acuerdos con fabricantes de hardware para ofrecer variantes optimizadas. Canonical menciona también modelos como Gemma 4 o Qwen-3.6-35B-A3B por sus capacidades de tool-calling, esto es, la posibilidad de interactuar con servicios, APIs o el propio sistema.

A medio plazo, la intención manifiesta es avanzar hacia un sistema más consciente del contexto, con agentes integrados de forma controlada, lo cual no se limita al escritorio: también apunta a escenarios de administración, como análisis de logs, diagnósticos o tareas de mantenimiento. Todo ello, de igual modo, con límites de acción claros para todo lo que se ejecute.

En última instancia entra en juego el factor hardware, ya que no todos los usuarios están preparados para ejecutar modelos pequeños con un mínimo de garantías o eficiencia, ni estos igualan a los grandes modelos en la nube. Canonical confía en que la evolución de los modelos y de los aceleradores reduzca esa brecha.

Ubuntu se prepara así para incorporar inteligencia artificial sin convertirla en el eje del producto, lo que entra dentro no solo de lo esperable, sino de lo deseable: que el usuario decida lo que usa y cómo lo usa, pero que tenga la opción. En este sentido, Canonical solo se diferencia por el momento de propuestas como las de Red Hat o SUSE en acercar la tecnología al usuario de a pie.

La entrada Canonical prepara la integración de IA en Ubuntu: inferencia local y modelos abiertos es original de MuyLinux

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.