Desde Linux Jose Albert  

Fundamentos de Inteligencia Artificial (IA) para Linuxeros – Tercera parte

Fundamentos de Inteligencia Artificial - Tercera parte: Conceptos

Fundamentos de Inteligencia Artificial – Tercera parte: Conceptos

Sí, te han gustado nuestras 2 primeras publicaciones relacionadas con el aprendizaje de la Inteligencia Artificial (IA) para Linuxeros, pues hoy muy seguramente apreciaras adecuadamente esta tercera parte de la misma donde abordaremos varios de los conceptos y términos más importantes y asociados a este ámbito tecnológico. Y si no has leído las 2 anteriores, te precisamos que en la segunda parte abordamos el punto sobre la diferencia entre la Inteligencia Artificial Simbólica y la Inteligencia Artificial Conexionista y sobre los hitos históricos de este ámbito tecnológico en los últimos 100 años. Mientras que, en la primera parte nos enfocamos en qué es la IA y sobre los diversos tipos que ya se han creado (Estrecha o Débil, Generativa y Agéntica) y que se esperan crear (General o Fuerte, y la Superinteligencia Artificial).

Y como en las oportunidades anteriores, ten presente que tal como en sus días la Electricidad, Radio, la Televisión, las Computadoras, los Teléfonos, el Internet y las Redes Sociales; la Inteligencia Artificial es una tecnología que ha llegado para integrarse profundamente a todo. Y que, al ahorrarnos valioso tiempo y costosas horas de trabajo, y hacernos ser más productivos, creativos y versátiles; muy seguramente, poco a poco, irá desplazando a los que menos tengan idea de su existencia y manejo. Por ello, nada mejor que empezar a tener contexto sobre todo lo relacionado con ella.

Fundamentos de Inteligencia Artificial - Primera parte: Orígenes II

Fundamentos de Inteligencia Artificial – Primera parte: Orígenes II

Pero, antes de introducirnos en esta «tercera parte del apasionante y sorprendente ámbito de la Inteligencia Artificial», y más específicamente sobre algunos de los conceptos y términos más importantes a tener en cuenta, entender y dominar, les recomendamos explorar la anterior y reciente publicación relacionada de esta serie de publicaciones, al finalizar de leer la misma:

Fundamentos de Inteligencia Artificial - Tercera parte: Conceptos y términos relacionados

Fundamentos de Inteligencia Artificial – Tercera parte: Conceptos y términos relacionados

20 conceptos y términos importantes que se mencionan siempre en el ámbito de la Inteligencia Artificial

1. Alucinación

La alucinación se refiere a una situación en la que un sistema de IA, especialmente en aquellos casos en los que se encarga del procesamiento del lenguaje natural, comienza a generar resultados que pueden ser irrelevantes, sin sentido o incorrectos basados en la entrada proporcionada. Frecuentemente, esto ocurre cuando el sistema de IA no está seguro del contexto, depende demasiado de sus datos de entrenamiento o carece de una comprensión adecuada del tema que se le presenta.

2. Aprendizaje Automático (Machine Learning)

Un subcampo de la IA que abarca el desarrollo de algoritmos y modelos estadísticos que permiten a las máquinas mejorar su rendimiento con la experiencia. Un ejemplo sería un algoritmo de aprendizaje automático que pudiera predecir la probabilidad de pérdida de los clientes basándose en su comportamiento pasado. Gracias a un programa de aprendizaje automático, la máquina aprende a resolver problemas a partir de ejemplos: puede así comparar y clasificar datos e incluso reconocer formas complejas.

3. Aprendizaje profundo (Deep Learning)

Un subcampo del aprendizaje automático (machine learning) que utiliza redes neuronales con múltiples capas para aprender de los datos, es decir, que utiliza distintas estructuras de redes neuronales para lograr el aprendizaje de sucesivas capas de representaciones cada vez más significativas de los datos. Actualmente, es el campo con más popularidad dentro de la IA. Y surgió de la combinación de los algoritmos de aprendizaje automático con las redes neuronales formales y el uso de los macrodatos.

4. Big Data

Big Data es la rama de las Tecnologías de la información que estudia las dificultades inherentes a la manipulación de grandes conjuntos de datos. También llamados Macrodatos, estos se refieren a un conjunto de datos grandes y complejos que, a menudo, son demasiado grandes o variados para procesarse con métodos tradicionales. Y además, provienen de una variedad de fuentes (redes sociales, sensores, etc.) y requieren técnicas avanzadas, como la inteligencia artificial y el aprendizaje automático, para analizarlos y extraer información útil.‍

5. Conjunto de datos

Un Conjunto de datos o Dataset es una colección de Datos que habitualmente están estructurados en forma tabular. Por ende, es una recopilación de datos organizada que se utiliza para entrenar, probar o validar modelos de inteligencia artificial. Y puede contener texto, imágenes, vídeos u otro tipo de información, normalmente etiquetada, para permitir que los algoritmos aprendizaje automático para reconocer patrones y hacer predicciones.

6. Entrenamiento de modelos

El entrenamiento de modelos es el proceso de usar un conjunto de datos para enseñar a un modelo de inteligencia artificial o aprendizaje automático a realizar una tarea específica, como la clasificación o la predicción. El modelo ajusta sus parámetros en función de los ejemplos proporcionados, a fin de mejorar su precisión en los nuevos datos.

7. Generación Aumentada por Recuperación

RAG (por sus siglas en inglés, Retrieval-Augmented Generation) es un método que permite a una IA consultar bases de datos externas o buscar en internet información nueva y actualizada antes de generar una respuesta. En lugar de tener que volver a entrenar todo el modelo con datos nuevos, RAG funciona como una especie de «educación en tiempo real» para la IA. Esto es muy útil porque obliga al sistema a basarse en documentos específicos y verificados, lo que reduce en gran medida el riesgo de que la IA invente información (alucinaciones).

8. GPT (Generative Pre-trained Transformer)

Son una familia de modelos de lenguaje desarrollados por OpenAI que utilizan redes neuronales para comprender y generar texto de forma natural. Estos modelos GPT (Transformador Generativo Pre-entrenado) utilizan una arquitectura llamada Transformer que les permite analizar consultas (prompts) y predecir la respuesta más probable basándose en el entrenamiento con conjuntos de datos masivos. Debido a esto, GPT es capaz de imitar las capacidades de comprensión lingüística de los humanos.

9. Generación de Lenguaje Natural (Natural Language Generation)

La generación de lenguaje natural es un subcampo de la inteligencia artificial que consiste en producir automáticamente textos o discursos comprensibles en lenguaje humano. Permite que una máquina transforme datos sin procesar en oraciones o párrafos naturales, como en resúmenes automatizados o asistentes virtuales.

10. Ingeniería de Prompts

Es el arte de desarrollar entradas (prompts) de solicitudes (peticiones) para lograr salidas generativas significativas, es decir, más precisas, productivas e innovadoras. O dicho en otras palabras, es la ciencia de diseñar, optimizar y refinar las instrucciones que le damos a una Inteligencia Artificial generativa. Su objetivo es guiar a la IA para obtener respuestas precisas, relevantes y de alta calidad, actuando como un puente comunicativo para evitar resultados genéricos o erróneos.

conceptos y términos importantes que se mencionan siempre en el ámbito de la Inteligencia Artificial

11. Modelo

Un modelo es el objeto que va a representar la salida del algoritmo de aprendizaje. Por ende, es lo que utilizan las IA para realizar las predicciones de salida. Por ejemplo, los modelos base son una amplia categoría de modelos de IA que incluyen modelos de lenguaje grandes y otros tipos de modelos como los de visión por computadora y modelos de aprendizaje por refuerzo. Y se les llama “Modelos base” porque sirven como el pilar sobre el que construir aplicaciones, atendiendo a una amplia gama de dominios y casos de uso.

12. Modelos de lenguaje grande (Large Language Models)

Son un tipo de modelo de aprendizaje profundo entrenado en un gran conjunto de datos para realizar tareas de comprensión y generación de lenguaje natural. Hay modelos muy conocidos, como BERT, PaLM, GPT-2, GPT-3, GPT-3.5 y el innovador GPT-4. Todos estos modelos varían en tamaño (número de parámetros que se pueden ajustar), en la amplitud de tareas (codificación, chat, científicas, etc.), y en el conocimiento en que han sido entrenados.

13. Modelos de lenguaje pequeños (Small Language Models)

Son versiones de bolsillo de los modelos de lenguaje grandes, o LLM. Ambos utilizan técnicas de aprendizaje automático para ayudarles a reconocer patrones y relaciones para que puedan producir respuestas realistas en lenguaje natural. Pero, mientras que los LLM son enormes y necesitan una gran dosis de potencia computacional y memoria, los SLM como Phi-3 se entrenan en conjuntos de datos más pequeños y seleccionados y tienen menos parámetros, por lo que son más compactos e incluso se pueden usar sin conexión a Internet.

14. Sesgo

Son las suposiciones hechas por un modelo de IA sobre los datos. Un “compromiso entre sesgo y varianza” es el equilibrio que debe lograrse entre las suposiciones que un modelo hace sobre los datos y la cantidad que las predicciones de un modelo cambian, dados diferentes datos de entrenamiento. El sesgo inductivo es el conjunto de suposiciones que un algoritmo de aprendizaje automático hace sobre la distribución subyacente de los datos.

15. Procesamiento del lenguaje natural (Natural Languaje Processing)

Es una disciplina interdisciplinaria cuya idea central es la de darle a las máquinas la capacidad de leer y comprender los idiomas que hablamos los humanos. La investigación del Procesamiento del lenguaje natural tiene como objetivo responder a la pregunta de cómo las personas son capaces de comprender el significado de una oración oral / escrita y cómo las personas entienden lo que sucedió, cuándo y dónde sucedió; y las diferencias entre una suposición, una creencia o un hecho. En consecuencia, implica el programar computadoras para procesar volúmenes masivos de datos lingüísticos, y se centra en transformar un texto en formato libre en una estructura estandarizada.

16. Prompt

Es una instrucción o conjunto de instrucciones (input) que se le da a un sistema informátizado para que genere una respuesta. En relación a la Inteligencia Artificial, es la instrucción, comando, pregunta, petición o declaración de texto inicial que se le proporciona al modelo para guiar y direccionar la generación de una respuesta o salida específica. El prompt actúa como un estímulo o disparador para la IA, indicando el tema, el estilo, la dirección o el tipo de respuesta que se espera. La forma en que se formula el prompt (su encuadre) determina directamente la calidad y la relevancia de los resultados recibidos.

17. Red Neuronal

Son un modelo computacional basado en un gran conjunto de unidades neuronales simples (neuronas artificiales), de forma aproximadamente análoga al comportamiento observado en los axones de las neuronas en los cerebros biológicos. Son la unidad de trabajo fundamental del Deep Learning. Además, es un modelo de aprendizaje automático que permite el reconocer patrones y resolver problemas, basados en formación automática o aprendizaje profundo, buscando modelar los mecanismos de análisis del cerebro humano.

18. Transformador

Representa un tipo de arquitectura de red neuronal diseñada para procesar datos secuenciales, como es el texto. La arquitectura transformadora aprende contexto y en consecuencia significado. Capturan las relaciones entre los diferentes elementos de una secuencia (palabras, oraciones) en paralelo, en lugar de secuencialmente como los modelos tradicionales. Los transformadores son la base de modelos exitosos como el GPT y el BERT y se utilian para tareas de procesamiento de lenguaje natural.

19. Token

Un token en Inteligencia Artificial es la unidad básica de datos (palabras, partes de palabras, caracteres o símbolos) que los modelos de lenguaje (LLM) como GPT o Gemini utilizan para procesar, entender y generar texto. Es la «moneda» o fragmento esencial de información que la IA lee y analiza, permitiendo dividir el lenguaje humano en piezas manejables (computables). En consecuencia, los modelos de IA procesan los tokens para comprender las relaciones entre ellos y desbloquear capacidades como la predicción, la generación y el razonamiento. Cuanto más rápido se procesen los tokens, más rápido podrán aprender y responder los modelos.

20. Validación cruzada

Es un método utilizado para evaluar los resultados de un análisis y garantizar la exactitud de las predicciones de los modelos de aprendizaje automático. Por ende, es una técnica para evaluar modelos de aprendizaje automático que se enfoca en dividir un conjunto de datos en varios subconjuntos (o «pliegues»). Ya luego, el modelo se entrena en algunos subconjuntos y se prueba en otros. Esto permite estimar el rendimiento del modelo de forma más fiable al reducir el sobreaprendizaje.‍

Otros fundamentos de Inteligencia Artificial que vale investigar, entender y dominar en esta tercera parte

Estos son unos pocos conceptos y términos de los muchos que realmente valen la pena conocer, entender y dominar en este moderno e innovador ámbito de la Inteligencia Artificial. Razón por la cual, para extender la información aquí ofrecida y guiarte facilmente a otros más, te ofrececemos esta interesante infografía creada con IA para que tengas una pequeña idea de otros igual de importantes y esenciales:

Otros fundamentos de Inteligencia Artificial que vale investigar, entender y dominar en esta tercera parte

Imagen de Resumen para post 2024

Resumen

En resumen, esperamos que esta «tercera parte del apasionante y sorprendente ámbito de la Inteligencia Artificial» con énfasis en la Inteligencia Artificial Generativa (IAG), haya contribuido un poco más a fortalecer y aumentar tus conocimientos y destrezas sobre este moderno e innovador ámbito. No olvides que, la Inteligencia Artificial junto a la Robótica hoy en día, están cambiando al mundo y nuestra forma de vivir la vida. Y que en años, cuando la Computación cuántica se haga comercial y la Energía cuántica (producida mediante el efecto Casimir) sea de acceso masivo para toda la Humanidad, esta puede llegar a ser totalmente diferente a como hoy la disfrutamos. Así que, más vale aprender de Inteligencia Artificial ahora que negarse, y tener que lamentarse mañana. Y por supuesto, no olvides seguir participando, contribuyendo y apoyando a nuestro querido y valioso Linuxverso.

Por último, recuerda visitar nuestra «página de inicio» en español. O, en cualquier otro idioma (con solo agregar al final de nuestra URL actual, 2 letras al final, por ejemplo: ar, de, en, fr, ja, pt y ru, entre muchas otras) para conocer más contenidos actuales.

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.