Glosario esencial de GenAI para directivos

Home ☛ Negocios  ☛  Glosario esencial de GenAI para directivos

Este directorio de términos está pensado para comités de dirección y equipos ejecutivos que necesitan entender, decidir y gobernar el uso de la Inteligencia Artificial Generativa sin entrar en tecnicismos. No explica “cómo se programa”, sino qué significa cada concepto y por qué importa para el negocio. Comprender estos términos nos permite enfrentar los retos que la IA está ya presentando en nuestras organizaciones.

Inteligencia Artificial Generativa (GenAI): Conjunto de sistemas capaces de crear contenido nuevo (texto, imágenes, audio, vídeo, código) a partir de patrones aprendidos. Este tipo de IA se encuandra dentro de lo que se conoce como ANI (Artificial Narrow Inteligence), que es el único tipo de modelos y algoritmos que los científicos han sido capaces de crear hasta este momento. La ANI existe desde hace mucho tiempo (desde los años 50 se teoriza sobre ella) pero hasta el año 22 se circunscribía a lo que se llama IA descriptiva o tradicional, que simplemente es capaz de procesar datos que ya existen, para poder automatizar tareas, encontrar patrones, etc. sin crear nada nuevo.

Por qué importa: no solo automatiza tareas; amplifica el trabajo intelectual, desde redacción hasta análisis estratégico. Es capaz de realizar un tipo de tareas que hasta ahora se entendían exclusivas del ser humano.

Modelo Fundacional (Foundation Model): Modelo de IA entrenado con enormes volúmenes de datos y que sirve como base reutilizable para múltiples aplicaciones.

Ejemplo: GPT, Gemini, Claude, Llama, DeepSeek.

Es la forma en la que se conocen plataformas de modelo entrenadas para realizar más de una tarea de forma solvente.

Por qué importa: reduce el tiempo de innovación; las empresas construyen sobre él en lugar de empezar de cero. En un principio la división entre ANI y AGI era el número de tipologías de tareas que podía resolver un modelo y la realidad y el gran cambio de estos modelos es que cada vez son capaces de resolver más tipos de tareas en una única plataforma.

LLM (Large Language Model): Tipo de modelo fundacional especializado en lenguaje (entender y generar texto). ChatGPT, Gemini o Copilot son LLM, aunque como sabemos hoy en día es capaz de hacer otras cosas como crear imagen. Podríamos decir que los LLM son modelos de IA que se han desarrollado con la habilidad de conectar con el ser humano mediante el NLP (Natural language processing) lo cuál los hace mucho más cercanos y sencillos de utilizar para la humanidad.

Por qué importa: es el “motor” detrás de chatbots, asistentes internos, análisis de documentos, soporte a ventas o atención al cliente.

Modelo Multimodal: Modelo capaz de trabajar con varios tipos de información a la vez: texto, imágenes, audio, vídeo o documentos   complejos. Como vemos, hay ciertos modelos que cumplen las características de varias de las definiciones y es así, se pueden llamar de diferentes formas.

Por qué importa: permite casos reales de negocio como analizar contratos con tablas e imágenes, interpretar fotos, o combinar voz y texto en atención al cliente.

Asistente de IA: Sistema digital que ayuda a personas y equipos a trabajar mejor, tomando tareas repetitivas, analizando información y apoyando la toma de decisiones. Aprende del contexto, responde de forma inteligente y actúa como un colaborador virtual que mejora eficiencia, calidad y velocidad en los procesos empresariales, siempre dentro de su propio modelo y alcance.

Agente de IA: Sistema que no solo responde dentro de su propio modelo, sino que interactúa con el exterior: planifica pasos, usa herramientas (correo, CRM, hojas de cálculo, buscadores) y ejecuta tareas con cierto grado de autonomía.

Por qué importa: es el paso de “asistente” a copiloto operativo, capaz de cerrar tareas completas.

Razonamiento (Reasoning / Thinking): Capacidad del modelo para descomponer problemas, evaluar opciones y seguir pasos lógicos antes de  responder.

Por qué importa: clave para decisiones complejas, análisis financiero, planificación o revisión crítica (aunque suele implicar mayor coste).

Tool Use / Function Calling: Habilidad del modelo para usar herramientas externas (APIs, bases de datos, ERP, CRM).

Por qué importa: conecta la IA con sistemas reales de la empresa; el uso de herramientas, o interactuación, es la diferencia entre el asistente y el agente.

Prompt: Instrucción que se da al modelo. Es la forma en la que interactuamos con los sistemas de LLM. Es importante subrayar que la diferencia entre una buena solución o respuesta del modelo está directamente influenciada por la calidad del prompt, que es más allá de una pregunta: es una puesta en contexto, indicando cómo debe comportarse el sistema, qué debe ejecutar, con indicaciones claras y explícitas. Es necesario concienciarse de que estas instrucciones deben se lo más detalladas posibles y deben prescindir de cosas inútiles. Aunque nos resulte extraño, el protocolo o las frases educadas solo complican el entendimiento de la orden y, además, generan un mayor consumo energético, así que debemos evitarlas. Existe una ciencia llamada Prompt Engenieering que enseña cómo relacionarse con los modelos de la forma adecuada para cada tipo de output requerido.

Por qué importa: un buen prompt multiplica la calidad del resultado. Se está convirtiendo en una nueva habilidad directiva: saber pedir bien.

Fine-tuning / Adaptación: Proceso de ajustar un modelo con datos propios para un contexto específico. Se trata de mejorar los resultados del entrenamiento inicial para adaptarlo a lo que realmente se necesita. Es fundamental utilizar los datos correctos, que no sean los mismos que los que utilizamos para el entrenamiento inicial, entre otras cosas.

Por qué importa: mejora precisión y coherencia con el negocio, pero requiere gobierno del dato y control de riesgos.

Hallucinations (Alucinaciones): Es el fenómeno que consiste en que la IA genera información incorrecta con apariencia convincente. Es un problema importante del que debemos ser conscientes porque en función del tipo de entrenamiento que haya tenido el modelo, del destino que tenga y de cómo prompteemos pueden ser más o menos habituales.

Por qué importa: principal riesgo reputacional. Obliga a diseñar procesos de verificación humana y uso responsable.

Sesgos de IA: Los sesgos de IA son errores o inclinaciones en los resultados de un sistema de inteligencia artificial que surgen porque los datos con los que fue entrenado reflejan desigualdades, estereotipos o decisiones históricas parciales.

Por qué importa: puede llevar a decisiones injustas, discriminar colectivos, dañar la reputación corporativa y generar riesgos legales y éticos para la empresa.

Temperatura: La temperatura de IA es un parámetro que controla el grado de creatividad o variabilidad en las respuestas de un modelo generativo. Con una temperatura baja, el sistema responde de forma más predecible y conservadora; con una temperatura alta, genera opciones más abiertas, exploratorias y diversas. Es útil para equilibrar rigor vs. innovación según el objetivo empresarial.

Por qué importa: Importa porque influye directamente en el comportamiento y los resultados del modelo. Con una temperatura inadecuada, una empresa puede obtener respuestas demasiado rígidas (poco innovadoras) o, al contrario, demasiado creativas e inconsistentes para tareas críticas. Ajustarla correctamente permite alinear la IA con cada uso de negocio —por ejemplo, precisión en operaciones y exploración en innovación—, mejorando calidad, control del riesgo y valor real en la toma de decisiones.

Explicabilidad de los modelos: Es la capacidad de entender por qué un sistema de IA toma una decisión o genera un resultado. No se trata solo de “qué ha respondido el modelo”, sino de qué factores influyeron en esa decisión y cómo se relacionan con los datos y las reglas utilizadas.

Para una organización, la explicabilidad permite confiar, auditar (incluyendo detectar sesgos y alucinaciones) y justificar el uso de la IA ante clientes, reguladores y equipos internos, reduciendo riesgos operativos, legales y reputacionales, y facilitando que las personas tomen decisiones informadas apoyándose en la tecnología.

Por qué importa: porque determina si la IA puede usarse con responsabilidad y confianza. Sin explicabilidad, una organización no sabe por qué un modelo decide algo, lo que dificulta detectar errores, corregir sesgos, cumplir regulaciones y asumir responsabilidades. Con explicabilidad, las decisiones automatizadas son auditables, defendibles y alineadas con los valores y objetivos del negocio.

Gobierno de IA (AI Governance): Consiste en la estructura de personas, el conjunto de reglas, roles y controles para uso ético, seguro y eficiente de la IA. Es esencia que las empresas consideren su estructura y trabajen en la Gobernanza de una herramienta tan poderosa para que verdaderamente consigan explotar todos sus beneficios y mitigar los riesgos. Recordemos que la IA no es sujeto de derecho, es decir, no es responsable de sus actos, mientras que sí tiene independencia para realizarlos.

Por qué importa: sin gobierno, la GenAI escala de forma desordenada… y los riesgos también.

ROI de IA: Medición del valor generado (tiempo ahorrado, calidad, ingresos, reducción de errores).

Por qué importa: la IA no es un experimento eterno; debe demostrar impacto real.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *