Elección de LLM y tipo de alojamiento gobernanzaImplicación de las líneas de negocio, seguridad y cumplimiento... Gestión de unIA Generativa debe tener en cuenta un gran número de factores. He aquí algunas explicaciones.

A menos que haya pasado los dos últimos años en una isla desierta, no puede haber escapado al fenómeno de la IA generativa. ChatGPT, Gemini, Claude y Copilot están causando un gran impacto gracias a sus prestaciones e interfaces intuitivas.
Todo el mundo ha tenido la oportunidad de interrogarles, en privado o profesionalmente, y de asombrarse de su capacidad para responder correctamente a una gran variedad de temas.
Sin embargo, según Redha Moulla, formador independiente y consultor en inteligencia artificial, existe una enorme brecha entre el efecto "wow" que experimenta el usuario medio y la dificultad de llevar a buen término un proyecto de IA generativa dentro de una empresa.
Porque "A diferencia de otras tecnologías, los miembros de la alta dirección tienen la oportunidad de probar ChatGPT. Como responde rápidamente a sus preguntas, no se dan cuenta de la complejidad que se esconde tras la impresión de sencillez.
Sus interacciones iniciales les llevan a creer que la IA generativa es fácil de implantar.
De hecho, una vez que el PdC (Prueba de concepto), la ampliación es mucho más complicada. Según un estudio de Deloitte, 68 % de las organizaciones afirman haber puesto en producción 30 % o menos de sus proyectos.una proporción especialmente baja.
Un proyecto de IA generativa no es un proyecto de aprendizaje automático
Una de las principales razones del fracaso es la naturaleza de los datos utilizados. Mientras que la IA "tradicional", como aprendizaje automáticoutiliza esencialmente datos tabulares estructurados en formatos CSV o Excel, elLa IA generativa utiliza datos no estructurados (texto, imágenes, vídeo), que son especialmente ricos y complejos.
[Leer artículo sobre la diferencia entre aprendizaje automático y aprendizaje profundo]
"La base documental de una empresa se compone de documentos Word o PDF en formatos muy diferentes, algunos de los cuales se crearon hace diez años, explica Redha Moulla. Hay que clasificarlos, eliminar los archivos redundantes y extraer la información pertinente. Este trabajo preparatorio, que lleva mucho tiempo, es costoso y requiere manipulación manual, puede resultar prohibitivo y sellar el final del proyecto.. "
Otra diferencia es que un algoritmo de aprendizaje automático tiene que entrenarse desde cero, un modelo generativo de IA llega preentrenado. Esta diferencia modifica la composición de los equipos movilizados, como señala Hervé Mignot, Chief AI Officer de la consultora transformación digital Igualdad.
"Un proyecto de IA generativa requiere rápidamente conocimientos de ingeniería y de integración informática tradicional. Solo al final, durante la fase de puesta a punto, se percibe la contribución de los científicos de datos".
En su opinión, muchos perfiles técnicos pueden desarrollar sus competencias en IA generativa sin tener experiencia previa en ciencia de datos. Por el contrario, " Los científicos de datos pueden rehuir la idea de participar en proyectos de IA generativa. Eligen esta profesión para diseñar modelos con una fuerte dimensión estadística y prefieren ceñirse al enfoque predictivo del aprendizaje automático".
El perito mercantil, el juez de paz
Mientras que La implicación de los responsables empresariales es un factor clave en todos los proyectos de TI, y es aún más crítica en el campo de la IA generativa. Un gran modelo lingüístico (LLM) pretende optimizar e incluso remodelar los procesos de flujo de trabajo. “ Definir las etapas del trabajo de las personas que se desea "aumentar" [utilizando la IA] significa trabajar en estrecha colaboración con el personal operativo. "dice Hervé Mignot.
Nuestro experto pone el ejemplo de un departamento comercial que quiere automatizar la respuesta a las licitaciones. " ¿En qué procesos participará la IA? Puede analizar el expediente de consulta, generar una nota de síntesis, pero también dar respuestas a partir del contenido existente.
Para Hervé Mignot, el perito mercantil es el único juez de paz. "Es él quien decide que un modelo de IA tiene la calidad suficiente para ser puesto en producción. El uso de métodos ágiles significa que podemos mostrar continuamente al personal operativo las distintas iteraciones del proyecto.
Facilitar los intercambios entre los desarrolladores del modelo y los "Ops", los equipos encargados de ponerlo en producción, recomienda adoptar un enfoque LLMOps (Large Language Model Operations). Este conjunto de prácticas, métodos y herramientas permite gestionar eficazmente el despliegue, la supervisión y el mantenimiento de los LLM.
La aplicación de las mejores prácticas de LLMOps también ayuda a garantizar la estabilidad de un sistema de IA a lo largo del tiempo. " En caso de cambio de versión del modelo base, el funcionamiento y rendimiento de la aplicación basada en él no debe verse alterado.señala Hervé Mignot. Del mismo modo, si la calidad de los datos entrantes disminuye, tenemos que asegurarnos de que no degrade el modelo. Esto puede significar volver a la mesa de dibujo para cualificar los datos".
¿LM o SLM? ¿Propiedad o código abierto?
Pero primero está la elección del modelo. Desde el lanzamiento de ChatGPT, la familia LLM no ha dejado de crecer. Hay modelos propietarios (Gemini de Google, Claude de Anthropic, etc.) y sus equivalentes de código abierto (Llama de Meta, Mistral AI, etc.). También hay que distinguir entre los grandes modelos lingüísticos (LLM), como GPT-4 y sus 175.000 millones de datos. parámetrosy modelos "pequeños" (SLM), diseñados para realizar tareas específicas.
Hervé Mignot aconseja comenzar el proyecto de IA generativa con un LLM generalista. Esto permite validar la pertinencia del modelo sin verse obstaculizado por un rendimiento limitado.
"Un SLM puede ser relevante cuando el dominio cubierto por el caso de uso es suficientemente pequeño. "Menos exigente en términos de potencia de cálculo, un modelo pequeño tiene la ventaja de reducir el coste económico y medioambiental de un proyecto de IA generativa. También ofrece mayor seguridad. Un asistente de codificación SLM puede instalarse localmente en la estación de trabajo del desarrollador, en lugar de alojarse en la nube.
En todos los casos, recomienda el uso de generación de recuperación aumentada (RAG). Consiste en mejorar las respuestas de un modelo apoyándose en una base de conocimientos interna que se considera fiable e independiente de los datos de entrenamiento del LLM. Por ejemplo, la base de datos documental de la empresa.
Enfoque "como servicio" o alojamiento in situ
Luego está la cuestión del alojamiento. Existen dos posibilidades para una empresa. La solución más común es utilizar un modelo alojado en la nube, a través de una API. Los hiperescaladores estadounidenses Google Cloud, AWS y Microsoft Azure, así como actores franceses como Scaleway y OVHcloud, ofrecen este enfoque "como servicio".
“ Algunas empresas son reacias a utilizar este método por razones de seguridad y confidencialidad de los datos", modera Redha Moulla.
Otra solución es que la empresa aloje un modelo de base de código abierto en sus propios servidores (on-premises). Esto implica invertir en potencia informática. ad hoccompuesto por procesadores gráficos (GPU), un recurso especialmente caro. Además, la empresa tendrá que mantener esta infraestructura dedicada sin poder ponerla en común como hacen los actores de la nube. Una vez más, esta puede ser una elección especialmente costosa y compleja.
Seguridad, conformidad y control postproducción
Por último, la vida de un proyecto de IA generativa no termina cuando entra en producción. Hay que vigilar el modelo de IA como la leche al fuego para asegurarse de que no deriva no con el tiempo y estar sujeto aalucinaciones. Los estudios demuestran que un modelo generativo de IA puede producir hasta 21 % de contenido erróneo o "alucinaciones", lo que puede tener consecuencias perjudiciales.
Al mismo tiempo ciberdelincuentes han desarrollado una serie de técnicas conocidas como "d'inyección prompt" para obligar a un modelo a generar contenidos indeseables, engañosos o tóxicos.
Si el modelo es sólo para uso interno, "Deben establecerse salvaguardias para garantizar que los empleados no tengan acceso a documentos no autorizados. ", añade Redha Moulla. Según una encuesta de Cybersecurity Ventures, el 60 % de las fugas de datos proceden de fuentes internas.
Por último, las organizaciones deben anticiparse a las exigencias delLey AILa normativa europea sobre IA entrará plenamente en vigor en 2026. Para garantizar su cumplimiento, ahora deben mapear sus modelos en producción y clasificarlos según su nivel de riesgo.
En resumen, el éxito de un proyecto de IA generativa requiere un enfoque multidisciplinar, que combine conocimientos técnicos, una fuerte implicación empresarial, una atención especial a la seguridad y el cumplimiento de las normas, y una gestión rigurosa de los recursos y las expectativas.