Inicio > Tecnologías digitales > IA y big data > Éxito de un proyecto de IA generativa: ¿cuáles son las mejores prácticas?

Éxito de un proyecto de IA generativa: ¿cuáles son las mejores prácticas?

Publicado el 3 de enero de 2025
Compartir esta página :

Elección del LLM y modo de alojamiento, marco de gobernanza, implicación empresarial, seguridad y cumplimiento... Hay un gran número de factores a tener en cuenta a la hora de llevar a cabo un proyecto de IA generativa. He aquí algunas explicaciones.

Artículo de ilustración Gestión de un proyecto de IA

A menos que hayas pasado los dos últimos años en una isla desierta, no puedes haber escapado al fenómeno de la IA generativa. ChatGPT, Gemini, Claude y Copilot están recibiendo un gran impulso gracias a sus prestaciones e interfaces intuitivas.

Todo el mundo ha tenido la oportunidad de interrogarles, en privado o profesionalmente, y de asombrarse de su capacidad para responder correctamente a una gran variedad de temas.

Sin embargo, según Redha Moulla, formador independiente y consultor en inteligencia artificial, existe una enorme brecha entre el efecto "wow" que experimenta el usuario medio y la dificultad de llevar a buen término un proyecto de IA generativa dentro de una empresa.

Coche "A diferencia de otras tecnologías, los miembros de la alta dirección tienen la oportunidad de probar ChatGPT. Como responde rápidamente a sus preguntas, no se dan cuenta de la complejidad que se esconde tras la impresión de sencillez.

Sus interacciones iniciales les llevan a creer que la IA generativa es fácil de implantar.

De hecho, una vez superada la fase POC (prueba de concepto), la ampliación es mucho más complicada. Según un estudio de Deloitte, 68 % de las organizaciones afirman haber puesto en producción 30 % o menos de sus proyectos.una proporción especialmente baja.

Un proyecto de IA generativa no es un proyecto de aprendizaje automático

Una de las principales razones del fracaso es la naturaleza de los datos utilizados. Mientras que la IA de aprendizaje automático "tradicional" utiliza esencialmente datos tabulares estructurados en formato CSV o Excel, laLa IA generativa utiliza datos no estructurados (texto, imágenes, vídeo), que son especialmente ricos y complejos.

[Leer artículo sobre la diferencia entre aprendizaje automático y aprendizaje profundo]

"La base documental de una empresa se compone de documentos Word o PDF en formatos muy diferentes, algunos de los cuales se crearon hace diez años, explica Redha Moulla. Hay que clasificarlos, eliminar los archivos redundantes y extraer la información pertinente. Este trabajo preparatorio, que lleva mucho tiempo, es costoso y requiere manipulación manual, puede resultar prohibitivo y sellar el final del proyecto.»

Otra diferencia es que un algoritmo de aprendizaje automático tiene que entrenarse desde cero, un modelo generativo de IA llega preentrenado. Esta diferencia modifica la composición de los equipos implicados, como señala Hervé Mignot, Chief AI Officer de la consultora de transformación digital Equancy.

"Un proyecto de IA generativa requiere rápidamente conocimientos de ingeniería y de integración informática tradicional. Solo al final, durante la fase de puesta a punto, se percibe la contribución de los científicos de datos".

En su opinión, muchos perfiles técnicos pueden desarrollar sus competencias en IA generativa sin tener experiencia previa en ciencia de datos. Por el contrario, " Los científicos de datos pueden rehuir la idea de participar en proyectos de IA generativa. Eligen esta profesión para diseñar modelos con una fuerte dimensión estadística y prefieren ceñirse al enfoque predictivo del aprendizaje automático".

El perito mercantil, el juez de paz

Mientras que La implicación de los responsables empresariales es un factor clave en todos los proyectos informáticos, y es aún más crítica en el campo de la IA generativa. El objetivo de un gran modelo lingüístico (LLM) es optimizar o incluso remodelar los procesos de flujo de trabajo. Definir las etapas del trabajo de las personas que se desea "aumentar" [utilizando la IA] significa trabajar en estrecha colaboración con el personal operativo. »dice Hervé Mignot.

Nuestro experto pone el ejemplo de un departamento comercial que quiere automatizar la respuesta a las licitaciones. " ¿En qué procesos participará la IA? Puede analizar el expediente de consulta, generar una nota de síntesis, pero también dar respuestas a partir del contenido existente.

Para Hervé Mignot, el perito mercantil es el único juez de paz. "Es él quien decide que un modelo de IA tiene la calidad suficiente para ser puesto en producción. El uso de métodos ágiles significa que podemos mostrar continuamente al personal operativo las distintas iteraciones del proyecto.

Facilitar los intercambios entre los desarrolladores del modelo y los "Ops", los equipos encargados de ponerlo en producción, recomienda adoptar un enfoque LLMOps (Large Language Model Operations). Este conjunto de prácticas, métodos y herramientas permite gestionar eficazmente el despliegue, la supervisión y el mantenimiento de los LLM.

La aplicación de las mejores prácticas LLMOps también ayuda a garantizar la estabilidad de un sistema de IA a lo largo del tiempo. " En caso de cambio de versión del modelo base, el funcionamiento y rendimiento de la aplicación basada en él no debe verse alterado.señala Hervé Mignot. Del mismo modo, si la calidad de los datos entrantes baja, tenemos que asegurarnos de que no degrada el modelo. Esto puede significar volver a la mesa de dibujo para cualificar los datos".

¿LM o SLM? ¿Propiedad o código abierto?

Pero primero está la elección del modelo. Desde el lanzamiento de ChatGPT, la familia LLM no ha dejado de crecer. Hay modelos propietarios (Gemini de Google, Claude de Anthropic, etc.) y sus equivalentes de código abierto (Llama de Meta, Mistral AI, etc.). También se distingue entre grandes modelos lingüísticos (LLM), como GPT-4 y sus 175.000 millones de parámetros, y modelos "pequeños" (SLM), diseñados para realizar tareas específicas.

Hervé Mignot aconseja comenzar el proyecto de IA generativa con un LLM generalista. Esto permite validar la pertinencia del modelo sin verse obstaculizado por un rendimiento limitado.

"Un SLM puede ser relevante cuando el dominio cubierto por el caso de uso es suficientemente pequeño. "Menos exigente en términos de potencia de cálculo, un modelo pequeño tiene la ventaja de reducir el coste económico y medioambiental de un proyecto de IA generativa. También ofrece mayor seguridad. Un asistente de codificación SLM puede instalarse localmente en la estación de trabajo del desarrollador, en lugar de alojarse en la nube.

En todos los casos, recomienda el uso de Tecnología de Generación Aumentada de Recuperación (RAG). Consiste en mejorar las respuestas de un modelo apoyándose en una base de conocimientos interna que se considera fiable e independiente de los datos de entrenamiento del LLM. Por ejemplo, la base de datos documental de la empresa.

Enfoque "como servicio" o alojamiento in situ

Luego está la cuestión del alojamiento. Existen dos posibilidades para una empresa. La solución más común es utilizar un modelo alojado en la nube, a través de una API. Los hiperescaladores estadounidenses, Google Cloud, AWS y Microsoft Azure... pero también actores franceses, como Scaleway y OVHcloud, ofrecen este enfoque "como servicio".

Algunas empresas son reacias a utilizar este método por razones de seguridad y confidencialidad de los datos", modera Redha Moulla.

Otra solución es que la empresa aloje un modelo de base de código abierto en sus propios servidores (on-premises). Esto implica invertir en potencia informática. ad hocSe trata de un recurso especialmente caro. Es más, la empresa tendrá que mantener esta infraestructura dedicada sin poder ponerla en común como hacen los actores de la nube. Una vez más, esta puede ser una opción especialmente costosa y compleja.

Seguridad, conformidad y control postproducción

Por último, la vida de un proyecto de IA generativa no termina cuando entra en producción. Hay que vigilar el modelo de IA como la leche al fuego para asegurarse de que no se desvíe con el tiempo y se convierta en objeto de alucinaciones. Los estudios demuestran que un modelo de IA generativa puede producir hasta 21 % de contenido erróneo o "alucinaciones", lo que puede tener consecuencias perjudiciales.

Al mismo tiempo, los ciberdelincuentes han desarrollado una serie de técnicas denominadas de "inyección puntual" para obligar a una plantilla a generar contenidos no deseados, engañosos o tóxicos.

Si el modelo es sólo para uso interno, "Deben establecerse salvaguardias para garantizar que los empleados no tengan acceso a documentos no autorizados. ", añade Redha Moulla. Según una encuesta de Cybersecurity Ventures, el 60 % de las fugas de datos proceden de fuentes internas.

Por último, las organizaciones deben anticiparse a los requisitos de la Ley de IA, el reglamento europeo sobre IA que entrará plenamente en vigor en 2026. Para cumplirla, deben cartografiar ya sus modelos en producción y clasificarlos en función de su nivel de riesgo.

En resumen, el éxito de un proyecto de IA generativa requiere un enfoque multidisciplinar, que combine conocimientos técnicos, una fuerte implicación empresarial, una atención especial a la seguridad y el cumplimiento de las normas, y una gestión rigurosa de los recursos y las expectativas.

Nuestro experto

Formado por periodistas especializados en informática, gestión y desarrollo personal, el equipo editorial de ORSYS Le mag [...].

ámbito de formación

formación asociada