

Al momento de escribir este artículo, OpenAI® acababa de lanzar su nuevo modelo generativo progresivo para imágenes. Tecnológicamente hablando, este avance es fenomenal con respecto a cómo venían evolucionando los modelos generadores de imágenes porque sacude desde los cimientos el concepto de cómo se trata la información representada por una imagen digital, transformándola en series numéricas que tienen el mismo tratamiento que los generadores de texto.
La oferta de funcionalidades y capacidades de los modelos generativos se ha transformado en una carrera vertiginosa, como las competencias anuales de la Fórmula 1, con las cuales haré un paralelo: cada escudería (los proveedores de modelos) utiliza sus mejores ingenieros (los científicos de datos) para desarrollar e implementar las mejoras que hagan que sus automóviles (los modelos generativos) sean más veloces, eficientes y cumplan con las regulaciones vigentes (el Acto de IA de la Unión Europea, por ejemplo) para ganar más cantidad carreras y quedarse con el campeonato. En el caso de la Fórmula 1, el impacto en nuestra vida cotidiana no es inmediato, porque los avances en motorización, combustión, aerodinámica y control automático de manejo (entre muchas otras cuestiones técnicas) llegan después de varios años a sus versiones "de calle" y recién entonces las podemos disfrutar en nuestros vehículos particulares.
Estoy convencido que la IA que nos rodea promete mucho más de lo que realmente tiene capacidad de entregar hoy, y esto genera más angustias que certezas. Hoy los modelos generativos están embarcados en una guerra de marketing centrada en el producto, porque resaltan características técnicas y funcionalidades, más que ocuparse por las necesidades del cliente.
No niego el impacto que los avances de estos modelos en ciertas actividades: resumir un documento, redactar un cuento breve, diseñar un logotipo, generar código de programación, escribir un correo electrónico, traducir un texto a otro idioma, interpretar un diagnóstico médico, etc. Detrás de cada uno de estos ejemplos hay un experto que puede distinguir entre simplemente hacer el trabajo, y hacer muy bien su trabajo, generando un entregable de calidad versus uno de calidad estándar o promedio. Creo que aquí se encuentra una distinción fundamental: hablando en primera persona, los resultados que he obtenido de los modelos generativos cuando hice consultas relativas a mi profesión puedo decir que han sido aceptables, pero no llegan a la categoría de excelentes ni mucho menos ingeniosos o creativos.
La otra distinción fundamental es que, aún con resultados aceptables, como yo mismo soy experto en las cuestiones que le pregunté fui capaz de darme cuenta de que el modelo estaba generando respuestas inventadas, o sea, sin ningún tipo de evidencia que respaldara la información. Esto es lo que comúnmente se conoce como que el modelo alucinó. Esto es muchísimo más grave que obtener un resultado "aceptable" como dije antes, porque derrumba todo el castillo de credibilidad que estos modelos pretenden generar en el usuario. Y me invita a la siguiente reflexión: ¿cuántos usuarios son capaces de darse cuenta cuando los modelos alucinan en sus respuestas?, ¿qué nivel de expertise hay que tener para detectar estas situaciones?
Los modelos generativos disponibles están entrenados en gran medida con información pública, mientras que la información "jugosa" no forma parte del modelo de razonamiento porque es privada. Estos modelos responden generando secuencias de palabras que surgen de los textos que han recibido durante su entrenamiento, por lo tanto, aunque pensemos que los modelos tienen la capacidad de crear respuestas increíbles, lo que hacen realmente es calcular combinaciones de secuencias de palabras muy largas (oraciones, documentos, tablas, o ahora incluso imágenes) que a nosotros nos parecen originales, pero que responden a secuencias procesadas durante el entrenamiento. Podríamos decir que los modelos generativos son "entusiastas de la palabra", siempre dispuestos a tener una respuesta para todo. Por eso soy consciente de que hay mucho desconocimiento sobre cómo funcionan los modelos de IA generativa, más allá de los ámbitos de la ciencia de datos. Y este desconocimiento es lo que tiende a empujarnos hacia los extremos: o genera mucho "miedo" o demasiada "excitación", y ninguna de estas dos posturas sirve para saber cómo lidiar en verdad con esta tecnología tan novedosa y disruptiva.
Lo que necesitamos realmente es una IA generativa capaz de decir no sé. Necesitamos tener la capacidad de hablar con "expertos" y no con entusiastas de la palabra. La IA generativa a la que todos tenemos acceso se parece mucho a los programas de contenido donde hay un panel de comentaristas que opinan sobre cualquier tema, y mantienen la audiencia a base de discusiones entre ellos, encuestas con la gente, conversaciones telefónicas en línea con el público y entrevistas con personalidades conocidas, pero que realmente no profundizan demasiado en nada, aunque pueden hablar de todo sin realmente saber mucho más que lo que les dice el guión y su propio sentido común. (Desde ya que no desmerezco quienes hacen trabajos de investigadores de la información de forma profesional y exhaustiva).
La IA que nos merecemos debe ser un experto digital que cumpla una serie de requisitos:
- Debe responder y respaldar sus respuestas con un cuerpo de conocimiento sólido y establecido
- Debe contar con reglas claras y explícitas sobre qué información utilizar para generar sus respuestas (por ejemplo, los últimos 3 meses para información financiera)
- Debe disponer de capacidades analíticas específicas relevantes para su expertise: análisis y clasificación de textos, clasificación multi-clase, detección de anomalías, inferencia de series de tiempo, etc.
- Debe dar a conocer su estilo de decisión: conservador, agresivo, exploratorio, averso al riesgo.
- Debe poder adaptarse con el transcurso del tiempo, aprendiendo de las correcciones y feedback del usuario
- Debe ser capaz de asegurar que las respuestas cumplen con estándares o leyes aplicables y pertinentes al pedido del usuario
- Debe tener un nivel de expertise declarado (junior, senior) que establezca límites a qué tipos de pedidos está capacitado para responder
- Debe poder acceder a fuentes de información de diferente tipo, más allá de la pregunta del usuario, a fin de enriquecer el resultado, y ser capaz de integrarlas en la respuesta final: documentos, bases de datos, fuentes de Internet curadas, imágenes, audios, mapas, etc.
En definitiva, este experto digital es el que facilita la utilización de todas las técnicas y algoritmos avanzados de analítica de datos y aprendizaje automático (machine learning) para generar respuestas a los pedidos del usuario en lenguaje conversacional (modelos generativos), dentro del universo de datos de la organización y el dominio de conocimiento de dicho experto. A nadie se le ocurre preguntarle a un experto en finanzas cómo resolver problemas de logística, ¿no?
Nos merecemos una IA que vaya en esta dirección.
* Nota del autor: ninguna plataforma de IA fue utilizada en la redacción de este artículo
















