Pilar Manchón (Google): En la IA vale más hacer las cosas bien que hacerlas rápido

Pilar Manchón, directora de estrategia de investigación en Inteligencia Artificial de Google Research. Crédito: Fotografía cedida por Google Research. EFE 
I

Carmen Rodríguez

Madrid, 31 may (EFE).- La inteligencia artificial se desarrolla a un ritmo impresionante y, aunque la velocidad “es inevitable”, para la directora de estrategia de investigación en IA de Google Research, Pilar Manchón, es “mejor hacerlo bien que hacerlo rápido”, de manera responsable y en diálogo con la sociedad.

Manchón (Sevilla, 1972), que lleva más de 20 años trabajando en IA y una década en empresas de Silicon Valley (EE.UU), tiene una formación multidisciplinar, desde la Filología inglesa hasta liderar la estrategia de investigación aplicada a Sistemas Conversacionales en Google.

La IA es cada vez más omnipresente, sobre todo con la explosión de la generativa (que generará nuevo contenido a partir de datos ya existentes), mientras la sociedad se divide entre quienes la abrazan, casi sin reparos, y los que la miran desde el temor o la desconfianza.

La vía media, dice a EFE, es aprovechar la «increíble oportunidad que tenemos con la IA para crecer de forma sostenible como país y como sociedad», pero «siempre poniendo por delante la seguridad y la responsabilidad más que la velocidad», y para los que «están un poquito asustados» su receta es la educación, entender en qué consiste y hasta dónde puede llegar.

Manchón asistió recientemente al evento Google Cloud Summit Madrid, en el que se presentó un informe que considera que la adopción generalizada de la IA generativa podría impulsar un 8 % el Producto Interior Bruto español en la próxima década.

La experta ve un futuro en el que la IA «esté embebida en nuestro día a día en casi todos los aspectos», pero hay que hacerlo de «manera responsable» y en conversación con toda la sociedad. «No tiene sentido que las tecnológicas vayamos abriendo camino de manera solitaria».

Un diálogo en el que es «importantísimo» establecer también los límites. Hay que encontrar -dice- el equilibrio entre «el beneficio del impacto social positivo y los posibles usos negativos y la capacidad que podamos tener de mitigar esos riesgos».

Una explosión de conocimientos

Manchón es experta en sistemas conversacionales -la tecnología en la que se basan los 'chatbots' con los que el usuario puede hablar- y en procesamiento del lenguaje natural, para que una máquina entienda lo que le dice una persona que se dirige a ella hablando como si lo hiciera con otra persona.

«Las instrucciones las dices en lenguaje natural, no necesitas saber un lenguaje de programación y ese es uno de los puntos más disruptivos. Ya no necesitas ser programador para pedirle a una inteligencia artificial avanzada hacer algo, incluso generar un trozo de código para hacer cualquier cosa».

Las aplicaciones son numerosas, pero lo que más le emociona son las relacionadas con la ciencia y la investigación. «Creo que vamos a ver una explosión de conocimientos y avances científicos en pocos años. Va a ser muy emocionante».

En este sentido cita AlphaFold 3, la última versión del sistema de inteligencia artificial de Google capaz de predecir la estructura y las interacciones de las moléculas de la vida, lo que permitirá, por ejemplo, el desarrollo de nuevos fármacos.

Pero la IA generativa también tiene sus fallos y uno es las 'alucinaciones', es decir, cuando ofrece respuestas erróneas, imprecisas o faltas de sentido.

El equipo de Manchón trabaja en aspectos de factualidad, «cómo comprobar si lo que dice el modelo es o no verdad», y de alineamiento con valores humanos.

«Cuando tienes uno de esos agentes que hacen una tarea para ti o que te dan respuestas, quieres asegurarte de que esa información es veraz y tiene una fuente fiable, pero además de que la manera en que te la presenta no te haga inclinar la balanza hacia una ideología, un posicionamiento que quizás no sea lo que quieres para ti o para tus hijos».

¿Ciencia o Humanidades? Ambas

Atraída a partes iguales por las ciencias y las humanidades, se define como «un animal híbrido», desde la carrera de Filología inglesa a un máster de ciencia cognitiva y un doctorado en investigación computacional, un recorrido que no era habitual cuando estudiaba.

Manchón aboga por la formación multidisciplinar. En la IA es «importantísimo y esencial» la formación científico-tecnológica, pero hay otra parte en la que entran las Humanidades.

Esa parte es cuando se plantea «hacía dónde vamos, para qué queremos usar la IA, cómo queremos emular determinados procesamientos, cómo queremos dar servicio y ayudar a la sociedad a evolucionar en una dirección más humanista, donde no seamos más máquinas sino más personas».

Por ello, los humanistas deben formarse «un poco» en IA y tecnología para entender cuáles son los límites, mientras que los ingenieros y matemáticos deben formarse «un poquito mejor» para entender la parte más humanista y las ciencias sociales, que, «en definitiva, definen nuestra esencia».