Leer Leer
Asustados por el revuelo de ChatGPT y compañía, en Google se apresuran a crear su versión: Gemini. En realidad, se trataba de la vieja plataforma conversacional Bard armada con una potente herramienta de creación de imágenes. Cuando los usuarios empezaron a usarla, se encontraron con nazis de rasgos asiáticos y padres fundadores de EEUU negros: las imágenes reflejaban la ideología actual de diversidad racial en contextos en los que no regía. ¿Qué falló? La respuesta se vuelve crucial ante el advenimiento del siguiente paso en la evolución: la IA agente.
La MIT Sloan Review, una revista académica, pero bien anclada en la realidad de los negocios, ha tenido a bien publicar un artículo de Michael Schrage y David Kiron titulado La filosofía se come a la IA que aconseja a los ejecutivos «invertir en sus propias habilidades de pensamiento crítico para garantizar que la filosofía haga que sus máquinas sean más inteligentes y valiosas». De ahí, dicen, que «inversores, innovadores y emprendedores como Peter Thiel, cofundador de PayPal; Alex Karp, de Palantir Technologies; Fei-Fei Li, profesor de Stanford; y Stephen Wolfram, de Wolfram Research«, enfaticen abiertamente «tanto la filosofía como el rigor filosófico como motores de su trabajo».
Nadie ha dudado nunca de la importancia de la ética en los avances tecnológicos, pero el artículo critica que esta se queda corta: «También influyen en la creación de valor las perspectivas filosóficas sobre lo que los modelos de IA deberían lograr (teleología), lo que se considera conocimiento (epistemología) y cómo la IA representa la realidad (ontología)». Google, por ejemplo, «permitió que reinara un caos teleológico entre objetivos rivales: precisión y diversidad, equidad e iniciativas de inclusión». El problema no fue la calidad y el acceso a los datos, sino que «los capacitadores, optimizadores y evaluadores de Google hicieron una mala apuesta, no por la IA incorrecta o los modelos defectuosos, sino por imperativos filosóficos inadecuados para un propósito principal».
Gonzalo Figar de Lacalle, director del Grado en Filosofía, Política y Comunicación de la Universidad CEU San Pablo, coincide en que «no existen algoritmos neutrales, sino que cada modelo incorpora una visión del mundo, unas prioridades y una definición de lo que considera valioso, verdadero o incluso humano. Esa estructura es, en esencia, filosófica. En nuestro día a día no pensamos en filosofía de forma explícita, pero eso no significa que no esté ahí. Al contrario: vivimos sobre una base silenciosa de ideas que ha tardado siglos en consolidarse». Por eso, «cuando diseñamos una IA sin pensar en filosofía, lo que hacemos en realidad es sustituir esa base por otra -normalmente ideológica- sin darnos cuenta».
Cita una extensa variedad de autores –Luciano Floridi, Shannon Vallor, Mustafa Suleyman, Cathy O’Neil, Soshana Zuboff, Kissinger, Schmidt, Huttenlocher…- que da fe de la atención académica a la intersección entre IA y filosofía, pero también se refiere al «plano empresarial»: durante varios años trabajó en McKinsey, que «ha investigado mucho sobre el asunto de la IA, publica documentos constantemente, y señala que las organizaciones más exitosas en IA son las que aplican un enfoque transversal y deliberado: técnico, sí, pero también cultural, ético y estratégico».
Una inquietud que debería intensificarse. El artículo del MIT advierte de la llegada de los sistemas de IA agenciales, que «no solo procesan y generan lenguaje, sino que también comprenden los objetivos contextualmente, formulan planes y toman acciones autónomas que deben alinearse con los valores empresariales. Esto exige una formación filosófica que va mucho más allá de la integración de conocimientos para la toma de decisiones y el razonamiento autónomo o cuasiautónomo». Porque «la agencia no surge de modelos más amplios ni de más parámetros (es decir, leyes de escala), sino de marcos filosóficos seleccionados deliberadamente». Figar cree que estos marcos son «imprescindibles», porque una IA agente necesita «saber por qué hace lo que hace, con qué límites, y hacia qué fin»: va a tener que «desarrollar su propia alma».
En 2018, Sally Percy publicó en Forbes el artículo ¿Por qué su junta directiva necesita un Chief Philosophy Officer?. Figar cree que, «más que crear un cargo específico, que podría volverse decorativo o simbólico, lo fundamental es incorporar la reflexión filosófica en los procesos reales de decisión». Aunque matiza que «hay sectores donde sí puede tener sentido un rol directivo explícito que actúe como contrapeso y voz crítica interna. En empresas que trabajan con IA, datos personales o sistemas con impacto masivo (pienso en educación o sanidad), podría ser útil tener una figura con autoridad para hacer preguntas incómodas, para ejercer una función crítica».
Actualidad Económica // elmundo