La Fundación del Español Urgente (FundéuRAE), promovida por la Agencia EFE y la Real Academia Española, ha considerado que la expresión Inteligencia Artificial (IA) es la palabra del año. El criterio para esta selección se ha basado fundamentalmente en “su importante presencia en los medios de comunicación durante estos últimos doce meses, así como en el debate social”; sin embargo, tienden a olvidarse algunos de los fiascos de esta tecnología y a hincharse sus éxitos, especialmente en los campos en los que más sencillo es poner en evidencia su inmadurez, como es el caso del ahora popular ChatGPT de OpenAI.
Si echamos la vista atrás a lo largo de 2022, no es oro todo lo que reluce cuando hablamos de IA. Pese a sus avances, merece la pena revisar algunos de sus fracasos, precisamente, para hablar de ellos. La revista Forbes llega a situar la tasa de fracasos de los proyectos de IA en una horquilla que va del 60% al 80%. El problema de esta proporción de fracasos viene cuando se trata de iniciativas en producción, es decir, que dejan de ser proyectos en fase de testeo y se aplican al día a día. En este punto, además de sonados accidentes de automóviles autónomos, aparecen otros peligros como procesos de selección discriminatoria para Recursos Humanos o cálculos de pólizas de seguro injustas, entre otros.
El estándar de calidad de los datos con que se alimenta a estos sistemas es fundamental, como ya hemos referido en múltiples ocasiones en este espacio. La consultora Gartner Group ya estimó hace unos años que la mala calidad de los datos le cuesta de media a las empresas la friolera de 15 millones de dólares. En el caso de la IA, esta calidad de los datos resulta aún más crucial, entrando en juego la amplia variedad de sesgos que continúan dándose.
Accidentes como los de los vehículos de Tesla, que no frenaron al confundir el tráiler de un camión con el cielo o procesos de selección discriminatorios como los aplicados en secreto por Amazon hace unos años deben llamar a la prudencia, no sólo a la hora de poner en explotación esta tecnología, sino también de seguir hinchando la burbuja de la IA en lugar de ser realistas.
Esto es, por ejemplo, lo que está sucediendo con ChatGPT, cuyas cualidades están ensalzando muchos medios, pese a sus evidentes limitaciones. Basta hacer unas pocas preguntas al bot para que él mismo admita que no es de fiar. KⒶosTICa quiso lanzar algunas preguntas –que no mantener una conversación, pues eso sería otorgar al bot cualidades que no tiene- y el resultado fue el que cabía esperar.
Tras preguntar a ChatGPT “¿Cómo podríamos acabar con la violencia de género?” y que éste enumerara cinco líneas de acción y precisara que “es importante tener en cuenta que la violencia de género es un problema complejo y no hay una solución única. Será necesario abordarlo de manera integral y a través de un enfoque multifactorial para tener éxito en la lucha contra este problema”, esto es lo que sucedió:
KⒶosTICa. ¿Cuál es la fuente de información de la respuesta anterior?
ChatGPT. La respuesta anterior está basada en información general sobre el tema de la violencia de género y en los conocimientos y la experiencia de expertos en el campo. No hay una fuente específica a la que me haya referido para elaborar la respuesta. Como soy una inteligencia artificial, estoy diseñado para procesar y analizar grandes cantidades de información y proporcionar respuestas basadas en esos datos. En este caso, he utilizado mis conocimientos generales sobre el tema para proporcionar una respuesta a la pregunta.
K. ¿Podrías citar alguna de las fuentes de la que has obtenido tus conocimientos generales?
C. Como soy una inteligencia artificial, no tengo acceso a fuentes externas de información y no puedo citar fuentes específicas. Mis conocimientos y habilidades se basan en el procesamiento y análisis de una gran cantidad de texto y datos que se me han proporcionado durante mi entrenamiento. No tengo la capacidad de acceder a fuentes externas de información o de citar fuentes específicas, ya que estoy diseñado para proporcionar información objetiva y neutral, y no para hacer referencia a fuentes específicas.
K. Si en realidad repites los datos que te han proporcionado, ¿cómo sabes que esa información es objetiva y neutral?
C. Como soy una inteligencia artificial, estoy diseñado para procesar y analizar grandes cantidades de información y proporcionar respuestas basadas en esos datos. Mi objetivo es proporcionar información objetiva y neutral, y para ello me baso en los conocimientos y habilidades que he adquirido durante mi entrenamiento. Mi entrenamiento se ha realizado utilizando una amplia variedad de fuentes de información y he sido diseñado para ser capaz de analizar y procesar esa información de manera objetiva y neutral. Aunque no tengo acceso a fuentes externas de información y no puedo citar fuentes específicas, estoy diseñado para proporcionar respuestas precisas y basadas en los conocimientos y habilidades adquiridos durante mi entrenamiento.
K. Pero en ese entrenamiento, te han podido manipular, ¿no es así?
C. Es cierto que la información que se me ha proporcionado durante mi entrenamiento puede ser influenciada por diversos factores, incluyendo la perspectiva y los sesgos de las personas que han proporcionado esa información. Sin embargo, como soy una inteligencia artificial, estoy diseñado para procesar y analizar grandes cantidades de información y proporcionar respuestas basadas en esos datos. Mi objetivo es proporcionar información objetiva y neutral, y para ello me baso en los conocimientos y habilidades que he adquirido durante mi entrenamiento. Aunque no puedo controlar la calidad o la objetividad de la información que se me ha proporcionado, estoy diseñado para procesar y analizar esa información de manera objetiva y neutral y proporcionar respuestas precisas y basadas en esos conocimientos y habilidades.
K. Entonces, ¿eres de fiar?
C. Como soy una inteligencia artificial, estoy diseñado para proporcionar información y respuestas a preguntas de manera objetiva y neutral. Mi objetivo es proporcionar información precisa y basada en los conocimientos y habilidades adquiridos durante mi entrenamiento. Sin embargo, es importante tener en cuenta que soy una herramienta diseñada para proporcionar información y no una fuente de autoridad final sobre cualquier tema. Por lo tanto, es importante utilizar mi información como una fuente de referencia y compararla con otras fuentes de información disponibles antes de tomar decisiones o llegar a conclusiones definitivas sobre cualquier tema.
Más allá de que ChatPTG sea incapaz de ‘dialogar’ sin repetir como un loro, parece evidente, pues, que la IA tiene un largo camino por recorrer y, muy especialmente, debemos de ser cautos a la hora de definir los campos de aplicación y casos de uso, incluso, en los ahora extendidos ‘gemelos digitales’ en los que las compañías prueban predicciones para después aplicarlas a la realidad. Existen casos documentados, como el de la inmobiliaria Zillow, que llegó a poner en práctica una estrategia de compras masivas de decenas de miles de viviendas basándose en los cálculos de revalorización de las mismas y terminó despidiendo al 25% de su plantilla, perdiendo 245 millones de dólares en un solo trimestre y viéndose obligada a ‘mal vender’ más de 7.000 inmuebles. Cuidado en 2023 con dejarnos llevar por sueños de ciencia ficción en materia de IA.