Descargo de responsabilidad: el texto que se muestra a continuación se ha traducido automáticamente desde otro idioma utilizando una herramienta de traducción de terceros.
La IA es BS
Por: Brian D. Wassom
En el momento de escribir estas lineas, la sociedad parece encontrarse en algun punto de la fase de cuarta cita de su relacion con la inteligencia artificial generativa: todavia encaprichada, pero empezando a recuperar la sobriedad lo suficiente como para reconocer que el objeto de nuestros afectos puede no ser totalmente digno de nuestra confianza. Todos los entusiastas, salvo los mas acerrimos, se han dado cuenta de que no podemos dar por sentado que todo lo que nos dicen las aplicaciones de IA es cierto. ChatGPT, por ejemplo, responde a nuestras preguntas sin rubor y con el mismo gusto a la realidad y a la ficcion. La descripcion predominante de estos vuelos de la fantasia es "alucinacion", un termino antropomorfizante que implica que la aplicacion realmente desea ser honesta con nosotros, pero se ve frenada inadvertidamente por una ruptura esquizofrenica ocasional con la realidad.
En la medida en que esta terminologia transmite que ChatGPT no nos miente intencionadamente, es justo. Pero en la medida en que la palabra "alucinacion" implica que la aplicacion dice la verdad, es materialmente enganosa. Por supuesto, hablar de IA como si fuera algo mas personal que la compleja interaccion de 1s y 0s es nuestro primer error, y su propio tipo de ficcion. Una cita atribuida a Stephen Hawking define la "inteligencia" como "la capacidad de adaptarse al cambio". Segun esa medida, los programas de IA actuan de forma inteligente. Lo que distingue a la IA del software comun es su capacidad de adaptar su funcionamiento en respuesta a la informacion acumulada que recibe de entradas y acciones anteriores. Llamamos a estos procesos "aprendizaje automatico" o "aprendizaje profundo", y los disenos de IA mas avanzados se conocen como "redes neuronales", todos ellos terminos inspirados en el funcionamiento de la mente humana.
Pero estos terminos son mas analogicos que precisos. La IA no es -no puede ser- "inteligente" del mismo modo que un cerebro humano, porque el software carece de mente. Merriam Webster define mas detalladamente "inteligencia" como "la capacidad de aprender o comprender", "el uso habil de la razon" y "la capacidad de aplicar conocimientos... o de pensar de forma abstracta". Las maquinas no pueden hacer nada de esto. Si un programa de IA genera datos que se corresponden con la realidad, es el feliz resultado del esfuerzo de su programador humano. Estos programadores son como ingenieros civiles que disenan un complejo conjunto de tuberias subterraneas con la precision suficiente para garantizar que el agua fluya solo hacia el lugar deseado. Pero un programa de inteligencia artificial no sabe que esta diciendo la verdad, igual que una tuberia no sabe que esta suministrando agua correctamente, porque no tiene una mente con la que determinar que es la realidad.
Al menos podemos consolarnos con el hecho de que la IA no puede mentirnos. Un mentiroso es aquel que reconoce la verdad y decide enganar al oyente para que crea otra cosa. La IA no puede "conocer" la verdad, por lo que no puede mentir.
Pero tampoco puede "alucinar", estrictamente hablando; alucinar sigue siendo percibir una realidad, solo que no la real. Asi que si, como parece inevitable, vamos a seguir hablando de la IA en terminos antropomorfizados, al menos deberiamos ser mas precisos. Adormecernos en una comprension erronea de como funciona el software nos lleva a malinterpretar lo que hace por nosotros y, por tanto, a pasar por alto tanto sus limitaciones como sus verdaderas utilidades potenciales. Para ello, propongo que la forma mas precisa de describir el resultado de los programas de IA generativa es -para usar la abreviatura- "BS".
Lo digo en serio. En un libro de 2005 que se convirtio en su publicacion mas popular, el filosofo estadounidense Harry G. Frankfurt, que ahora tiene 94 anos, se propuso definir este termino tan utilizado pero tan mal entendido. Titulado On Bullsh*t, el libro postula que "la esencia de [la BS] no es que sea falsa, sino que es falsa". A diferencia de un mentiroso, que "intenta activamente alejarnos de una correcta aprehension de la realidad", al artista de la BS "no le importa si las cosas que dice describen correctamente la realidad. Simplemente las elige, o se las inventa, para que se ajusten a su proposito".
Eso es lo mas cerca que podemos estar de describir las conversaciones de ChatGPT con nosotros. La unica diferencia entre un chatbot y un artista de la mentira humano es que la persona lo hace intencionadamente. La IA no tiene intencion. Pero eso solo refuerza la descripcion. Como dice Frankfurt, "[el BS] es inevitable siempre que las circunstancias exigen que alguien hable sin saber de que esta hablando". Como ChatGPT no puede saber de que esta hablando, no puede decir otra cosa que BS.
Esto es mas facil de ver en el contexto de un chatbot, pero el mismo principio se aplica a todas las manifestaciones de la IA. Se sabe de otros programas de IA que hacen recomendaciones sobre tratamientos sanitarios basandose en conclusiones inexactas extraidas de datos incompletos. O decisiones laborales basadas en conjuntos de datos sesgados por discriminaciones previas. O para identificar a sospechosos de delitos basandose en datos de reconocimiento facial que leen peor las caras de color que las blancas. O para autocorregir palabras que convierten un inocente mensaje de texto en un mortificante paso en falso.
Ninguno de estos resultados era inevitable, ni era intrinsecamente culpa de los propios programas. Las imprecisiones en los resultados de la IA pueden reducirse, y a menudo se reduciran, si los humanos implementan un codigo mas refinado, tuberias mas sofisticadas para asegurarse de que el agua va solo a donde se supone que debe ir y a ninguna otra parte. Dicho esto, gran parte de la maravilla y la preocupacion en muchos de los programas de IA mas avanzados es que sus autores humanos no saben como funcionan; la propia IA hace tiempo que ha reescrito su propio codigo tantas veces que su funcion es inescrutable incluso para sus creadores. BS engendrado por BS.
Pero eso no quiere decir que no debamos seguir desarrollando y utilizando aplicaciones de IA. Al contrario, hay personas brillantes que desarrollan aplicaciones utiles y eticas de la IA. No se puede negar el poder y la utilidad de estos inventos, siempre y cuando sigan siendo herramientas creadas a tal efecto y no asesores de confianza. Las soluciones de IA deben aplicarse dentro de unos limites lo suficientemente restrictivos como para garantizar que el resultado final del programa tiene suficientes probabilidades de corresponderse con la realidad como para ser util (tras una revision y correccion humanas) para el fin previsto. Los parametros aceptables varian segun el contexto. Y a veces un poco de BS puede ser algo bueno, como cuando se utiliza ChatGPT para hacer una lluvia de ideas sobre como hacer que una reunion suene interesante, o cuando se confia en Midjourney para renderizar imagenes sorprendentes e inspiradoras, incluso si las personas que aparecen en ellas acaban con algunos dedos de mas.
Pero la vertiginosa velocidad de adopcion de la IA en practicamente todos los sectores economicos a la vez, junto con el asombro sin aliento con el que los vendedores y los directivos de nivel medio hablan del potencial de estas aplicaciones, sigue siendo motivo de seria preocupacion. Aunque parte de la conciencia de nuestra sociedad sabe que no debe confiar en la IA, todavia somos demasiados los que nos dejamos seducir por su palabreria.
Las herramientas de IA seran utiles para una gama cada vez mas amplia de aplicaciones que informan y ayudan a la toma de decisiones humanas, pero siempre deben ser manejadas por seres humanos que ejerzan un juicio independiente. "El [artista de la BS]... no rechaza la autoridad de la verdad, como hace el mentiroso ..... No le presta ninguna atencion. En virtud de esto, [el BS] es un enemigo de la verdad mayor de lo que lo es la mentira", advirtio Frankfurt. En la medida en que nos permitamos a nosotros mismos o a nuestras empresas confiar acriticamente en la IA generativa como fuente de verdad, llegaremos a lamentarlo.