Saltar menú de navegación Teclas de acceso rápido
Opinión

El lado humano de la Inteligencia Artificial: el margen de error

Los sistemas de IA como los humanos tienen imperfecciones; recae en nosotros identificar los fallos en los algoritmos.
Claudia Guardia

Por Claudia Guardia

En algún momento todos hemos cometido un error, aunque a veces pueden ser frustrantes, son una parte importante de nuestro aprendizaje y desarrollo. Los errores nos proporcionan oportunidades para ajustar el comportamiento y mejorar la capacidad para enfrentar desafíos en el futuro.

Pero ¿qué sucede cuando incorporamos estos conceptos en el ámbito de la Inteligencia Artificial? Los algoritmos son producto de la programación humana, poseen no solo la habilidad de procesar información, sino la capacidad de interconectarse con otros dispositivos. Este factor añade una dimensión a la funcionalidad y al potencial de la IA, permitiéndoles interactuar y aprender de una red aún más amplia de información y experiencias, pero al igual que los humanos, la IA, diseñada para imitar la inteligencia humana, es susceptible de cometer errores.

Los sistemas de IA se entrenan y aprenden a partir de grandes cantidades de datos, y a pesar de su capacidad para procesar y aprender de estos datos a velocidades que superan con creces a los humanos, no son infalibles. Un ejemplo emblemático de esta situación ocurrió en 2015 cuando un algoritmo de reconocimiento de imagen de Google confundió fotos de gorilas con humanos. No obstante, la IA, al igual que los humanos, posee la capacidad de aprender de sus errores, mejorarse y evolucionar. A través de este camino artificial de aprendizaje evolutivo, las máquinas consiguen logros asombrosos, sin embargo, a diferencia de los seres humanos, la IA, no posee conciencia del proceso de aprendizaje que le permite tomar decisiones autónomas, y así, frente a errores irreparables, carece de lo que nosotros llamamos sentido común.

La IA, reflejo de la Inteligencia Humana

La idea de una IA que pueda aprender de sus errores y mejorar puede parecer salido de una película de ciencia ficción, pero es una realidad. Los errores, aunque puedan ser vistos como fallos en el sistema, son en realidad oportunidades de aprendizaje y de mejora.

Desde el momento en que surgió el concepto de la Inteligencia Artificial, se ha soñado con un espejo de la inteligencia humana. Así como los seres humanos somos capaces de aprender, razonar y percibir el mundo que nos rodea, la IA aspira a hacer lo mismo, pero de una manera sistemática y basada en algoritmos.

En última instancia, la IA es un reflejo de nuestra inteligencia, pero también de nuestras limitaciones. Los errores de la IA también pueden amplificar los sesgos existentes en la sociedad, dado que los sistemas de IA aprenden a partir de datos que a menudo reflejan los prejuicios humanos. Así nos encontramos con los sesgos de género en el desarrollo de los algoritmos, entrenados con datos que reflejan las representaciones estereotipadas de la mujer en el entorno digital. En el año 2021, la Conferencia General de la UNESCO adoptó las Recomendaciones sobre la Ética de la Inteligencia Artificial, expresando que, “surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos”.

En esta línea podemos traer el ejemplo de Amazon que, en el 2018, utilizó un sistema de IA para ayudar en el proceso de contratación de personal, pero la empresa tuvo que descontinuarlo cuando se descubre que la IA había sido entrenado con currículos en mayor medida provenientes de hombres, y el sistema aprendió a favorecer a los hombres sobre las mujeres.

Otro caso refiere a la tarjeta Apple Card que frente una similar situación crediticia, ofrecía una línea de créditos mayores para varones que para mujeres. Hasta los sistemas de aprendizaje profundo en generación de lenguaje más avanzado como GPT-4, y de acuerdo con lo expresado en la página OpenAI, ChatGPT puede producir información inexacta sobre personas, lugares o hechos.

Los algoritmos de IA se entrenan con un conjunto de datos etiquetados que determinan la respuesta correcta o el resultado que el algoritmo debe predecir, pero cuando comete un error, es decir, predice incorrectamente, el algoritmo ajusta sus parámetros para reducir la probabilidad de cometer el mismo error en el futuro. En contraposición a esto, cuando los humanos, en ocasiones, repetimos los mismos errores, nuestro comportamiento es frecuentemente influenciado entre otras cosas, por el sesgo de confirmación, que nos induce a reproducir acciones que previamente derivaron en equivocaciones, incluso en circunstancias idénticas.

La inteligencia humana, que se encuentra arraigada en factores biológicos y está impulsada por nuestra conciencia, contrasta notablemente con la Inteligencia Artificial. Esta última se basa en la precisión de algoritmos complejos y en la meticulosidad de cálculos matemáticos.

Indudablemente, nos encontramos en un mundo en constante evolución donde el intercambio de aprendizajes entre los seres humanos y la Inteligencia Artificial puede representar un crucial punto de inflexión. Tanto los sistemas de IA como los humanos tienen sus imperfecciones, de esta manera, recae en nosotros la responsabilidad de identificar los fallos en los algoritmos. En tanto la coexistencia con la Inteligencia Artificial puede presentarnos oportunidades para aprender, adaptarnos y, posiblemente, evolucionar junto a ella.

OPINION VOCES

Comentarios

Últimas noticias

Te puede interesar

Teclas de acceso