
Gaiak
La inteligencia artificial: retos, oportunidades y riesgos
DÍAZ DE ILARRAZA SÁNCHEZ, Arantza
Profesora Plena (jubilada) de la Facultad de Informática de la Universidad del País Vasco
El término Inteligencia Artificial (IA) está en boca de todos. No es un término nuevo, el investigador John McCarthy lo propuso en 1956 en la conferencia de Darmouth, en Estados Unidos. A lo largo de estos años los desarrollos de IA han creado muchas expectativas y frustraciones. Podríamos decir que, gracias a los últimos avances tecnológicos y en investigación, nos encontramos ahora en un momento de auge. En general, cuando hablamos de IA nos referimos a algoritmos que simulan la inteligencia humana, imitando comortamientos típicamente humanos tales como el razonamiento y la toma de decisiones. Pero, ¿puede la IA realmente replicar la inteligencia humana?
Es importante tener muy claro que los programas que utiliza la IA hacen uso de algoritmos muy potentes a los que se les "entrena" con enormes conjuntos de datos que les ayudan a ir adquiriendo nuevas capacidades y tomar decisiones. Uno de los puntos fuertes de la IA es su capacidad para realizar tareas a una gran velocidad y precisión. Sin embargo, la inteligencia humana no se limita a algoritmos o reglas específicos, sino que implica una red compleja de habilidades cognitivas como la percepción, el lenguaje, el razonamiento de sentido común, la intuición y la creatividad. Estas habilidades están interconectadas y son difíciles de replicar en las máquinas. La IA carece de la adaptabilidad y flexibilidad de la inteligencia humana.
Es evidente que la IA está impactando en muchos campos y está transformando muchísimos sectores. A través de sus potentes algoritmos y cómputo, se está convirtiendo en la clave para el crecimiento de la infraestructura digital del mundo por lo que su uso es asombrosamente amplio. En esta infraestructura digital que se está desarrollando, los algoritmos de tratamiento de texto, de voz, de imágenes toman una especial importancia y van a permitir crear herramientas que amplíen nuestras capacidades para realizar mejor y más eficientemente no sólo las tareas que estamos acostumbrados a hacer sino también aquéllas para las que inicialmente no estamos capacitados, como por ejemplo comprender y escribir correos electrónicos, cartas, comunicados en un idioma que no conocemos o, para el caso de personas con dificultades visuales, facilitar el reconocimiento del entorno.
El informe IPSOS sobre opiniones globales y expectativas por países y grupos sociológicos sobre la IA de enero de 2022[1] identifica una serie de áreas en las que se espera un mayor cambio debido a la IA. Las áreas a las que se refiere son educación, seguridad, empleo, compras, transporte, entretenimiento, hogar, medioambiente, relaciones personales o familiares, libertad o derechos legales, coste de la vida, etc.
En el área de la educación, por ejemplo, la IA nos abre un abanico de posibilidades para generar actividades y tareas para el alumnado impensables hace unos años y así facilitar el objetivo de realizar una educación adaptativa permitiendo la elaboración de contenidos basados en las fortalezas y debilidades de cada estudiante y ayudando al estudiante en la escritura y comprensión de textos. Todo ello puede producir un impacto educativo positivo general. Además, hará posible una mayor retroalimentación sobre los ejercicios y exámenes realizados. El uso de las tecnologías como el ChatGPT por el alumnado es un tema que preocupa al profesorado; los expertos indican que habrá que fomentar más el desarrollo del espíritu crítico en la información que procesa el alumnado, haciendo hincapié en cómo recopilar datos representativos y limpios estando atentos a problemas que pueden surgir de sesgos. El riesgo que se corre al utilizar estas tecnologías es incrementar la brecha digital y la exclusión social de aquellos grupos que no tengan fácil acceso a estas herramientas.

Uno de los puntos fuertes de la IA es su capacidad para realizar tareas a una gran velocidad y precisión.
En el campo de la medicina, gracias a la gran capacidad de análisis de datos de los algoritmos de IA, ésta ya se utiliza para diagnosticar enfermedades, como el cáncer, con mayor precisión y en sus primeras fases. Si a esto añadimos la capacidad de los algoritmos de IA para analizar textos de informes médicos sobre pacientes, la información y ayuda que se puede ofrecer a los y las profesionales de la medicina, tanto para la gestión de su labor hospitalaria como ayuda al diagnóstico, es muy valiosa; por ejemplo, se pueden detectar patrones de reacciones adversas a medicamentos, se pueden diseñar sistemas de ayuda a la codificación de informes médicos siguiendo estándares internacionales o sistemas para traducción asistida de informes médicos a otros idiomas.
Sin embargo, la necesidad de que los algoritmos dispongan para su procesado de los informes médicos de pacientes para realizar todas estas tareas, hace que sean imprescindibles buenos programas de “anonimización” ya que, de no hacerlo, se podría revelar información sensible sobre dichos pacientes.
No podemos olvidarnos de los principales riesgos de discriminación y exclusión que presentan estas herramientas debidos al sesgo y la falta de equidad entre diferentes grupos demográficos debidos a la recopilación de datos sesgados o algoritmos mal diseñados. Un ejemplo claro se da en sistemas de reconocimiento facial que han demostrado tener tasas de error más altas en personas de ciertos grupos étnicos; otro ejemplo interesante son los errores de sesgo de género en los sistemas de traducción automática. Esto plantea preocupaciones éticas y la necesidad de estrategias para evitarlo; estas estrategias pasan por: i) la recopilación de datos inclusivos que reflejen una amplia diversidad de experiencias, y eliminar datos discriminatorios; ii) el diseño de algoritmos justos que minimicen estas desviaciones; iii) evaluaciones de IA realizando observaciones sistemáticas regulares y realizadas por personas de diferentes orígenes para identificar y corregir este tipo de problemas; iv) transparencia en los procesos de desarrollo de los sistemas de IA para poder identificar responsabilidades.
A nivel de investigación cada vez es mayor el número de publicaciones científicas que la abordan. La IA no deja de ser un campo de investigación científica que, como toda investigación, necesita talento y dinero, y sobre todo saber adaptarse a la idiosincrasia de la comunidad en la que se desarrolla cuidando sus aspectos culturales y lingüísticos.
En diciembre de 2023, la Unión Europea ha aprobado su primera ley de regulación del uso de la IA. Esta normativa tiene como objetivo garantizar mejores condiciones de desarrollo y regular su uso. Su prioridad es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Esta normativa considera las distintas aplicaciones de IA clasificándolas según su riesgo para los usuarios. Según los niveles de peligro, la regulación será mayor. Este es un primer paso, pero seguramente serán necesarias desarrollar éstas u otras normas para lograr un uso adecuado de esta tecnología y que los derechos de los usuarios sean respetados.