En el cambiante panorama de la inteligencia artificial (IA), un nuevo reporte revela preocupantes lagunas en la atención al sesgo y los desafíos éticos que plantea esta tecnología. De acuerdo con un estudio reciente, un significativo 27.1% de los profesionales de la IA y el 32.5% de los usuarios finales de herramientas basadas en inteligencia artificial no abordan específicamente los sesgos y problemas éticos inherentes al uso de la IA.
La inteligencia artificial, mientras transforma rápidamente industrias clave como la salud al mejorar potencialmente los diagnósticos médicos, suscita a su vez importantes preocupaciones éticas. Estas inquietudes incluyen el posible sesgo en los sistemas de IA, amenazas a los derechos humanos y una contribución negativa al cambio climático. Con el mercado global de IA proyectado para alcanzar un tamaño de 1.8 billones de dólares para 2030, resulta esencial abordar estos desafíos éticos de raíz.
El sesgo puede infiltrarse en cualquier etapa del desarrollo de IA, siendo la recolección de datos una fuente principal. La dependencia de datos no diversos o que no representan a minorías podría perpetuar estos sesgos. Otros riesgos surgen en el etiquetado de datos, donde distintas interpretaciones pueden generar disparidades, y en la formación de modelos, que requieren arquitecturas balanceadas capaces de manejar entradas diversas. El despliegue de IA también necesita de escrutinios rigurosos para prevenir sesgos perjudiciales antes de que los sistemas sean implementados.
En particular, se han documentado casos de sesgo en aplicaciones de IA en el sector de la salud. Los sistemas de diagnóstico asistido por computadora han demostrado menores niveles de precisión para pacientes femeninas negras en comparación con sus contrapartes blancas. En otros ámbitos, la investigación académica ha señalado cómo determinadas plataformas tienden a reproducir imágenes estereotipadas, presentando a hombres en profesiones especializadas como mayores y a mujeres como más jóvenes, perpetuando así sesgos de género.
Además, el uso de IA en el sistema de justicia penal, a través de herramientas predictivas, puede reforzar patrones de discriminación racial al basarse en datos históricos, afectando de manera desproporcionada a comunidades minoritarias.
Los desafíos van más allá del sesgo y la discriminación. La IA enfrenta otros dilemas éticos, como la seguridad, donde los sistemas pueden ser vulnerables a hackeos, propagando desinformación y causando potencial desplazamiento laboral. En el ámbito de la propiedad intelectual, han surgido litigios por el uso ilegal de obras protegidas, lo que resalta la necesidad de que las empresas prioricen la ética en sus desarrollos de IA, asegurando medidas de seguridad adecuadas.
Para afrontar estos problemas, algunas organizaciones recurren a auditorías regulares, ya que el 44.1% de los profesionales y el 31.1% de los usuarios finales han indicado que utilizan esta estrategia para evaluar y mitigar el sesgo en sus sistemas. No obstante, una proporción significativa de usuarios (32.5%) y profesionales (27.1%) admitieron no tomar medidas específicas para abordar estos asuntos, lo que subraya la imperiosa necesidad de mayor conciencia y acción en la industria.
Los principios propuestos por organismos como la UNESCO enfatizan la relevancia de un enfoque centrado en el ser humano en la IA, promoviendo valores como la proporcionalidad, seguridad, privacidad y no discriminación. En última instancia, para que la inteligencia artificial realmente beneficie a todos, debe integrarse con una comprensión ética que proteja a todas las minorías y respalde procesos justos en sectores críticos como la salud y la justicia.