Las empresas deben ser éticas en el uso de Inteligencia Artificial
El uso ético de la Inteligencia Artificial (IA) se está volviendo fundamental para ganar la confianza del cliente, según ha encontrado un nuevo estudio del Capgemini Research Institute. Conforme las organizaciones avanzan en aprovechar los beneficios de la IA, los consumidores, empleados y ciudadanos observan de cerca y están listos para premiar o castigar el comportamiento. Los encuestados dijeron que ellos serían más leales, comprarían más, o serían defensores de aquellas organizaciones cuyas interacciones de IA sean éticas.
Las empresas que usan IA de forma ética serán recompensadas: Entre los consumidores encuestados, 62% dijo que confiaría más en una compañía en la que su interacción de IA se perciba como ética; 61% compartiría su experiencia positiva con familiares y amigos, 59% tendría mayor lealtad a la compañía, y el 55% dijo que compraría más productos y otorgaría una mayor calificación y retroalimentación en redes sociales. En contraste, cuando la interacción de los consumidores con IA genera problemas éticos, la reputación resulta amenazada y afecta el resultado final: 41% dijo que se quejaría en el caso de que una interacción con IA resultará en problemas éticos, 36% demandaría una explicación y el 34% dejaría de interactuar con la compañía.
Se han observado y experimentado problemas éticos resultantes de sistemas de IA: Ejecutivos en nueve de cada 10 organizaciones creen que los problemas éticos han sido resultado del uso de sistemas de IA durante los últimos 2 – 3 años, con ejemplos como la recopilación de datos personales de pacientes sin consentimiento en la atención médica, y la dependencia excesiva en las decisiones dirigidas por máquinas sin difusión en banca y seguros. Los ejecutivos citaron razones como la presión para implementar con urgencia la IA, la falta de consideración de la ética al construir sistemas de IA y la falta de recursos dedicados a sistemas éticos de IA.
Los consumidores, empleados y ciudadanos están preocupados acerca de las inquietudes éticas relacionadas con la IA, y quieren algún tipo de regulación: Casi la mitad de los encuestados (47%) creen que han experimentado al menos dos tipos de usos de IA que resultaron en problemas éticos en los últimos 2 – 3 años. La mayoría (74%) dijeron que quieren una mayor transparencia cuando un servicio es impulsado por IA, así como saber si la IA los está tratando de manera justa (72%). Más de tres cuartos (76%) de los consumidores creen que debería haber más regulaciones en la forma en que las empresas usan la IA.
Las organizaciones están empezando a percatarse de la importancia de una IA ética: 53% de los ejecutivos considera que es importante asegurar que los sistemas de IA sean éticos y transparentes. Las organizaciones también están tomando acciones concretas cuando surgen asuntos éticos. La investigación encontró que 41% de los ejecutivos senior reportaron haber abandonado un sistema de IA por completo cuando surgió un problema ético.
“Muchas organizaciones se encuentran en una encrucijada por el uso de IA. Los consumidores, empleados y ciudadanos están cada vez más abiertos a interactuar con tecnología, pero están conscientes de las potenciales implicaciones éticas. Esta investigación muestra que las organizaciones deben crear prácticas éticas para el uso de la IA si quieren ganar la confianza de la gente. Esto no es solo un problema de cumplimiento interno, sino un problema que puede generar un beneficio significativo en términos de lealtad, respaldo y compromiso”, dijo Anne-Laure Thieullent, líder de IA y de ofertas del Grupo de analítica en Capgemini. “Para lograr esto, las organizaciones deben centrarse en establecer las estructuras de gobierno adecuadas, no solo deben definir un código de conducta basado en sus propios valores, sino también implementarlo de manera concreta como una aproximación de ‘ética por diseño’, y, sobre todo, enfocarse en informar y empoderar a las personas sobre cómo interactúan con las soluciones de IA”.
Las organizaciones deben priorizar una estrategia de IA ética: Para enfocarse en las preocupaciones de los consumidores y desbloquear la desconfianza del uso ético de la IA, las organizaciones deben adoptar un enfoque centrado para hacer que los sistemas se ajusten a su propósito. Capgemini recomienda un enfoque de tres pilares para construir una estrategia para la ética en IA que abarque a todas las partes clave interesadas:
- Para los Chief Experience Officer (CXOs), los líderes de negocio y aquellos con un mandato de confianza y ética: Establecer una base sólida con una estrategia y un código de conducta para una IA ética; desarrollar políticas que definan prácticas aceptables para la fuerza laboral y aplicaciones de IA; crear estructuras de gobernanza éticas y garantizar la responsabilidad de los sistemas de IA; y construir equipos diversos para asegurar la sensibilidad hacia todo el espectro de problemas éticos;
 
- Para el cliente y los equipos enfocados en empleados, tales como recursos humanos marketing, comunicación y servicios de consumo: Asegurar el uso ético de aplicaciones de IA; educar e informar a los usuarios de construir confianza en sistemas de IA; empoderar a los usuarios con más control y con la capacidad de buscar recursos; y comunicar proactivamente sobre problemas de IA, de manera interna y externa, para generar confianza;
 
- Para los líderes de IA, datos y tecnologías de la información y sus equipos: Hacer que los sistemas de IA sean transparentes y comprensibles para ganar la confianza de los usuarios; practicar una buena gestión de datos y mitigar posibles sesgos en los datos; y usar herramientas tecnológicas para construir la ética en la IA.
 
Luciano Floridi, Director de laboratorios de ética digital, en el Instituto de internet de Oxford, dijo que “un método clásico para obtener confianza, con interacciones de Inteligencia Artificial en particular, puede resumirse en tres ideas: transparencia, rendición de cuentas y empoderamiento. Esto significa transparencia para que las personas puedan ver lo que estás haciendo; rendición de cuentas porque asumes la responsabilidad por lo que estás haciendo; y empoderamiento porque pones a las personas a cargo para decirte si algo que hiciste no estuvo bien o no fue bueno”.
