Revista digital

NOTICIAS

Las empresas deben ser proactivas a la hora de incorporar la ética en la IA

Capgemini analiza el uso ético de la inteligencia artificial

 
  • linkedin share button


05/08/2019 El uso ético de la inteligencia artificial (IA) resulta fundamental para ganar la confianza de los consumidores, según refleja un nuevo estudio del Instituto de Investigación de Capgemini. Los consumidores, empleados y la ciudadanía en general vigilan de cerca el avance de las empresas para aprovechar el potencial de la IA y se muestran dispuestos a premiar o castigar sus comportamientos. Los encuestados señalan que serían más fieles, comprarían más y serían defensores de la marca si perciben que sus interacciones mediante funciones de IA con las empresas son éticas.

Tras consultar a 1.580 directivos de grandes empresas en diez países y a más de 4.400 consumidores en seis países, Capgemini concluye en su estudio 'Why addressing ethical questions in AI will benefit organizations', que las empresas que utilicen la IA de forma ética se verán recompensadas por una respuesta más favorable de los consumidores. De hecho, el 62% de los consumidores encuestados confiaría más en una empresa que hace un uso ético de la IA para interactuar con ellos; el 61% compartiría las experiencias positivas con la compañía entre familiares y amigos; el 59% sería más fiel a la empresa; y el 55% compraría más productos, y daría mejores calificaciones y opiniones positivas en las redes sociales.

Por el contrario, si las interacciones de los consumidores con la IA suscitan inquietudes éticas, se pone en riesgo tanto la reputación como los resultados de negocio de la empresa: el 41% de los individuos señala que presentaría una reclamación, el 36% exigiría una explicación y el 34% dejaría de relacionarse con la empresa.

No obstante, las empresas han experimentado problemas éticos relacionados con sistemas de IA y así lo avalan nueve de cada diez directivos consultados, quienes aseguran tener constancia de casos de uso ético cuestionable de la IA en los 2 o 3 últimos años. Por ejemplo, en referencia a la recopilación de datos personales de pacientes sin consentimiento, en el sector sanitario, o la dependencia excesiva de decisiones tomadas de forma automatizada y sin comunicarlo al cliente, en banca y seguros.

Asimismo, entre los motivos que originan estas situaciones, los directivos apuntan la presión por implantar con urgencia la IA, la falta de consideración de la ética durante el desarrollo y diseño de los sistemas de IA, o la falta de recursos destinados a sistemas éticos de IA específicos (equipo, presupuesto, tecnología…).

Por otro lado, el estudio concluye que los consumidores, empleados y ciudadanos les preocupa la cuestión ética de la IA y desean alguna forma de regulación. De este modo, Serca de la mitad de los encuestados (47%) considera que en los últimos 2 o 3 años se ha visto expuesto a dos o más casos de uso éticamente cuestionable de IA. La mayor parte (75%) quiere más transparencia cuando un servicio que utilice o contrate se apoye en IA y saber si la IA le trata de forma justa (73%). Asimismo, más de las tres cuartas partes (76%) de los consumidores considera que debería haber más regulación sobre el uso de la IA por parte de las empresas.

Por último, Capgemini destaca que las empresas comienzan a darse cuenta de la importancia del uso ético de la IA, dado que el 51% de los directivos considera que es importante garantizar que los sistemas sean éticos y transparentes. Además, las empresas están tomando medidas cuando detectan usos cuestionables de IA. Según el informe, un 41% de altos ejecutivos afirma haber abandonado o retirado una solución de inteligencia artificial cuando se han planteado inquietudes éticas.

“Este estudio muestra que las organizaciones deben establecer prácticas y sistemas éticos para el uso de la IA para conseguir la confianza del público. No se trata solo de cumplir la normativa, también puede generar un beneficio significativo en términos de fidelidad, generación de buenas opiniones e implicación y creación de vínculos”, comenta Anne-Laure Thieullent, responsable de IA y Analítica de Capgemini. “Para conseguirlo, las empresas deben dedicar esfuerzos al establecimiento de estructuras de gobierno adecuadas; no solo deben elaborar un código de conducta basado en sus propios valores, sino, además, incorporar principios éticos en la fase de desarrollo (ethics-by-desing) y, sobre todo, informar al público sobre cómo interactúa con la IA y capacitarle para expresar su postura al respecto”, añade.

En este sentido, explica que para hacer frente a la inquietud que esta tecnología suscita entre los consumidores y obtener los beneficios en términos de confianza que genera hacer un uso ético de ella, las empresas tienen que focalizarse en que todos sus sistemas o procesos viren a este cometido. En su investigación, Capgemini recomienda una aproximación triple para construir una estrategia de ética en IA que abrace a todos los niveles:

  • De cara a la alta dirección y a aquellas personas con responsabilidad en asuntos éticos: Establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de cuestiones éticas.
  • De cara a los departamentos con relación directa con clientes y empleados (como recursos humanos, marketing y servicio al cliente): Asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza.
  • De cara a los responsables de TI, AI y analítica de datos y sus equipos: Buscar la manera de que los sistemas de AI sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.

Por su parte, Luciano Floridi, director de Digital Ethics Labs, del Oxford Internet Institute, concluye: “La forma básica de ganar confianza, especialmente en las interacciones con la IA, puede resumirse en tres palabras: transparencia, responsabilidad y capacitación. Transparencia, para que las personas puedan ver qué haces; responsabilidad, porque asumes la responsabilidad de lo que haces; y capacitación, porque proporcionas las herramientas para que el consumidor o el empleado comunique que lo que haces no es correcto o adecuado [empoderamiento]”.

entrevistas  |  reportajes  |  almuerzos  |  tribunas  |  noticias  |  proveedores  |  nombramientos  |  estudios  |  agenda  |  libros  |  el equipo  |  enlaces  |  mapa web

© 2007 CUSTOMMEDIA S.L. edita EQUIPOS Y TALENTO  |  Equipo de redacción  |  Contacto  |  Política de privacidad

Av. Diagonal, 463 bis 5ª planta, Barcelona 08036  Tel. 93 4195152  Fax. 93 4101755