¿Puede ser la IA nuestra aliada en la búsqueda de un futuro ético?
Pedro Vale,
VP de Ingeniería para el área de IA & Data de Cegid
La evolución de la humanidad es en gran medida una historia de miedo y coraje. Ante lo desconocido, hemos optado por seguir adelante, y esta determinación nos ha llevado a logros extraordinarios. Un ejemplo sorprendente es el desarrollo de la Inteligencia Artificial. Desde los primeros modelos informáticos de redes neuronales en la década de 1940, basados en algoritmos matemáticos, hasta el primer Reglamento Europeo sobre IA, aprobado en abril de 2024 y que entró en vigor a principios de agosto, nuestro viaje ha estado impulsado por una búsqueda continua de la innovación y la ética.
La directiva, que se implantará progresivamente en todos los estados miembros de la unión en los próximos 2 años, se presenta como un texto legislativo que pretende «promover una IA digna de confianza dentro y fuera de Europa, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos».
La directiva proporciona más marco legal, define mejor los niveles de riesgo y las mejores prácticas, y crea el Servicio Europeo de IA, que supervisa la aplicación de la normativa. Para quienes operan en este segmento del mercado, supone un importante respaldo jurídico. Y, afortunadamente, una referencia para alinear la visión de las empresas tecnológicas sobre el futuro de la IA.
En el caso de Cegid y nuestro Centro de IA ubicado en Portugal - el cual dirijo y que está conformado por más de 100 profesionales-, la tecnología que desarrollamos está orientada principalmente al campo de los asistentes virtuales. Estos asistentes tienen la capacidad de realizar diferentes acciones en nuestros software para ayudar a los usuarios en sus tareas, responder a preguntas sobre productos e incluso aclarar aspectos de los datos de los usuarios. Por ejemplo, en el ámbito de los RR.HH., utilizamos la IA para detectar anomalías en el diseño de nóminas, el tratamiento de los salarios de las empresas o la gestión de las obligaciones fiscales.
Enmarcando estas tipologías en el ámbito de aplicación de la directiva, el primer caso corresponde a sistemas con riesgo limitado, ya que se trata principalmente de la calidad de los resultados. Los otros, a pesar de lo que pueda parecer, estarían en el mismo nivel de riesgo. Porque, aunque intervienen en el ámbito de los recursos humanos, no influye en las relaciones laborales, sino que simplemente analiza la calidad de los cálculos efectuados en el componente salarial o fiscal.
En el momento actual, la dimensión ética de quienes forman y perfeccionan a los agentes de IA debe ser fundamental. Es sobre todo a través de ella - y defendiéndola a diario - como se crean las condiciones para que los usuarios finales puedan confiar en la calidad de los resultados generados, ya sean análisis, resúmenes o informes de detección de errores.
Esto, por supuesto, implica responsabilidad. También implica profundizar en la noción de innovación con un propósito, anteponiendo las necesidades empresariales específicas al mero entusiasmo tecnológico, para garantizar que las soluciones ofrezcan un valor añadido a los usuarios y no al revés. Por supuesto, implica responsabilidad en el cumplimiento de la normativa europea, especialmente en lo que se refiere a la preservación y gestión de la privacidad de los datos de los usuarios, el tipo de análisis realizados y el control de calidad de los resultados y contenidos presentados, por parte de humanos.
Construir una IA ética y centrada en las personas debe ser algo más que un objetivo. Debe ser una máxima diaria que nos motive a trabajar mejor, para que cada vez más personas lo hagan de forma más segura y productiva en su día a día.