La I.A. de las empresas es más “irresponsable” de lo que las propias organizaciones creen

(Digitalis) | La implantación de una Inteligencia Artificial Responsable, es decir, aquella I.A. desarrollada desde su núcleo de acuerdo a valores éticos, empieza a ser un factor importante para empresas de todos los ámbitos: las compañías son conscientes de que van a tener que afrontar las consecuencias de las decisiones que tomen sus sistemas de I.A. en cada vez mas aspectos de nuestras vidas. Sin embargo, un estudio realizado por BCG GAMMA demuestra que las empresas a nivel global sobrevaloran la madurez de sus iniciativas de I.A. responsable.

En un artículo publicado por Elpais.com en agosto de 2019, el catedrático del Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN) Vicente Botti, definía la Inteligencia Artificial Responsable como “una IA de confianza basada en valores éticos y sociales con un enfoque centrado en el ser humano”. El interesante artículo ponía de relieve que la I.A. es una tecnología completamente integrada en nuestro día a día, que toma decisiones con aspectos éticos, sociales y legales (y lo hará mucho más en el futuro), y que la única manera de que actúe de acuerdo a nuestros valores es integrarlos en el mismo diseño de los sistemas de I.A.

No hace falta irse a los casos más polémicos en este campo, como la preocupación porque los algoritmos de las redes sociales, entrenados con Inteligencia Artificial, desarrollen sesgos racistas, para prever que, ante la generalización de esta tecnología, cada vez más máquinas van a tomar decisiones en dilemas que nosotros consideramos “éticos”

Ahora, una investigación a escala global acerca de la implementación de la inteligencia artificial responsable realizada por BCG GAMMA (la unidad de analítica avanzada de datos e inteligencia artificial de Boston Consulting Group), revela que el 55% de las empresas analizadas sobreestiman la madurez de sus iniciativas de Inteligencia Artificial Responsable, y menos de la mitad de las organizaciones que declararon haber logrado el éxito en sus programas de IA responsable los han implementado de manera completa.

Principales conclusiones del estudio

El estudio, titulado ‘Are You Overestimating Your Responsible AI Maturity?’, analiza los datos proporcionados por directivos de más de 1.000 empresas para evaluar la madurez de la implantación de Inteligencia Artificial Responsable. El resultado ha sido catalogar a las empresas en etapas de madurez de su IAR: rezagada (14%), en desarrollo (34%), avanzada (31%) y líder (21%).

Para sacar conclusiones, el estudio mide en seis aspectos distintos de IA Responsable: Gestión de datos y privacidad; seguridad, protección y solidez; transparencia y explicaciones sobre la tecnología utilizada; responsabilidad, justicia y equidad; mitigación del impacto social y ambiental; y, por último, «Human plus Machine», es decir, la I.A. aplicada como apoyo a las actividades que realiza un trabajador humano.

Y las principales conclusiones son las siguientes:

  • Los programas de Inteligencia Artificial Responsable actuales están menos desarrollados en tres de los aspectos: justicia y equidad, mitigación del impacto social y medioambiental y «Human plus Machine». Se trata de los aspectos más complejos y difíciles de abordar.
  • La mayoría de las organizaciones que se encuentran en la etapa de madurez de la AIR tienen tanto un individuo como un comité que guía su estrategia de AIR.
  • El país de procedencia de una organización predice mejor su madurez de AIR que el sector en el que opera.
  • Algunas regiones son notablemente más maduras en el ámbito de la Inteligencia Artificial Responsable, por término medio, que otras; Europa y América del Norte tienen la mayor madurez de AIR.
  • Las organizaciones de diferentes sectores se comprometen con la AIR por diferentes razones; el sector público, por ejemplo, se centra menos en los beneficios empresariales, en comparación con las industrias de bienes industriales y de la automoción.

Queda camino por andar en este campo

Steven Mills, director de ética de BCG GAMMA y coautor del estudio, señaló que «los resultados fueron sorprendentes, ya que muchas empresas son demasiado optimistas sobre la madurez de su implementación de la IA responsable. Aunque muchas organizaciones están haciendo progresos, está claro que la profundidad y la amplitud de la mayoría de los esfuerzos están por debajo de lo que se necesita para garantizar realmente una IA responsable.»

Como dato positivo, el estudio revela también que las empresas no solo implementa I.A. responsable como método para evitar tener que afrontar los “malas decisiones” de sus I.A. Las organizaciones más relevantes en este campo ven la IAR como una herramienta de creación de valor.

Para Sylvain Duranton, líder global de BCG GAMMA y coautor del estudio, «cada vez más, las organizaciones más inteligentes con las que estoy hablando se están moviendo más allá del riesgo para centrarse en los importantes beneficios empresariales de la IAR, incluyendo la diferenciación de la marca, el atractivo como empleador y la retención de los empleados, y una cultura de innovación responsable, que está respaldada por el propósito y los valores corporativos.»

“Debemos abordar la inteligencia artificial no solo desde la perspectiva tecnológica sino con un enfoque holístico que contemple el impacto de sus aplicaciones y ponga a los individuos y sus derechos en el centro con el objetivo de construir entre todos una IA transparente y explicable.” afirma Llorenç Mitjavila, socio responsable de BCG GAMMA en España y Portugal.

Deja un comentario

eighteen + 7 =