Blog #ConVerso

Una arquitectura basada en la responsabilidad

La Inteligencia Artificial representa tanto un avance tecnológico como un desafío ético y social, acotado a partir de políticas, normas y regulaciones que guían su uso para beneficio social auténtico. Las organizaciones deben adoptar la IA de manera responsable, ética y sostenible, integrándola en su estructura y procesos, con un enfoque en la transparencia y el desarrollo ético. 

La Inteligencia Artificial es vista actualmente como un gran avance tecnológico, como una herramienta de desarrollo sin precedentes, como una oportunidad para acelerar la innovación; pero también es vista como una amenaza.

Por un lado, se presume que la IA podría generar mucho desempleo, que abrirá las brechas tecnológicas y con ello económicas y sociales; además de que, en las manos equivocadas, provocaría una serie de actos delictivos como fraudes, ciberataques o, en lo social, desinformación.

Ante todo lo anterior, al parecer lo que urge, ante la vertiginosa y aplastante marcha de la tecnología, es infraestructura, es regulación, normatividad, control y, con todo ello, la construcción de una Gobernanza de la IA.

Este concepto alude a la generación de políticas, normas, leyes y otros mecanismos que se utilizan para regular y guiar el desarrollo y uso de la inteligencia artificial.

La gobernanza de la IA exige ocuparse de cuestiones como la ética, la protección de la privacidad, la seguridad, la equidad y la inclusión, y busca garantizar que el desarrollo y la implementación de la IA se realicen de manera que beneficie a la sociedad y minimice los riesgos potenciales. Incluye la creación de marcos regulatorios, estándares técnicos y directrices éticas.

El mundo ante la IA

No está en duda que, si bien no es nuevo, el desarrollo de la inteligencia artificial con sus implicaciones se hizo más presente con el lanzamiento de Chat-GPT y la ubicación de los reflectores sobre las aplicaciones generativas. Según se explica en un artículo de McKinsey titulado “La nueva frontera de la productividad”,  la IA generativa puede “realizar una serie de tareas rutinarias, como la reorganización y clasificación de datos. Pero es su capacidad para escribir textos, componer música y crear arte digital lo que ha acaparado titulares y ha persuadido a los consumidores y a los hogares a experimentar por su cuenta.”

Esto explicaría su popularidad, aunque no necesariamente ayuda a que las soluciones desarrolladas siempre terminen en buen puerto, tanto en términos técnicos como de la intencionalidad de sus objetivos. De ahí el interés de la propia UNESCO en generar foros al respecto, como 2º Foro Global sobre la Ética de la IA, realizado a principios de febrero de 2024, en donde se abordan temas relacionados con la humanidad, la inclusión, la paz social y el medio ambiente.

Esto exige que los desarrolladores de IA se comprometan a que sus soluciones sirvan como herramientas, pero si bien pueden ser revolucionarias, que no se salgan de control. Esto puede ser explicado por propia naturaleza de la IA, pues las nuevas tecnologías pueden “procesar conjuntos extremadamente grandes y variados de datos no estructurados y realizar más de una tarea”, según se define en el documento de McKinsey.

Para entender lo anterior es bueno remitirse a las bases, a la habilidad de estos programas para generar Aprendizaje Automático (AA). Esto se deriva de procesos MLOps (Machine Learning Operations) y generan un ciclo de vida de aprendizaje.

Este ciclo involucra las operaciones, el desarrollo, el aprendizaje de la máquina y los datos. Son varios los procesos identificados en ese ciclo en forma de nudo (u ocho) los que forman ciclos donde la autovalidación da origen al desarrollo de nuevos ciclos.

La gran discusión actual orbita en el aseguramiento de que este proceso de autoaprendizaje infinito y acelerado no sea opaco, y que sea accesible para que las personas puedan intervenir en caso de detectar patrones con tendencia “maligna”, como podría ser la suplantación de identidad con miras a violaciones de privacidad, o la publicación de noticias falsas a partir de hechos reales.

La construcción de una infraestructura transparente y garante de eludir actividades maliciosas es una de las preocupaciones de organismos como la UNESCO, o de organizaciones civiles y gubernamentales en todo el mundo, en la busca de anticiparse en una catástrofe donde sea la IA la que genere una espiral descendente.

Este sueño oscuro se puede iluminar si, desde el diseño, hasta la trazabilidad operativa de programas inteligentes, las reglas de desarrollo a partir de una normatividad clara y eficaz se establecen bien desde un inicio, evitando todo signo de anomalías o incentivos perversos. Ahí es donde se construye la Gobernanza de la IA.

Empresa Inteligente

Si bien lo anterior explica factores exógenos que salen de las manos de una organización dedicada, por ejemplo, a la manufactura o a ofrecer servicios financieros; se puede aprender de ese macrocosmos para diseñar una arquitectura de IA adecuada para la organización. En otras palabras, establecer una ruta para implementar una estrategia de IA acorde a los objetivos de la organización.

Sí, tal como en el contexto macro, lo primero es tener claros los principios éticos y las directrices que se busca seguir. Estos principios podrían incluir la transparencia, la equidad, la no discriminación, la responsabilidad y el respeto por la privacidad. Si bien parecería imposible diseñar una herramienta que no tenga sesgos de algún tipo, es vital partir desde ese fundamento. Dilemas como el total respeto a la privacidad versus la seguridad, o la no discriminación versus la selección de personal mejor capacitado para cada posición; podrían en la práctica generar ceguera, por lo que la asesoría externa, serán críticos en este proceso.

Otro pilar clave en esta arquitectura IA está sustentado en la generación de políticas sólidas para la gestión de datos en torno a la dicotomía de privacidad y seguridad. Esto incluye la obtención, almacenamiento, procesamiento y compartición de datos de manera ética y legal.

También, la capacitación y el desarrollo de conciencia son base para desplegar una estrategia de implementación de IA. Esta capacitación tiene que abordar aspectos éticos, legales y técnicos de la IA, lo que implica comprender los sesgos en los datos y los algoritmos, así como su posible afectación en las decisiones y resultados de la IA.

Para asegurar que los sistemas de IA se desarrollen con prácticas responsables, es importante llevar a cabo pruebas exhaustivas para identificar y mitigar sesgos, errores y vulnerabilidades. Además de esto, es siempre recomendable establecer procesos para la revisión y auditoría regular de los sistemas de IA. Esto permitirá verificar que operen de acuerdo con los principios éticos y las políticas establecidas.

La IA es un acto de responsabilidad

Uno de los principales retos es el seguimiento, por lo que muchos expertos sugieren formar un grupo dedicado a la supervisión ética de las iniciativas de IA. Este comité debería incluir una diversidad de perspectivas, incluyendo expertos en ética, derecho, tecnología y áreas de negocio relevantes. Lo que sigue es un seguimiento constante que asegure detectar de inmediato posibles desviaciones acorde a los parámetros establecidos.

Esto solo se logrará si se diseñan sistemas transparentes en sus operaciones y decisiones. Esto es crucial para generar confianza y permitir que los usuarios comprendan y cuestionen las decisiones tomadas por la IA.

Todo lo anterior no es fácil. Requiere preparar a la organización para los cambios que la IA puede traer en los procesos de trabajo. Esto incluye adaptar las estructuras organizativas y los flujos de trabajo, así como prepararse para el impacto en el empleo y las habilidades requeridas. Por esta razón es necesario incluir a todas las partes interesadas en el proceso de Gobernanza de la IA. Esto significa involucrar a empleados, clientes, socios y, en algunos casos, al público en la discusión sobre cómo se usa la IA.

La IA es un elemento ahora obligatorio. Será un claro diferenciador en temas de competitiviadad. Pero no significa volcarse hacia la IA, pues se requiere hacerlo con cautela y, sobre todo, con responsabilidad; esto significa llevarlo a cabo en un marco ético, cuidando siempre la economía y la sustentabilidad de la empresa.

Es importante hacer énfasis en una adopción responsable, ética, económica y ambientalmente sostenible; ambiciosa en su impacto y análisis; e integrada en todos los aspectos de la organización. Las empresas necesitarán de un gobierno claro de la IA para maximizar su valor y asegurar su adopción correcta, especialmente dado su uso intensivo en diversas industrias. Es innegable que estamos ante la exigencia de un cambio cultural en las organizaciones, integrando la tecnología en procesos clave, promoviendo una mentalidad de IA y asegurando prácticas éticas responsables.

Los comentarios están cerrados.