Centro de Gobierno Corporativo

¿Pueden los Consejos de Administración gobernar la IA?

Forética |
¿Pueden los Consejos de Administración gobernar la IA?

El avance de las tecnologías de información (TI), y en particular la inteligencia artificial (IA), ha permeado cada rincón de nuestra sociedad, transformando el modo en que las empresas se gobiernan y operan sus negocios, y, en consecuencia, sus consejos de administración afrontan los diferentes contenidos de sus agendas incluidos los asuntos ESG.

La reciente Declaración de Bletchley firmada en Reino Unido a inicios de noviembre por más de 28 países para impulsar el desarrollo seguro y responsable de la IA, centrada en las personas y en beneficio de la comunidad global (AI Safety Summit, 2023) es probablemente un buen indicio de la sensibilidad que hoy existe de apoyar los esfuerzos de un desarrollo ético de la IA. Sin embargo, la reciente crisis de OpenAI, creadora del ChatGPT, a mediados de noviembre y la fractura generada en su gobierno corporativo, con un fuerte debate de fondo sobre el enfoque y esfuerzos futuros para el desarrollo de la IA, han hecho saltar las alarmas, sobre si seremos capaces de acompasar el desarrollo de esta tecnología con un enfoque ético y responsable. Como muestra del fuerte debate dentro de la compañía y social, en solo un fin de semana, la presión de accionistas e inversores y el anuncio de renuncia voluntaria de todos los empleados lograron la dimisión y reestructuración de todo el Consejo y el retorno, después de su cese, tanto del Presidente y el CEO de la compañía (Roose, 2023). Estos acontecimientos ponen sobre la mesa el debate sobre, ¿Cómo los consejos de administración pueden adoptar y gobernar estratégicamente las TI tan complejas y especializadas como la IA, y cómo incorporarlas en su agenda y a sus procesos de decisión y supervisión asegurando una visión ética de su uso?

Siga leyendo este artículo en línea:

Ver en línea