Por: Scott Zoldi | Director de Analítica (CAO) de FICO
*Nota del editor: En artículo anterior, el autor hizo referencia a la IA explicable y la IA ética. En esta última entrega sobre el tema, aborda los dos principios restantes de la IA responsable.
El uso de la IA ha aumentado drásticamente para informar y definir estrategias y servicios en una multitud de industrias, desde salud hasta comercio minorista, e incluso ha desempeñado un papel significativo en la lucha contra el COVID-19. Sin embargo, la adopción masiva y los volúmenes crecientes de la IA generada digitalmente están generando nuevos desafíos para las empresas y los gobiernos, además de convertir a la IA responsable en una consideración fundamental para garantizar no solo precisión, sino también imparcialidad.
Principio 3: IA robusta
La IA responsable asegura que los sistemas de IA y los modelos de machine learning sean explicables, éticos, robustos y auditables, gracias a los cuatro principios que la sostienen. En esta entrega, exponemos los últimos dos principios, concluyendo con una guía sobre los pasos para una IA responsable exitosa.
La IA robusta es una metodología de desarrollo bien definida; el uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida de rendimiento; una selección cuidadosa de la arquitectura de los modelos, y procesos para las pruebas de estabilidad, simulación y gobernabilidad de los modelos. Es importante que las organizaciones de ciencia de los datos se adhieran a estos factores y los apliquen como una norma de la IA.
Principio 4: IA auditable
La IA auditable significa «desarrollarla bien desde el principio» y conforme a las normas corporativas definidas para el desarrollo de modelos de IA, cuyo cumplimiento debe demostrarse. Los modelos deben crearse con base en un estándar de desarrollo de modelos aplicable a toda la empresa, con repositorios de código compartidos, arquitecturas de modelo aprobadas, variables sancionadas y normas establecidas para pruebas de sesgo y estabilidad de modelos. Esto reduce considerablemente los errores en el desarrollo de modelos que, de otro modo, se expondrían en la producción, reduciendo el valor comercial anticipado y afectando a los clientes negativamente.
Cuando las condiciones cambian, la IA auditable permite a los científicos de datos determinar cómo responderán las operaciones, así como verificar si la IA sigue siendo imparcial y confiable o si deben ajustarse las estrategias que hacen uso del modelo. La IA auditable se ejecuta y codifica a través de una cadena de bloques de gobernanza del desarrollo de modelos de IA formada durante el proceso de desarrollo del modelo, la cual conserva todos los detalles del modelo y está disponible de inmediato cada vez que cambian los entornos de los datos. La IA auditable no es una serie de «buenas intenciones», sino un registro inalterable del cumplimiento del estándar para el desarrollo de modelos de IA, que permite a las organizaciones desarrollarlos correctamente con base en ese estándar, brindar pruebas inmutables de su cumplimiento y producir activos que cumplan con los requisitos regulativos y de gobernanza.
A medida que el mundo empresarial pasa del uso teórico de la IA a la toma de decisiones a escala de producción, la IA auditable se vuelve esencial, enfatizando la implementación (y uso) de un estándar claramente definido para el desarrollo de modelos de IA que asegura que ningún modelo se lance a producción sin cumplir todos los aspectos y requisitos de dicho estándar.
La IA auditable permite que la IA responsable sea una realidad, ya que establece un riguroso proceso de auditoría que documenta el cumplimiento del estándar de gobernanza de desarrollo de una compañía durante la producción del modelo. Esto evita investigaciones aleatorias y retrospectivas después de concluido el desarrollo del modelo. Además, ofrece beneficios adicionales: si las empresas identifican con precisión y lo antes posible cuándo un modelo empieza a fallar, y lo detienen al momento, pueden ahorrarse innumerables problemas, así como evitar el daño reputacional y las demandas legales que surgen cuando la IA falla fuera del laboratorio de ciencia de datos.
***Las opiniones aquí expresadas son de exclusiva responsabilidad del autor, y pueden no coincidir con las del cuerpo editorial de esta revista o las de este gremio empresarial.