Cinco propuestas

Microsoft busca regular la Inteligencia Artificial

De cara a un futuro incierto, la indecisión de los gobiernos y el temor de los expertos, el CEO de Microsoft sugirió qué se puede hacer para explotar el potencial de la IA sin que se salga de control.

Desde que salió ChatGPT en noviembre pasado hasta ahora, el mundo de la Inteligencia Artificial (IA) creció a pasos agigantados. Y no solo eso, sino que el interés por desarrollarla se disparó. Tal fue el crecimiento que Elon Musk y un millar de expertos pidieron pausarla por seis meses, y hasta el CEO de OpenAI admitió estar preocupado.

Ganó 6500 millones de dólares en un día gracias a la IA

En la otra vereda está Microsoft, empresa que con la IA facturó millones de dólares y espera facturar miles de millones más en el futuro próximo. Pausarla no es una opción, pero regularla sí. ¿Cómo? La pregunta, bastante difícil debido a que se desconocen las consecuencias que podría tener su aplicación en el desarrollo de la comunidad, encontró una respuesta en Brad Smith, presidente de la empresa que fundó Bill Gates.

Así, intentó facilitar, o influir, en el debate que hace semanas mantienen los legisladores de Washington sobre qué leyes aprobar para controlar la IA, incluso cuando empresas grandes y pequeñas se apuran por introducir en el mercado una IA cada vez más versátil.

Las cinco propuestas de Microsoft

En una entrada de un blog, Smith detalló cinco cuestiones que los legisladores deberían tratar sí o sí a la hora de regular la Inteligencia Artificial:

Que el Gobierno regule la seguridadSegún Smith, es posible utilizar un marco de gestión de riesgos para las inteligencias artificiales en todos los gobiernos para mejorar la capacidad de respuestas ante posibles peligros que puedan surgir.

Microsoft asegura haber utilizado equipos de prevención de riesgos de ciberseguridad para identificar el potencial dañino que tiene una inteligencia artificial, por lo que está dispuesto a trabajar con otros líderes en la industria del desarrollo de inteligencia artificial para elevar los estándares de protección para el futuro.

"Frenos de seguridad" para la IAPara que la IA se implemente a mayor escala, será cada vez más importante contar con un "freno de seguridad" en su diseño que permita la intervención y el control humano en caso de ser necesario.

En este sentido, Smith marcó que la red de energía eléctrica, el sistema de agua, sistemas de emergencia o el tráfico de una ciudad deben contar con una respuesta de seguridad tanto en escenarios cotidianos como catastróficos.

Para esto será necesario clasificar los sistemas de IA de acuerdo a su riesgo, capacidad y funcionamiento autónomo, prestando especial atención a aquellos que "cruzan la brecha digital-física".

Un marco legal y regulatorioSmith aseguró que la infraestructura tecnológica de la IA podrá ser regulada tanto por las protecciones legales existentes como por nuevas leyes y reglamentos, según las distintas capas de "aplicación", "modelos" e "infraestructura".

Una de las propuestas que más resaltan en esta línea es la de establecer etiquetas cuando genere archivos de fotos o videos, de modo que cualquier persona sepa que el contenido que está viendo fue creado por una IA.

Así, por ejemplo, se le pondría un importante freno a la generación de contenido "deep fake", que ya fue utilizado para difundir información falsa y tuvo su pico de popularidad con unas imágenes del Papa Francisco vestido con campera y anteojos de sol.

Además, para garantizar la seguridad de los sistemas de inteligencia artificial y protegerlos de las actividades ilícitas, como el lavado de dinero o el financiamiento del terrorismo, Microsoft describió lo que llamó "KY3C", que consta de la implementación de las políticas Know Your Customer o Conozca su Cliente (KYC) de las finanzas tradicionales a los servicios de IA.

KY3C involucra:

Know Your Cloud o Conozca la Nube, para los desarrolladores de modelos IA potentes que utilizan el almacenamiento la nube para implementar y desarrollar sus modelos.Know Your Customer o Conozca su Cliente, aplicado a cualquiera de las partes involucradas con el modelo IA.Know Your Content o Conoce Tu Cotenido, el cual consta de un sistema de etiquetado o marca para el contenido realizado o generado por inteligencia artificial, con la intención de proteger al público de falsificaciones, desinformación y engaños.Transparencia y acceso sin fines de lucro"Es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro", afirmó Smith, quien además aseguró que su compañía adoptó una guía ética desde el año 2018 y que facilitará el acceso transparente a la información cuando interactúen con un modelo de inteligencia artificial.

Es que una de las claves para elevar el debate sobre la seguridad y la transparencia del desarrollo de la inteligencia artificial, pasa por garantizar que la tecnología sea accesible para todos, explicó Microsoft, especialmente pensando en la comunidad académica y sin fines de lucro.

La propuesta de Microsoft también incluye el establecimiento de un registro público de sistemas de inteligencia artificial de alto riesgo que pueda ser visitado por todos los usuarios libremente con la intención de hacerles saber qué medidas se están tomando para proteger su seguridad.

La IA para abordar desafíos sociales

"Creemos que es una gran oportunidad para atraer al público y al sector privado usando herramientas de inteligencia artificial", aseguró Smith, quien además aseguró que es necesario centrarse en problemas específicos que la inteligencia artificial puede ayudar a resolver, sobre todo si se trata de amenazas.

Smith aseguró que es importante que la inteligencia artificial pueda ser utilizada para proteger a la democracia, los derechos fundamentales y ayudar a avanzar hacia la sostenibilidad en el planeta.

Esta nota habla de: