Las empresas deberían publicar informes sobre las capacidades, limitaciones, uso y mal uso de los sistemas de IA y también invertir en fuertes controles de seguridad.
El Grupo de los Siete países industrializados acordará el lunes un código de conducta para las empresas que desarrollen sistemas avanzados de inteligencia artificial, según un documento del G7, mientras los gobiernos buscan reducir los riesgos y el posible uso indebido de esta tecnología.
El código de conducta voluntario marcará un hito en la forma en que los principales países regulan la IA, en medio de preocupaciones sobre los riesgos de privacidad y seguridad.
El código de 11 puntos “tiene como objetivo promover una IA segura y confiable en todo el mundo y proporcionará orientación voluntaria para las acciones de las organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos fundamentales y los sistemas de IA generativos", dice el documento del G7.
El código insta a las empresas a tomar las medidas adecuadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, además de abordar los incidentes y patrones de abuso una vez que se comercializan los productos de IA.
Las empresas deben publicar informes sobre las capacidades, las limitaciones y el uso y abuso de los sistemas de IA, y también invertir en fuertes controles de seguridad.
La UE ha estado a la vanguardia en la regulación de tecnologías emergentes con su poderosa ley de IA, mientras que Japón, Estados Unidos y los países del Sudeste Asiático han adoptado un enfoque más permisivo que el bloque para impulsar el crecimiento económico.
Fuente: Reuters
Deja un comentario
Todos los comentarios pasan por un proceso de validación antes de ser publicados.