Intel se une a AI Safety Working Group de MLCommons
Intel se une a un grupo de expertos líderes en la industria y del mundo académico de la IA para establecer puntos de referencia estándar de seguridad que guiarán su desarrollo responsable.

Business Empresarial.- Intel anuncia que se unirá al nuevo grupo de trabajo MLCommons AI
Safety (AIS) junto con expertos en inteligencia artificial de la industria y el mundo académico. Como
miembro fundador, Intel contribuirá con su experiencia y conocimiento para ayudar a crear una
plataforma flexible para los análisis de referencia que miden la seguridad y los factores de riesgo de las
herramientas y modelos de IA. A medida que las pruebas maduren, los puntos de referencia estándar de
seguridad de IA desarrollados por el grupo de trabajo se convertirán en un elemento vital del enfoque de
nuestra sociedad para el despliegue y la seguridad de esta tecnología.
"Intel se ha comprometido a hacer que la IA avance de manera responsable y a hacerla accesible a
todos. Abordamos las preocupaciones de seguridad de manera integral y desarrollamos innovaciones en
hardware y software para permitir que el ecosistema construya IA confiable. Debido a la presencia
generalizada y constante de modelos de lenguaje grandes, es fundamental colaborar en todo el entorno
para abordar las preocupaciones de seguridad en el desarrollo y la puesta en marcha de la inteligencia
artificial. Con este fin, nos complace unirnos a la industria en la definición de los nuevos procesos,
métodos y puntos de referencia para mejorar la IA en todas partes", mencionó Deepak Patil,
vicepresidente corporativo y gerente general de Soluciones de IA para centros de datos.
¿Por qué es importante? La capacitación responsable y el despliegue de grandes modelos lingüísticos
(LLM) y herramientas son de suma importancia para ayudar a mitigar los riesgos sociales que plantean
estas poderosas tecnologías. Intel ha reconocido desde hace tiempo la importancia de las implicaciones
éticas y de derechos humanos asociadas con el desarrollo de la tecnología, especialmente la IA.
Este grupo de trabajo proporcionará un sistema de clasificación de seguridad para evaluar el riesgo que
presentan las nuevas tecnologías de IA de rápida evolución. La participación de Intel en el grupo de
trabajo AIS es el compromiso más reciente en los esfuerzos de la compañía por promover de manera
responsable las tecnologías de IA.
Acerca de AI Safety Working Group: El grupo de trabajo de seguridad de IA está organizado por
MLCommons con la participación de un grupo multidisciplinario de expertos en IA. El grupo desarrollará
una plataforma y un conjunto de pruebas de colaboradores para respaldar los puntos de referencia de
seguridad de IA para diversos casos de uso.
Acerca de la participación de Intel: Intel planea compartir los hallazgos de seguridad de la IA y las
mejores prácticas y procesos para el desarrollo responsable, como equipos rojos y pruebas de
seguridad. La lista completa de los miembros participantes se puede encontrar en el sitio web de
MLCommons.
Lo que sigue: El enfoque inicial del grupo de trabajo será desarrollar puntos de referencia de seguridad
para LLM, basándose en el trabajo preliminar de los investigadores del Centro de Investigación sobre
Modelos de Fundación de la Universidad de Stanford y su Evaluación Holística de Modelos de Lenguaje
(HELM). Intel compartirá sus rigurosos procesos de revisión multidisciplinarios que utilizan internamente
para desarrollar modelos y herramientas de IA con el grupo de trabajo de AIS para ayudar a establecer
un conjunto común de mejores prácticas y puntos de referencia para evaluar el desarrollo seguro y la
implementación de una herramienta generativa de IA que aproveche los LLM.
Más contexto: MLCommons anuncia la formación de AI Safety Working Group



