Cómo Intel está perfeccionando su enfoque de la IA responsable

La inteligencia artificial ha creado una enorme oportunidad para la innovación, y las prácticas responsables para apoyarla son más importantes que nunca.

Noticias

  • 2 de abril de 2024

  • Contacta al equipo PR de Intel

  • Siga las noticias de Intel en las redes sociales:

    Logotipo de Twitter
    Icono de YouTube

author-image

Por

Siempre he admirado la capacidad de Intel para anticipar cómo la tecnología del futuro podría encender el cambio social. Es por eso que en 2017, incluso antes de que la IA fuera tan conocida como lo es ahora, lanzamos nuestro programa de IA responsable (RAI). Desde entonces, hemos visto cómo la IA y, más específicamente, el aprendizaje profundo o deep learning han logrado avances significativos en muchos campos, incluidos la atención médica, los servicios financieros y la fabricación.

También hemos visto cómo el rápido avance de los grandes modelos de lenguaje (LLM) y el mayor acceso a las aplicaciones generativas de IA han cambiado el mundo. Hoy en día, las personas sin habilidades formales de IA pueden acceder a herramientas potentes. Esto ha permitido a personas de todo el mundo descubrir y utilizar sus capacidades a escala, mejorando su forma de trabajar, aprender y jugar. Si bien esto ha creado una tremenda oportunidad para la innovación, también ha habido una mayor preocupación por el mal uso, la seguridad, el sesgo y la desinformación.

Por todas estas razones, las prácticas responsables de IA son más importantes que nunca.

En Intel creemos que el desarrollo responsable debe ser la base de la innovación a lo largo del ciclo de vida para garantizar que esta tecnología se construya, implemente y utilice de una manera segura, sostenible y ética. A medida que continúa evolucionando rápidamente, también lo hacen nuestros esfuerzos de RAI.

Gobierno interno y externo

Una parte clave de nuestra estrategia RAI es el uso de procesos de revisión rigurosos y multidisciplinarios a lo largo del ciclo de vida de la IA. Internamente, los consejos asesores de Intel revisan diversas actividades de desarrollo de IA a través del prisma de los principios fundamentales:

 

  • Respetar los derechos humanos
  • Habilitar la supervisión humana
  • Habilitar la transparencia y la explicabilidad
  • Mejorar la seguridad, protección y confiabilidad
  • Diseño para la privacidad
  • Promover la equidad e inclusión
  • Proteger el medio ambiente

 

Mucho ha cambiado con la rápida expansión de la IA generativa, y nosotros hemos cambiado con ella. Desde el desarrollo de orientaciones sólidas sobre implementaciones internas más seguras de LLMs hasta la investigación y desarrollo de una taxonomía de las formas específicas en que la IA generativa puede desviar a las personas en situaciones del mundo real, estamos trabajando arduamente para anticipar los riesgos.

Con la expansión de GenAI también han surgido crecientes preocupaciones sobre su impacto ambiental, por lo que hemos agregado "proteger el medio ambiente" como un nuevo principio fundamental, en consonancia con los compromisos más amplios de administración ambiental de Intel. Si bien abordar esta área compleja no es algo sencillo, la inteligencia artificial responsable nunca ha sido sinónimo de simplicidad. En 2017, nos comprometimos a abordar el sesgo incluso cuando aún se estaban desarrollando métodos para enfrentarlo.

Investigación y colaboración

A pesar del gran progreso que se ha logrado en la IA responsable, todavía es un campo incipiente. Es importante seguir avanzando en el estado del arte, especialmente dada la creciente complejidad y capacidad de los modelos más recientes. En Intel Labs, nos centramos en áreas de investigación clave, como la privacidad, la seguridad, la colaboración entre humanos e IA, la desinformación, la sostenibilidad, la explicabilidad y la transparencia.

También colaboramos con instituciones académicas de todo el mundo para amplificar el impacto de nuestro trabajo. Recientemente establecimos el Centro de excelencia Intel sobre sistemas responsables de IA humana o Intel Center of Excellence on Responsible Human-AI Systems (RESUMAIS). El esfuerzo plurianual reúne a cuatro instituciones de investigación líderes: en España, el Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS) de Alicante; y en Alemania, DFKI, el Centro Alemán de Investigación de Inteligencia Artificial, el Centro de Investigación FZI de Tecnología de la Información y Leibniz Universität Hannover. RESUMAIS tiene como objetivo fomentar el desarrollo ético y centrado en el usuario, enfocándose en cuestiones como la equidad, la colaboración entre humanos e IA, la responsabilidad y la transparencia.

También continuamos creando y participando en varias alianzas en todo el ecosistema para encontrar soluciones, estándares y benchmarks para abordar los nuevos y complejos problemas relacionados con RAI. Nuestra participación en el Grupo de Trabajo de Seguridad de IA de MLCommons, la AI Alliance, los grupos de trabajo de Partnership on AI, Business Roundtable on Human Rights and AI y otras iniciativas de múltiples partes interesadas han sido fundamentales para hacer avanzar este trabajo, no solo como empresa, sino como industria.

IA inclusiva/Llevar la IA a todas partes

Intel cree que llevar "AI a todas partes" de manera responsable es clave para el avance colectivo de las empresas y la sociedad. Esta creencia es la base de la programación de preparación digital de Intel, que trabaja para proporcionar acceso a habilidades de IA a todos, independientemente de su ubicación, etnia, género u origen.

Nos sentimos orgullosos de ampliar nuestros programas AI for Youth and Workforce para incluir planes de estudio en torno a la ética aplicada y la sostenibilidad ambiental. Además, en la tercera edición de Intel AI Global Impact Festival, los proyectos de los ganadores pasaron por una auditoría ética inspirada en el proceso multidisciplinario de la compañía. La plataforma del festival también presentó una lección en la que más de 4.500 estudiantes obtuvieron certificaciones en habilidades responsables de IA. Y, por primera vez, se otorgaron premios a los equipos que ofrecieron soluciones innovadoras de accesibilidad utilizando IA.

Una mirada al futuro

Estamos ampliando nuestros esfuerzos para comprender y mitigar los riesgos únicos creados por la expansión masiva de la IA generativa y para desarrollar enfoques innovadores para abordar la seguridad, la transparencia y la confianza. También estamos trabajando con nuestra organización de Supply Chain Responsibility para acelerar el progreso en el abordaje de los derechos humanos de los trabajadores de enriquecimiento de datos globales de IA (es decir, las personas que hacen que los conjuntos de datos de IA se puedan utilizar a través del etiquetado, la limpieza, la anotación o la validación). Abordar este problema crítico requerirá esfuerzos de toda la industria, y estamos aprovechando nuestras dos décadas de experiencia abordando problemas como el abastecimiento responsable y el trabajo forzoso para ayudar a hacer avanzar el ecosistema global.

En toda la IA responsable, estamos comprometidos a aprender sobre nuevos enfoques, colaborar con socios de la industria y continuar nuestro trabajo. Solo entonces podremos desbloquear realmente el potencial y los beneficios de la IA.

Lama Nachman es miembro de Intel y directora de Intelligent Systems Research Lab en Intel Labs.