null: nullpx
Vix

Google podría tener la respuesta para una Inteligencia Artificial segura (y no es Sarah Connor)

Publicado 21 Abr 2020 – 05:25 PM EDT | Actualizado 21 Abr 2020 – 05:25 PM EDT
Reacciona
Comparte

La tecnología de Inteligencia Artificial ha avanzado a pasos agigantados, sobre todo en la rama de la medicina, en donde muy pronto podrá usarse para detectar algunos tipos de cáncer.

Pero, algunos científicos creen conveniente revisar los principios éticos de la IA, con el objetivo de asegurarse que nunca sea usada con malos fines.

Investigadores de los principales laboratorios de investigación de Inteligencia Artificial de los Estados Unidos, como Google Brain, Intel y OpenAI, se reunieron para lanzar una «caja de herramientas» que pondrá en práctica los principios de ética de la IA.

El documento, publicado en la plataforma arxiv, incluye la idea de pagar a los desarrolladores en caso de que encuentren alguna fisura en la IA, tal y como sucede con algunas compañías de tecnología y su software de seguridad.

Esta y otras recomendaciones están orientadas a garantizar la confianza pública y el bienestar social.

De acuerdo con los autores, la comunidad de cazarrecompensas de errores de programación es demasiado pequeña para crear garantías sólidas, pero confían que los desarrolladores puedan descubrir más sesgos de los conocidos hasta nuestros días.

«El sesgo y las recompensas de seguridad ampliarían el concepto de recompensa de errores a la IA y podrían complementar los esfuerzos existentes para documentar mejor los conjuntos de datos y modelos para sus limitaciones de rendimiento y otras propiedades», explican los autores en su documento.

Los investigadores recomiendan a los desarrolladores que tengan un equipo especial para encontrar fallas o vulnerabilidades y conectar auditorías independientes y políticas gubernamentales para crear un marco regulatorio.

Cinco recomendaciones para garantizar la seguridad de la IA

- Compartir incidentes de IA entre la comunidad, para crear bases de datos centralizados.
- Establecer pistas de auditoría para capturar información durante el proceso de desarrollo e implementación de aplicaciones indispensables para la seguridad de los sistemas de IA.
- Proporcionar alternativas de código abierto a los sistemas comerciales de IA

- Aumentar la financiación de gobierno para los investigadores que verifiquen el rendimiento de hardware.
- Admitir técnicas centradas en la privacidad para el aprendizaje automático desarrolladas en los últimos años, como la computación cifrada.

Con estas acciones, los investigadores confían que la preocupación de lo negocios, gobierno y sociedad se disminuya, sobre todo cuando se trata de temas éticos, prejuicios y la protección de la privacidad.

mini:


Échale un ojo a esto:

Reacciona
Comparte