Hemos recibido una nota de prensa por parte de Google, os la dejamos a continuación:
Sundar Pichai, CEO de Alphabet y Google
Por qué Google cree en la necesidad de regular la IA
Las empresas no pueden simplemente crear nuevas tecnologías y dejar que las fuerzas del mercado decidan cómo utilizarlas
Al criarme en la India, me fascinaba la tecnología. Cada nuevo invento cambió de manera significativa la vida de mi familia: el teléfono nos ahorró largos viajes al hospital para recoger los resultados de las pruebas médicas; el frigorífico nos permitió pasar menos tiempo preparando las comidas; y la televisión puso a nuestro alcance las noticias del mundo y las imágenes de los partidos de cricket que hasta entonces solo podíamos imaginar mientras escuchábamos la radio de onda corta.
Ahora, tengo el privilegio de contribuir a dar forma a nuevas tecnologías que, esperamos, cambiarán la vida de las personas en todo el mundo. Y una de las más prometedoras es la inteligencia artificial: solo este mes ha habido tres ejemplos concretos de cómo Alphabet y Google están aprovechando su potencial. La revista Nature ha publicado nuestra investigación, que muestra que un modelo de IA puede ayudar a los médicos a detectar con mayor precisión el cáncer de mama en las mamografías; estamos usando la IA para hacer pronósticos de lluvia inmediatos e hiperlocales de manera más rápida y precisa que con los modelos existentes, como parte de un conjunto más amplio de herramientas para combatir el cambio climático; y el Grupo Lufthansa está trabajando con nuestra división de nube para probar el uso de la IA para reducir los retrasos en los vuelos.
Sin embargo, la historia está llena de ejemplos de cómo, en las tecnologías, no todo son virtudes. Los motores de combustión interna nos han permitido viajar, pero también han provocado más accidentes. Internet hace posible conectarse con cualquier persona y obtener información desde cualquier lugar, pero también facilita la difusión de información errónea.
Esto nos enseña que debemos tener los ojos bien abiertos ante lo que podría salir mal. Existen preocupaciones reales sobre las posibles consecuencias negativas de la IA, desde falsificaciones “profundas” hasta usos nefastos del reconocimiento facial. Si bien ya se está trabajando para abordar estos peligros, inevitablemente nos esperan nuevos desafíos, a los que ninguna empresa o industria podrá hacer frente por sí sola.
La UE y los Estados Unidos ya están comenzando a desarrollar algunas propuestas de regulación y la coordinación a nivel internacional será fundamental para que las normas sean efectivas en todo el mundo. Para alcanzar este objetivo se necesita un acuerdo sobre los valores fundamentales. Las empresas como la nuestra no pueden simplemente diseñar nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo utilizarlas. Es también tarea nuestra asegurarnos de que las tecnologías se aprovechen para bien y estén disponibles para todos.
En este momento no tengo la menor duda de que la inteligencia artificial necesita ser regulada. Es algo demasiado importante para no intervenir. La única pregunta es cómo hacerlo.
Precisamente por este motivo, Google publicó en 2018 sus propios principios de IA: para orientar hacia la ética el desarrollo y el uso de la tecnología. Estas pautas nos ayudan a evitar los sesgos, a realizar pruebas rigurosas de seguridad, a tener muy en cuenta la privacidad en lo que diseñamos y hacer que la tecnología rinda cuentas a las personas. También definen las áreas en las que no diseñaremos ni implementaremos la inteligencia artificial, como cuando esta se utilizaría para la vigilancia masiva o la violación de los derechos humanos.
Pero los principios que se quedan en el papel no sirven de nada. Por lo tanto, también hemos desarrollado herramientas para ponerlos en práctica, por ejemplo, comprobando la equidad de las decisiones tomadas a través de la IA y realizando evaluaciones independientes del respeto de los derechos humanos en los nuevos productos. Y hemos ido aún más lejos, haciendo que estas herramientas y sus códigos abiertos estén ampliamente disponibles, lo que permitirá a otros usar la IA para bien. Creemos que cualquier empresa que desarrolle nuevas herramientas de IA también debe dotarse de principios y procesos de revisión rigurosos.
Las normas que dicten los Estados también jugarán un papel importante. No tenemos que empezar desde cero. Las normas existentes, como el Reglamento general europeo de protección de datos, ya representan una sólida base de trabajo. Un buen marco regulatorio tiene en cuenta la seguridad, la explicabilidad, la equidad y la responsabilidad para garantizar que desarrollemos las herramientas adecuadas de la manera correcta. Una regulación sensata también debe adoptar un enfoque proporcionado, equilibrando los posibles daños, especialmente en áreas de alto riesgo, con las oportunidades sociales.
La regulación puede proporcionar una pauta general, al tiempo que permite una implementación personalizada en diferentes sectores. Para algunos usos, como los dispositivos médicos regulados que incluyen monitores cardíacos asistidos por IA, los marcos existentes representan un buen punto de partida. Para usos más novedosos, como los vehículos autónomos, las autoridades deberán crear una normativa adecuada que tenga en cuenta todos los costes y beneficios que se derivan.
El papel de Google empieza con el reconocimiento de la necesidad de que la IA se utilice conforme a unos determinados principios y normas, pero no termina ahí. Queremos que los reguladores nos vean como un colaborador útil y comprometido, que les ayuda a lidiar con las inevitables tensiones y equilibrios. Ofrecemos nuestros conocimientos, experiencia y herramientas a medida que abordemos juntos estos problemas.
La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser que no lo haga. Si nos aseguramos que la IA sea desarrollada de manera responsable y en beneficio de todos podremos inspirar a las generaciones futuras, para que estén tan convencidas como yo del poder de la tecnología.