Expertos en privacidad e investigadores de Oxford, Yale y Cambridge alertaron sobre posibles hackeos.
Más de 25 investigadores de las universidades de Cambridge, Oxford y Yale y expertos en materia de privacidad alertaron en un estudio sobre los riesgos de que la tecnología de inteligencia artificial (IA) sea utilizada con fines delictivos. Según los expertos los rápidos avances en IA están aumentando los riesgos de que ciberdelincuentes se valgan de esa tecnología para generar ataques automáticos de hacking, causar accidentes automovilísticos en carros de conducción autónoma o convertir drones comerciales en armas dirigidas.
Como lo han dicho campañas internacionales, como es el caso de la campaña Stop Killer Robots, el tiempo se agota. Los investigadores indicaron en el estudio que este tipo de desarrollos maliciosos son plausibles dentro de solo cinco años en el futuro. El uso malicioso de IA, según lo presentan los académicos podría generar «una amenaza inminente para la seguridad digital, física y política al permitir ataques a gran escala, altamente dirigidos y altamente eficientes».
El documento de 98 páginas, publicado este miércoles 20 de febrero, advierte que el costo de los ataques militares se reduciría al utilizar la IA para completar tareas que de otra manera requerirían trabajo humano y experiencia. Pueden surgir nuevos ataques que serían imprácticos para los humanos solos para desarrollarse o que explotan las vulnerabilidades de los propios sistemas de inteligencia artificial.
Miles Brundage, investigador del Instituto Future of Humanity de Oxford, aseguró que todos los investigadores están de acuerdo en que hay muchas aplicaciones positivas de la inteligencia artificial, pero que hasta el momento «hubo un vacío en la literatura sobre el tema del uso malicioso».
Las capacidades de la IA para procesar millones de datos en poco tiempo y emular el razonamiento humano en la toma de decisiones o el procesamiento de todo tipo de información (texto, voz o imágenes visuales) ha hecho que esta tecnología sea vista como una fuerza poderosa para el cambio y la solución de problemáticas humanas en todo tipo de sectores. Sin embargo, los riesgos sobre si la automatización masiva podría resultar en un desempleo generalizado y en otro tipo de impactos que afecten la vida humana son una preocupación recurrente.
El estudio, llamado ‘El uso malicioso de la Inteligencia Artificial: Predicción, Prevención, y Mitigación’, tiene contribuciones de organizaciones internacionales sin ánimo de lucro como OpenAI (creada por Elon Musk), Center for a New American Security y la Electronic Frontier Foundation.
Información y privacidad de Twitter Ads
Los investigadores detallan el poder de la inteligencia artificial para simular imágenes sintéticas, texto y audio para suplantar la identidad de otros en línea. Los expertos plantearon su preocupación por la existencia de herramientas que reemplazan rostros de dirigentes políticos o softwares que pueden emular una voz con solo conocer cómo habla una persona por algunos minutos. Dichas herramientas, que se basan en IA, podrían ser usadas con el fin de influir en la opinión pública.
El origen de esta profunda investigación fue un taller a principios del 2017. En el momento algunos de los autores del documento especularon sobre cómo la IA podría usarse para crear audio y video falsos altamente realistas de funcionarios públicos con fines de propaganda. Algunas de sus predicciones se cumplieron.
A fines del año pasado, los falsos videos pornográficos «deepfake» comenzaron a aparecer en línea, con caras de celebridades mezcladas de forma realista con diferentes cuerpos. Sin embargo, los expertos apuntaron que esas capacidades pueden ser utilizadas también en situaciones políticas, diplomáticas o totalitarias.
«Sucedió en el régimen de la pornografía en lugar de la propaganda», dijo Jack Clark, jefe de política de OpenAI, «Pero nada sobre deepfakes sugiere que no se puede aplicar a la propaganda».
«Finalmente terminamos con muchas más preguntas que respuestas», confesó Brundage.
Entre las recomendaciones, los expertos abogan por la construcción de una regulación de la inteligencia artificial que la contemple como de doble uso: tanto como una tecnología militar como una comercial.
Por otra parte, los expertos plantean sus cuestionamientos sobre si quienes participan en la investigación y desarrollo de esta tecnología deben controlar lo que publican o divulgan hasta que otros expertos en el campo pueden estudiar y reaccionar ante los peligros potenciales que puedan implicar.
Referente:http://www.eltiempo.com/tecnosfera/novedades-tecnologia/riesgo-de-que-la-inteligencia-artificial-sea-utilizada-por-el-mal-185394