Red de conocimientos sobre prescripción popular - Conocimiento del confinamiento - Ver no es creer y la gente confía más en los rostros falsos sintetizados por inteligencia artificial.

Ver no es creer y la gente confía más en los rostros falsos sintetizados por inteligencia artificial.

Como dice el refrán, oír es vacío, ver para creer. Pero ahora, con el desarrollo de la tecnología de inteligencia artificial, lo que ves puede no ser cierto. Todo este resultado se debe a la tecnología deep fake, conocida como tecnología deep fake o deep fake. Este es un híbrido de aprendizaje profundo y disfraz. Una tecnología de síntesis de imágenes del cuerpo humano basada en inteligencia artificial. La difusión y el desarrollo de esta tecnología ha atraído la atención de la gente.

En 2018, NVIDIA utilizó tecnología de inteligencia artificial para sintetizar algunas fotografías de rostros inexistentes. Los investigadores se basaron en un algoritmo llamado Generative Adversarial Networks (GAN). Dejemos que dos redes neuronales peleen, donde A intenta encontrar falsificaciones y B intenta generar falsificaciones más realistas para engañar a A. Pueden seguir jugando Idiom Solitaire. Es decir, con el tiempo suficiente, Gans puede generar una falsificación que se parece más a una persona real que a una persona real.

Desde entonces, la inteligencia artificial ha mejorado mucho su capacidad para generar imágenes de humanos. Pero también trajo algunos efectos negativos. Los estafadores pueden utilizar estas falsificaciones generadas para engañar a las personas y unir sus rostros en películas pornográficas sin su consentimiento para satisfacer sus deseos pervertidos e incluso socavar la confianza de las personas en los medios en línea. Además, es más fácil ganarse la confianza de la gente con las fotos falsas generadas que con las fotos reales. Si bien los deepfakes se pueden descubrir utilizando la propia inteligencia artificial, el hecho de que las empresas de tecnología no puedan adaptar de manera efectiva esos materiales complejos significa que este camino está muerto.

Una pregunta más importante es si los humanos pueden detectar la diferencia entre fotos falsas y fotos reales, y qué tiene que ver con los deepfakes. Un estudio para PNAS demostró que la situación no era impresionante, que las personas no eran tan buenas para detectar fotografías falsas con tanta precisión como las adivinanzas aleatorias y calificaban las caras falsas como más confiables que las reales. "Nuestra evaluación de la fidelidad de los rostros sintetizados por IA muestra que el motor de síntesis ha alcanzado un nivel increíble de creación de rostros que son indistinguibles y valen más que los rostros reales", escribieron los autores del estudio Trust."

Para probar las respuestas a caras falsas, los investigadores utilizaron una versión actualizada de GAN de Nvidia para generar 400 caras falsas con proporciones iguales de género, 65.438.000 de cada uno de los cuatro grupos étnicos abiertos. Negros, caucásicos, asiáticos orientales y asiáticos del sur. Compararon estas caras con caras reales extraídas de la base de datos utilizada originalmente para entrenar la GAN, que diferentes redes neuronales consideraron similares.

Luego reclutaron a 315 participantes de la plataforma de crowdsourcing Mechanical Turk de Amazon. Se pidió a cada persona que juzgara 128 caras del conjunto de datos combinado y decidiera si eran falsas. Al final, su precisión fue solo de 48, que fue inferior a la precisión de 50 obtenida mediante adivinanzas aleatorias.

Las fotografías profundamente falsas suelen tener defectos y fallos característicos que pueden ayudar a las personas a identificarlas. Entonces los investigadores llevaron a cabo un segundo experimento con 219 participantes adicionales. Antes de que se les pidiera que juzgaran un número igual de caras, recibieron una formación básica y se les dijo qué buscar. Pero como resultado, su desempeño mejoró sólo ligeramente, a 59, una mejora de sólo 11.

En un experimento final, el equipo decidió ver si las respuestas intuitivas a las caras podían mejorar la precisión. Las personas suelen identificar cosas difíciles en una fracción de segundo basándose en su primer instinto. Para los rostros humanos, la credibilidad es sin duda la primera reacción cuando se juzga a una persona. Sin embargo, cuando 223 participantes adicionales calificaron 65,438,028 caras, los investigadores encontraron que las personas en realidad calificaron las caras falsas como confiables 8 veces más que las caras reales, lo cual no fue significativo pero sí estadísticamente significativo.

Los investigadores descubrieron que la razón por la cual los rostros falsos parecen más confiables que los rostros reales es porque los rostros falsos tienden a parecerse más a rostros comunes, y las personas con cuerpos atractivos tienden a confiar más en los rostros comunes, especialmente en los de apariencia inofensiva. Es más probable que la cara se gane la confianza de la gente. Esto se confirmó observando los cuatro rostros menos confiables (todos reales) y los tres rostros más confiables (todos falsos).

Este estudio señala que quienes desarrollan la tecnología subyacente detrás de los deepfakes deben pensar detenidamente lo que están haciendo.

Pregúntese si los beneficios de esta tecnología superan los riesgos. La industria también debería considerar seriamente algunas medidas de seguridad en los currículums, como permitir que quienes utilizan costos de tecnología tengan una marca de agua en la foto de salida. Los autores del estudio declararon: Debido a que el uso de esta poderosa tecnología ha causado grandes amenazas a la vida de las personas, deberíamos considerar seriamente la práctica de código deepfake abierto y sin restricciones que cualquier persona pueda incorporar a cualquier programa, y ​​¿Deberían agregarse algunas restricciones? ? Pero, lamentablemente, puede que ya sea demasiado tarde. Los modelos abiertos ya son capaces de producir fotografías deepfake muy realistas y es poco probable que alguna vez recuperemos el modelo.

Enlace original: /QQ_43529978/article/details/123109543.