Por Nubbitel
marzo 21, 2022
La semana pasada veíamos a Vladimir Putin declarando la paz. El quid de la cuestión es que era mentira. También vimos a un falso Volodymr Zelensky solicitando a los ucranianos que depusieran las armas. No estamos diciendo nada nuevo si hablamos de que una importante batalla de esta guerra en la que están puestas todas las miradas, se está librando en el ámbito de la desinformación y de la propaganda. Sin embargo, estos días se ha puesto sobre la mesa una tecnología que lleva tiempo circulando, concretamente aquella que se conoce como Deep fake. Porque, como te estamos contando, esto no es nuevo. Por ejemplo, así a bote pronto, me viene a la cabeza la imagen de Lola Flores animándonos a beber una cerveza “con acento”, o a Carrie Fisher interpretando a la princesa Leia en Star Wars, desgraciadamente ya “desde el otro lado de la Fuerza”. Ya estamos conviviendo día a día con esta tecnología, pero es ahora cuando también está empezando a extenderse la alerta sobre los peligros que conlleva.
Cada vez es más difícil distingur entre imágenes reales e imágenes «fake». Son tecnologías basadas en Inteligencia Artificial y las imágenes sintéticas que producen generan más confianza que las de los rostros reales.
Estos días, hemos leído en numerosos medios acerca de un estudio realizado por la Dra. Sophie Nightingale de la Universidad Lancaster del Reino Unido y el Profesor Hany Farid de la Universidad de Berkeley en California, realizado para analizar la capacidad que tenemos para reconocer estas imágenes fake y el resultado del mismo ha sido, cuanto menos, inquietante. Resulta que nos damos cuenta del engaño en menos del 50% de las ocasiones. O sea, una de cada dos nos la cuelan. Tendríamos más posibilidades haciéndolo al azar, a cara o cruz, por ejemplo. En ese mismo estudio, los observadores fueron un poco más certeros, una vez que se les dieron unas pinceladas sobre los puntos y detalles en los que deberían fijarse para determinar la autenticidad de las imágenes. Pero sólo un poco más, no llegaba al 60%. Quizá lo más increíble del estudio es que, tras analizar 128 fotografías retrato, los participantes otorgaron un grado de confianza más alto a las imágenes fake que a las reales. Nos fiábamos más de los sujetos generados por Inteligencia Artificial. En resumen, nuestra percepción está muy lejos de ser certera en la detección de imágenes fake y, como añadido, hay una serie de características de estas imágenes falsas que nos invitan a confiar más.
Fuente:
De las 4 personas más «confiables» (arriba), 3 eran sintéticas y 1 real. Las 4 menos confiables (abajo) eran realesComenzábamos hablando sobre la falsedad de las imágenes que han circulado de Putin y Zelensky. No parece lógico que redes como Meta se apunten un gran tanto con su detección porque son ejemplos verdaderamente malos de tecnología Deep Fake. Esa es la realidad. O la falsedad, mejor dicho. Pero a partir de aquí surgen importantes incógnitas. Tenemos que tener en cuenta que hay una importante parte del mundo a la que no llega el conocimiento de esta tecnología y, mucho menos, el debate que se genera alrededor. Son países y poblaciones a las que llega una imagen, a todas luces verdadera, y a las que su nivel de tecnología, conocimiento, criterio, etc. no les permite ni vislumbrar que pueda haber un engaño tras ese rostro. Y luego, lo que ya comentábamos. El caso de los falsos presidentes era bastante fácil de detectar, pero, obviamente, esta tecnología camina hacia todo lo contrario. Está muy cerca ese punto en el que pueda resultar algo indetectable a los ojos de la población (quizá ya estamos ahí) y esto nos sitúa ante un escenario que se antoja bastante complicado.
En las conclusiones del estudio, la Dra. Nightingale advierte de los peligros de una tecnología que está al alcance de cualquiera. De hecho, hay una clara invitación a la creación de pautas de autorregulación e incluso animan a los desarrolladores de dichas tecnologías a sopesar si los riesgos asociados a las mismas son mayores que sus beneficios.

Fuente:
Arriba, los más certeramente clasificados, como reales y sintéticos, y abajo, los menos.Pero hay más aristas. El Deep Fake se está utilizando como medio de extorsión y fraude. Según un estudio del Crime Science Journal, los deepfakes con propósito criminal son el delito basado en inteligencia artificial con capacidad de daño o lucro de su ámbito y los más difíciles de combatir. Hablamos de secuestros falsos mediante la imitación de voz o imagen en video, de imitación por voz para acceder a sistemas seguros y una numerosa gama de extorsiones con videos falsos, en multitud de ocasiones, de contenido sexual.
Por otro lado, Nina Schick, autora del libro Deepfakes, considera que en ese futuro cercano en el que nos encontremos ante ejemplos “indetectables” de esta tecnología, llegará la erosión de la confianza en los medios auténticos ya que va en aumento la creencia de que todo puede ser falsificado. Y, desde luego, no resulta especialmente alentador pensar en ese momento en el que, verdaderamente, no podamos distinguir lo verdadero de lo falso y no sepamos qué creer.
También en nubbitel.es
Tecnología insegura
Un clásico en esta sección de nuestra web son las constantes alusiones al modo en el que la tecnología nos facilita la vida. Esto debería ser así y, de hecho, es así en el 99 por ciento de los casos. Pero a veces, nos encontramos con noticias que nos hacen pensar al...
Tatuajes para la diabetes
España se tatúa… El mundo se tatúa… está claro que este tipo de decoración corporal está atravesando por una era dorada y, si hablamos de cifras, el 38 por ciento de la población mundial lleva algún tatuaje y dentro de ella, España es el sexto país en el ranking de...
Espejos en el cielo
Todas las expectativas energéticas del futuro pasan por las renovables y, sin lugar a dudas, la energía solar fotovoltaica cuenta con un lugar privilegiado entre ellas. En los últimos años se están volcando todos los esfuerzos en conseguir un aprovechamiento...
Queremos que estés cerca, sentirte, escucharte, leerte, interactuar contigo, compartir…