Los Ángeles, Estados Unidos – La empresa Meta, dueña de Instagram y Facebook, anunció que planea implementar una tecnología de reconocimiento facial.
Con el fin de poder identificar las publicaciones fraudulentas sobre famosos, las cuales se han incrementado desde inicios de la pandemia de covid-19.
“Usamos clasificadores de aprendizaje automático para revisar lo que se comparte, en búsqueda de infracciones a nuestras políticas de publicidad, incluyendo estafas”, afirmó Monika Bickert, vicepresidenta de Políticas de Contenido de Meta.
La experta explicó que para identificar los deepfakes (videos o imágenes falsas) de personalidades reconocidas.
Meta utilizará su sistema de revisión de anuncios, con el que analiza millones de publicaciones a diario.
El proceso utiliza inteligencia artificial (IA) y aprendizaje automático para examinar varios aspectos de las publicaciones.
Como el texto, las imágenes y los videos, buscando contenido manipulado o falso.
En este caso, se enfoca en identificar deepfakes de cantantes, deportistas u otros famosos.
Qué hará Meta al detectar un deepfake
Bickert destacó que si los sistemas de Meta sospechan de una publicación, el material será comparado con la foto del perfil verificado de la celebridad con la tecnología para reconocimiento facial de Instagram y Facebook.
“Si confirmamos que el anuncio es una estafa lo bloquearemos y eliminaremos inmediatamente cualquier dato facial generado por esta comparación, independientemente de si nuestro sistema encuentra o no una coincidencia. Nunca utilizaremos para ningún otro propósito este material”, recalcó.
Esta innovación en la compañía está siendo probada por un grupo de famosos en todo el mundo, excepto de la Unión Europea, por regulaciones.
Asimismo, la empresa espera que en las próximas semanas se notifique a más personalidades, a quienes les han alterado imágenes y videos, para que den su autorización y sean parte del proyecto.
Te puede interesar: Meta implementará nueva herramienta para traducir los Reels de Instagram