{ "@context": "https://schema.org", "@graph": [ { "@type" : "Organization", "@id": "/#Organization", "name": "Lab Dicas Jornalismo", "url": "/", "logo": "/images/1731419915.png", "sameAs": ["https:\/\/facebook.com\/dicasjornalismo","https:\/\/instagram.com\/dicasdejornalismo","https:\/\/twitter.com\/dicasjornalismo"] }, { "@type": "BreadcrumbList", "@id": "/#Breadcrumb", "itemListElement": [ { "@type": "ListItem", "position": 1, "name": "Lab Dicas Jornalismo", "item": "/" }, { "@type": "ListItem", "position": 2, "name": "Tecnologia", "item": "/ver-noticia/39/tecnologia" }, { "@type": "ListItem", "position": 3, "name": "Cientistas criam método para detectar deepfakes em fotos de retrato" } ] }, { "@type" : "Website", "@id": "/noticia/6588/cientistas-criam-metodo-para-detectar-deepfakes-em-fotos-de-retrato#Website", "name" : "Cientistas criam método para detectar deepfakes em fotos de retrato", "description": "A ferramenta analisa a região das córneas, que geram reflexos quando iluminadas", "image" : "/images/noticias/6588/21030722_deepfake.jpg", "url" : "/noticia/6588/cientistas-criam-metodo-para-detectar-deepfakes-em-fotos-de-retrato" }, { "@type": "NewsMediaOrganization", "@id": "/noticia/6588/cientistas-criam-metodo-para-detectar-deepfakes-em-fotos-de-retrato#NewsMediaOrganization", "name": "Lab Dicas Jornalismo", "alternateName": "Lab Dicas Jornalismo", "url": "/", "logo": "/images/ck/files/lab600.jpg", "sameAs": ["https:\/\/facebook.com\/dicasjornalismo","https:\/\/instagram.com\/dicasdejornalismo","https:\/\/twitter.com\/dicasjornalismo"] }, { "@type": "NewsArticle", "@id": "/noticia/6588/cientistas-criam-metodo-para-detectar-deepfakes-em-fotos-de-retrato#NewsArticle", "mainEntityOfPage": { "@type": "WebPage", "@id": "/noticia/6588/cientistas-criam-metodo-para-detectar-deepfakes-em-fotos-de-retrato" }, "headline": "Cientistas criam método para detectar deepfakes em fotos de retrato", "description": "A ferramenta analisa a região das córneas, que geram reflexos quando iluminadas", "image": ["/images/noticias/6588/21030722_deepfake.jpg"], "datePublished": "2021-03-18T17:20:15-03:00", "dateModified": "2021-03-18T17:20:15-03:00", "author": { "@type": "Person", "name": "labdicasjornalismo.informativocarioca.com", "url": "/" }, "publisher": { "@type": "Organization", "@id": "/#Organization", "name": "Lab Dicas Jornalismo", "logo": { "@type": "ImageObject", "url": "/images/ck/files/lab600.jpg", "width": 600, "height": 600 } } } ] }
Os deepfakes são utilizados para finalidades muito duvidosas, desde pornografia até disseminação de fake news. É cada vez mais difícil detectar essas imagens adulteradas. Mas o que é deepfake?
Deepfake é atribuído à criação de arquivos audiovisuais que parecem realistas, cuja semelhança não se pode perceber. Na verdade, é uma imagem criada por inteligência artificial mediante deep learning (aprendizagem profunda). Mais uma pergunta: como conseguem fazer isso?
O computador pega fotos e vídeos de uma pessoa. Quanto mais material, mais perfeito o resultado, ou quase. A partir desses arquivos, o sistema aprende a detectar o movimento, os traços, a voz e as demais características do retratado. Por meio da chamada rede contraditória (em inglês, GAN), consegue criar uma imagem idêntica à da pessoa de verdade. Um exemplo disso são os vídeos criados pelo jornalista Bruno Sartori, cujos principais alvos são o ex-presidente Luiz Inácio Lula da Silva e o atual, Jair Bolsonaro.
Porém, cientistas da Universidade de Buffalo, nos Estados Unidos, estão criando uma ferramenta que consegue detectar deepfakes de um modo surpreendentemente simples: analisar as córneas, não o retrato por completo. Isso porque as córneas possuem uma superfície transparente que gera reflexos quando recebem luz.
Em fotografias reais, o reflexo é igual em ambos os olhos. Nos deepfakes, podem acontecer inconsistências como formas geométricas diferentes ou a posição irregular dos reflexos, o que se corrige com pós-processamento manual.
A pontuação gerada funciona como medidor de semelhança. Se os pontos forem menores, o rosto pode ser um deepfake.
Em testes com fotos de retratos e deepfakes extraídos do repositório This Person Does Not Exist, a tecnologia obteve 94% de eficácia. Mas os aspectos mencionados acima servirão para tornar essa eficácia melhor. Os detalhes da experiência estão no endereço https://arxiv.org/pdf/2009.11924.pdf/.