{"id":4318,"date":"2019-06-28T08:18:04","date_gmt":"2019-06-28T11:18:04","guid":{"rendered":"https:\/\/radardofuturo.com.br\/?p=4318"},"modified":"2019-06-28T08:18:05","modified_gmt":"2019-06-28T11:18:05","slug":"o-deep-fake-gera-apreensao-sobre-o-poder-da-tecnologia","status":"publish","type":"post","link":"https:\/\/radardofuturo.com.br\/test\/o-deep-fake-gera-apreensao-sobre-o-poder-da-tecnologia\/","title":{"rendered":"O Deep Fake gera apreens\u00e3o sobre o poder da tecnologia"},"content":{"rendered":"<figure id=\"attachment_4319\" aria-describedby=\"caption-attachment-4319\" style=\"width: 1486px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-4319\" src=\"https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao.jpg\" alt=\"deepfake gera preocupacao\" width=\"1486\" height=\"1031\" srcset=\"https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao.jpg 1486w, https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao-300x208.jpg 300w, https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao-768x533.jpg 768w, https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao-1024x710.jpg 1024w\" sizes=\"auto, (max-width: 1486px) 100vw, 1486px\"><figcaption id=\"caption-attachment-4319\" class=\"wp-caption-text\">Tecnologia usa a intelig&ecirc;ncia artificial para proporcionar altera&ccedil;&otilde;es e manipula&ccedil;&otilde;es do rosto das pessoas.<\/figcaption><\/figure>\n<p><!--more--><\/p>\n<p><em>Armando Kolbe J&uacute;nior<\/em> *<\/p>\n<p>Uma nova tecnologia no mundo da internet tem tirado o sono de muita gente: o Deep Fake. O recurso &mdash; disponibilizado inclusive de forma gratuita &mdash; &eacute; muito utilizado para colocar digitalmente o rosto de qualquer pessoa em outra. A tecnologia &eacute; utilizada principalmente em v&iacute;deos.<\/p>\n<p>Criada por um usu&aacute;rio do Reddit (uma rede social em que os participantes podem votar no conte&uacute;do que julgam mais relevante), trata-se de uma tecnologia que faz uso da intelig&ecirc;ncia artificial para proporcionar essa troca do rosto das pessoas, e at&eacute; proporcionando uma certa realidade &agrave; nova face, com sincroniza&ccedil;&atilde;o de movimentos dos l&aacute;bios e outras express&otilde;es. S&atilde;o resultados impressionantes &mdash; tanto que ningu&eacute;m pode se considerar livre da possibilidade de ter seu rosto inclu&iacute;do em um v&iacute;deo editado.<\/p>\n<p>Tudo come&ccedil;ou no ano de 2017, mais precisamente em dezembro, quando um usu&aacute;rio do Reddit chamado &ldquo;deepfakes&rdquo; utilizou intelig&ecirc;ncia artificial e aprendizado de m&aacute;quina para criar algoritmos com o objetivo de &ldquo;treinar&rdquo; uma rede neural. Essa rede mapeia o rosto de uma pessoa no corpo de outra. Isso seria feito quadro a quadro.<\/p>\n<p>No in&iacute;cio, era necess&aacute;rio ter conhecimentos avan&ccedil;ados para utilizar o Deep Fake. Entretanto, ap&oacute;s a cria&ccedil;&atilde;o de diversos apps, os processos foram automatizados, tornando-se mais acess&iacute;veis e aumentando a utiliza&ccedil;&atilde;o criminosa da ferramenta. Come&ccedil;aram a surgir diversos v&iacute;deos pornogr&aacute;ficos estrelados por personalidades diversas. Uma das falhas que pode ser observada nesses v&iacute;deos &eacute; que os coadjuvantes quase n&atilde;o piscam.<\/p>\n<p>Al&eacute;m dos filmes pornogr&aacute;ficos, algumas personalidades est&atilde;o sendo colocadas em locais e situa&ccedil;&otilde;es em que nunca estiveram, trazendo in&uacute;meros constrangimentos. Infelizmente &eacute; poss&iacute;vel, inclusive, criar um &aacute;libi, forjar um momento e colocar, por exemplo, um CEO ou mesmo um pol&iacute;tico em situa&ccedil;&otilde;es de dif&iacute;cil repara&ccedil;&atilde;o &mdash; principalmente frente ao imediatismo das pessoas em n&atilde;o entender que determinado v&iacute;deo pode ser falso e que a manipula&ccedil;&atilde;o depende da criatividade do editor e de quantos v&iacute;deos da celebridade (ou mesmo seus) estejam dispon&iacute;veis facilmente na internet.<\/p>\n<p>Um caso recente envolveu o partido pol&iacute;tico da B&eacute;lgica Socialistische Partij, anders (Partido Socialista, Mas Diferente) que criou e divulgou o Deep Fake. Nesse caso, um falso Donald Trump, presidente dos Estados Unidos, solicitava &agrave; popula&ccedil;&atilde;o do pa&iacute;s belga o voto pela ren&uacute;ncia ao Acordo de Paris, um tratado que rege pol&iacute;ticas clim&aacute;ticas. O v&iacute;deo utilizou-se de psicologia reversa, j&aacute; que concluiu-se que a maioria do povo votaria contra somente para contrariar a mensagem do presidente americano.<\/p>\n<p>Uma das maneiras de nos protegermos dessas ferramentas de manipula&ccedil;&atilde;o &eacute; evitar o compartilhamento de v&iacute;deos com desconhecidos, ou mesmo n&atilde;o post&aacute;-los em redes sociais, dificultando assim o trabalho do editor em pegar seu rosto e coloc&aacute;-lo em outro v&iacute;deo comprometedor.<\/p>\n<p>Al&eacute;m dos v&iacute;deos, vemos constantemente nas not&iacute;cias quest&otilde;es sobre assuntos que viralizaram nas redes sociais, como &aacute;udios e textos atribu&iacute;dos a famosos, mas que na verdade s&atilde;o #FAKE.<\/p>\n<p>O maior problema &eacute; o discernimento do que &eacute; verdadeiro e falso. Portanto, recomenda-se evitar a distribui&ccedil;&atilde;o de textos, &aacute;udios e v&iacute;deos sem o conhecimento da fonte original. Fazendo isso, pode-se facilmente cometer o erro de distribuir not&iacute;cias falsas e atender aos interesses de criminosos.<\/p>\n<ul>\n<li>Armando Kolbe J&uacute;nior &eacute; professor do curso de Investiga&ccedil;&atilde;o Profissional do Centro Universit&aacute;rio Internacional Uninter.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":4319,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"tdm_status":"","tdm_grid_status":"","footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[20,19,36],"tags":[1319,1320,1321],"class_list":{"0":"post-4318","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-destaques","8":"category-insights","9":"category-pensadores-futuro","10":"tag-fakenews","11":"tag-impactos-das-fakenews","12":"tag-manipulacao-de-imagens"},"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/radardofuturo.com.br\/test\/wp-content\/uploads\/2019\/06\/deepfake-gera-preocupacao.jpg","post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/posts\/4318","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/comments?post=4318"}],"version-history":[{"count":0,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/posts\/4318\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/media\/4319"}],"wp:attachment":[{"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/media?parent=4318"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/categories?post=4318"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/radardofuturo.com.br\/test\/wp-json\/wp\/v2\/tags?post=4318"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}