Tip:
Highlight text to annotate it
X
Tradutor: Claudia Sander Revisor: Leonardo Silva
Quando as pessoas dizem que têm medo da inteligência artificial,
com frequência elas evocam imagens de robôs humanoides cometendo massacres.
Sabem? "O Exterminador do Futuro"?
Bem, isso pode ser algo a ser considerado,
mas é uma ameaça distante.
Ou nos preocupamos com vigilância digital,
com metáforas do passado.
O livro "1984", de George Orwell,
está de volta ao topo das listas dos mais vendidos.
É um livro ótimo,
mas não é a distopia correta para o século 21.
O que mais devemos temer
não é o que a inteligência artificial em si vai fazer conosco,
mas como as pessoas no poder vão usar a inteligência artificial
para nos controlar e nos manipular
de formas novas, às vezes ocultas,
sutis e inesperadas.
Muita da tecnologia
que ameaça nossa liberdade e dignidade num futuro a curto prazo
está sendo desenvolvida por empresas
que estão no negócio de captura e venda de nossos dados e nossa atenção
para anunciantes e outros;
Facebook, Google, Amazon,
Alibaba, Tencent.
A inteligência artificial começou a dar suporte a esses negócios, também.
E pode parecer que a inteligência artificial
é apenas o próximo passo em anúncios on-line.
Não é.
É um salto de categoria.
É um mundo totalmente novo,
e tem muito potencial.
Ela pode acelerar nosso entendimento em muitas áreas de estudo e pesquisa.
Mas, parafraseando um famoso filósofo de Hollywood:
"Junto com um potencial imenso, vem um risco imenso".
Vamos olhar um fato básico de nossa vida digital: anúncios on-line.
Certo? Nós meio que os dispensamos.
Eles parecem toscos, não efetivos.
Todos nós já tivemos a experiência de sermos seguidos na web
por um anúncio baseado em algo que pesquisamos ou lemos.
Sabe? Você pesquisa um par de botas
e, por uma semana, essas botas o perseguem onde quer que você vá.
Mesmo depois de sucumbir e comprá-las, elas continuam seguindo você.
Nós nos acostumamos a esse tipo de manipulação básica e barata.
Reviramos os olhos e pensamos: "Quer saber? Essas coisas não funcionam".
Mas, on-line, as tecnologias digitais não são só anúncios.
Para entender isso, vamos pensar em um exemplo do mundo real.
Sabem quando, perto dos caixas do supermercado,
estão expostas balas e chicletes na altura dos olhos das crianças?
Isso é projetado para fazê-las choramingar para os pais
bem na hora em que eles estão encerrando a compra.
Isso é uma arquitetura de persuasão.
Não é legal, mas funciona.
E você vê isso em qualquer supermercado.
Agora, no mundo físico,
essas arquiteturas de persuasão são um pouco limitadas,
porque só se consegue colocar um certo número de coisas perto do caixa, certo?
E as balas e chicletes são iguais para todos,
mesmo que funcionem mais para as pessoas
que estão com pequenos humanos choraminguentos.
No mundo físico, vivemos com essas limitações.
No mundo digital, no entanto,
arquiteturas de persuasão podem ser construídas aos bilhões
e podem mirar, inferir, entender
e ser aplicadas individualmente,
um a um,
ao entender nossas fraquezas,
e podem ser enviadas de forma privada para a tela do telefone de cada um,
então não são visíveis para todos.
E isso é diferente.
Essa é só uma das coisas básicas que a inteligência artificial pode fazer.
Por exemplo, digamos que você queira vender passagens aéreas para Las Vegas.
No mundo antigo, você poderia pensar em mirar em alguns setores da população
baseado na experiência e no que você puder imaginar.
Você pode tentar anunciar para...
homens de 25 a 35 anos,
ou pessoas que têm limite alto no cartão de crédito,
ou casais aposentados, certo?
É isso que você faria no passado.
Com "big data" e aprendizado de máquina,
não funciona mais assim.
Para imaginar isso,
pense em todos os dados que o Facebook tem sobre você:
cada atualização de status que você já digitou,
cada conversa no Messenger,
cada local de onde você se conectou,
todas as fotos que você publicou.
Se você começa a digitar algo, muda de ideia e deleta,
o Facebook guarda isso e analisa, também.
Além disso, ele tenta combinar você com seus dados fora da rede.
E também compra muitos dados de corretores de dados.
Pode ser qualquer coisa, desde seus registros financeiros
a uma boa parte do seu histórico de navegação.
Certo?
Nos EUA esses dados são coletados rotineiramente,
organizados e vendidos.
Na Europa, há regras mais rígidas.
O que acontece então
é que, vasculhando todos esses dados, os algoritmos de aprendizado de máquina,
e é por isso que são chamados de algoritmos de aprendizado,
aprendem a entender as características das pessoas
que já compraram passagens para Las Vegas antes.
Quando eles aprendem isso a partir de dados existentes,
eles também aprendem a aplicar isso a outras pessoas.
Então, se uma nova pessoa é apresentada a eles,
eles podem classificar se essa pessoa
é do tipo que compra passagem para Las Vegas ou não.
Bem. Você está pensando: "Uma oferta de passagem pra Las Vegas.
Consigo ignorar isso".
Mas o problema não é esse.
O problema é que não entendemos mais como esses algoritmos complexos trabalham.
Não entendemos como eles estão fazendo essa categorização.
São matrizes gigantes, milhares de linhas e colunas,
talvez milhões,
e nem os programadores
nem ninguém que olhe isso,
mesmo tendo todos os dados,
entende exatamente como eles estão operando;
não mais do que você saberia sobre o que estou pensando agora,
se visse um corte transversal do meu cérebro.
É como se não estivéssemos mais programando,
estamos criando inteligência que não entendemos verdadeiramente.
E essas coisas só funcionam se existir uma quantidade enorme de dados,
então eles também encorajam uma grande vigilância sobre nós,
para que os algoritmos de aprendizado de máquina funcionem.
Por isso o Facebook quer coletar tudo que pode sobre você.
Os algoritmos funcionam melhor.
Vamos explorar um pouco mais o exemplo sobre Las vegas.
E se o sistema que nós não entendemos
estivesse detectando que é mais fácil vender passagens para Las Vegas
para pessoas bipolares próximas de entrar em sua fase maníaca?
Essas pessoas tendem a se tornar
gastadores excessivos, jogadores compulsivos.
Eles podem fazer isso sem tenhamos a menor ideia de que eles estão detectando isso.
Uma vez dei esse exemplo a alguns cientistas da computação
e, no fim, um deles veio falar comigo.
Ele estava perturbado e disse: "Por isso eu não pude publicar".
Eu fiquei tipo: "Não pôde publicar o quê?"
Ele tinha tentado identificar o início da fase maníaca,
a partir de publicações de redes sociais, antes dos sintomas clínicos,
e tinha funcionado,
tinha funcionado muito bem,
e ele não tinha ideia sobre como tinha funcionado ou o que ele estava detectando.
Mas não publicar não resolve o problema,
porque já existem empresas
que estão desenvolvendo esse tipo de tecnologia,
e muita coisa simplesmente já existe.
Isso não é mais tão difícil.
Você já entrou no YouTube para assistir a um vídeo
e uma hora depois já assistiu a 27?
Sabe aquela coluna à direita do YouTube
que diz: "Próximo" e reproduz automaticamente alguma coisa?
É um algoritmo
que escolhe o que ele acha que pode interessar a você,
não é você que escolhe.
Não é um editor humano.
É isso que os algoritmos fazem.
Eles detectam o que você viu e o que as pessoas como você viram,
e infere que deve ser nisso que você está interessado,
que você quer consumir mais, e apresenta mais para você.
Parece uma característica benigna e útil,
mas não é.
Em 2016, participei de comícios do então candidato Donald Trump
para estudar o movimento de apoio a ele.
Eu estudo movimentos sociais, então estava estudando esse também.
Eu queria escrever algo sobre um de seus comícios,
então assisti a ele algumas vezes no YouTube.
O YouTube começou a me recomendar
e a reproduzir automaticamente vídeos de supremacistas brancos
em ordem crescente de extremismo.
Se eu assistia a um,
ele me apresentava outro ainda mais radical
e reproduzia-o automaticamente, também.
Se você assistir a conteúdo da Hillary Clinton ou do Bernie Sanders,
o YouTube recomenda e reproduz conspiração de esquerda,
e daí pra baixo.
Bem, você pode pensar que isso tem a ver com política, mas não.
Não tem a ver com política.
Isso é só o algoritmo descobrindo sobre o comportamento humano.
Uma vez assisti a um vídeo sobre vegetarianismo no YouTube
e o YouTube recomendou e reproduziu automaticamente um vídeo sobre ser vegano.
É como se você nunca fosse radical o suficiente para o YouTube.
(Risos)
Então o que está havendo?
O algoritmo do YouTube é privado,
mas acho que acontece o seguinte.
O algoritmo descobriu
que, se conseguir persuadir as pessoas
a pensarem que você pode mostrar algo ainda mais extremo,
é mais provável que elas fiquem no site
assistindo a vídeo após vídeo e se afundando cada vez mais,
enquanto o Google mostra anúncios a elas.
Se ninguém cuidar da questão ética,
esses sites podem traçar o perfil de pessoas
que odeiam judeus,
que acham que judeus são parasitas,
e que têm conteúdo explicitamente antissemita,
e deixar que você os atinja com anúncios.
Eles também podem mobilizar algoritmos
para encontrar para você plateias similares,
pessoas que não têm conteúdo antissemita tão explícito em seu perfil,
mas que o algoritmo detecta que podem ser suscetíveis a esse tipo de mensagem,
e deixar que você os atinja com anúncios, também.
Esse exemplo pode não parecer plausível,
mas é real.
A ProPublica investigou isso
e descobriu que, sem dúvida, isso pode ser feito no Facebook,
e o Facebook prestativamente ofereceu sugestões
sobre como aumentar esse público.
O BuzzFeed tentou isso com o Google, e rapidamente descobriu que sim,
pode-se fazer isso no Google, também.
E não foi muito caro.
O repórter da ProPublica gastou em torno de US$ 30
para atingir esse público-alvo.
No último ano, o gerente de mídias sociais do Donald Trump revelou
que eles estavam usando "dark posts" do Facebook para desmobilizar pessoas,
não para persuadi-las,
mas para convencê-las a não votar.
E para isso eles miraram especificamente,
por exemplo, homens afro-americanos em cidades-chave como a Filadélfia,
e vou ler exatamente o que ele disse.
Estou citando.
Eles estavam usando "publicações fechadas,
com visualização controlada pela campanha,
para que sejam vistas apenas pelas pessoas que queremos que os vejam.
Nós modelamos isso.
E vai afetar drasticamente a capacidade dela de mobilizar essas pessoas".
O que há nesses "dark posts"?
Não temos ideia.
O Facebook não vai nos contar.
O Facebook também organiza algoritmicamente as publicações
de seus amigos ou das páginas que você segue.
Ele não mostra tudo em ordem cronológica.
Ele coloca na ordem em que o algoritmo pensa que vai induzir você
a ficar mais tempo no site.
Isso tem várias consequências.
Você pode estar pensando que alguém está desprezando você no Facebook.
Mas o algoritmo pode não estar mostrando suas publicações a ele.
O algoritmo está priorizando alguns e encobrindo os outros.
Experimentos mostram
que o que o algoritmo escolhe para mostrar a você pode afetar suas emoções.
Mas não é só isso.
Ele também afeta o comportamento político.
Então, em 2010, nas eleições intercalares,
o Facebook fez um experimento com 61 milhões de pessoas nos EUA;
isso foi revelado após o fato.
Para algumas pessoas ele mostrou: "Hoje é o dia das eleições",
a versão mais simples,
e para outras pessoas mostrou a versão com aquela pequena barra
com as fotinhos dos seus amigos que clicaram "Eu votei".
Esta barra simples.
Então, as fotos eram a única diferença,
e essa publicação, mostrada apenas uma vez,
levou 340 mil eleitores a mais
nessa eleição,
de acordo com uma pesquisa
e confirmada nas listas de eleitores.
Acaso? Não.
Porque, em 2012, eles repetiram o mesmo experimento.
E, dessa vez,
aquela mensagem cívica apresentada apenas uma vez
se converteu em 270 mil eleitores a mais.
Para referência, as eleições presidenciais de 2016 nos EUA
foi decidida por cerca de 100 mil votos.
Agora, o Facebook pode facilmente inferir suas preferências políticas,
mesmo que você nunca as tenha revelado no site.
Certo? Esses algoritmos fazem isso facilmente.
E se uma plataforma com esse tipo de poder
decidir mobilizar apoiadores de um candidato e não do outro?
Como vamos ao menos saber disso?
Vejam, começamos por algo aparentemente inócuo:
anúncios on-line que nos perseguem;
e fomos parar em outro lugar.
Como público e como cidadãos,
não sabemos mais se estamos vendo a mesma informação
ou o que os outros estão vendo,
e sem uma base comum de informação,
aos poucos
o debate público está ficando impossível,
e estamos apenas nos primeiros estágios disso.
Esses algoritmos podem inferir facilmente
coisas como sua etnia,
posição religiosa e política, traços de personalidade,
inteligência, felicidade, uso de substâncias viciantes,
separação dos pais, idade e gênero,
só a partir das curtidas no Facebook.
Esses algoritmos podem identificar manifestantes
mesmo que seus rostos estejam parcialmente ocultos.
Esses algoritmos podem detectar a orientação *** das pessoas
só pelas fotos de perfil de seus relacionamentos.
Essas são inferências probabilísticas,
então não estarão 100% corretas,
mas não vejo os poderosos resistindo à tentação de usar essas tecnologias
só porque há alguns falsos positivos,
que certamente vão criar outra camada de problemas.
Imagine o que um Estado pode fazer
com a imensa quantidade de informação que tem de seus cidadãos.
A China já usa tecnologia de detecção facial
para identificar e prender pessoas.
E a tragédia é a seguinte:
estamos construindo infraestrutura de vigilância autoritária
só para que as pessoas cliquem em anúncios.
E esse não será o autoritarismo do Orwell.
Isso não é "1984".
Agora, se o autoritarismo usar o medo explícito para nos aterrorizar,
estaremos todos com medo, mas saberemos disso,
vamos odiá-lo e resistir a ele.
Mas, se as pessoas no poder estiverem usando esses algoritmos
para nos observar discretamente,
para nos julgar e para nos incitar,
para prever e identificar os encrenqueiros e os rebeldes,
para aplicar arquiteturas de persuasão em larga escala
e para manipular as pessoas uma a uma
usando suas fraquezas e vulnerabilidades pessoais e individuais,
e se estiverem fazendo isso em larga escala,
através de nossas telas privadas
de forma que nem saibamos
o que nossos colegas cidadãos e vizinhos estão vendo,
esse autoritarismo vai nos envolver como uma teia de aranha
e podemos nem saber que estamos nela.
A capitalização de mercado do Facebook
está perto de US$ 500 trilhões.
É assim porque ele funciona muito bem como uma arquitetura de persuasão.
Mas a estrutura dessa arquitetura
é a mesma se você vende sapatos
ou política.
O algoritmo não sabe a diferença.
O mesmo algoritmo que faz o que quiser conosco
para nos tornar mais influenciáveis pelos anúncios
também organiza o fluxo de informações políticas, pessoais e sociais,
e é isso que precisa mudar.
Não me entendam mal,
usamos plataformas digitais porque elas são valiosas para nós.
Eu uso o Facebook para manter contato com amigos e parentes no mundo inteiro.
Já escrevi sobre como as mídias sociais são cruciais para os movimentos sociais.
Tenho estudado como essas tecnologias podem ser usadas
para contornar a censura em todo o mundo.
Não é que as pessoas que dirigem o Facebook ou Google
estejam maliciosamente e deliberadamente
tentando tornar o país ou o mundo mais polarizado
e encorajando o extremismo.
Li as diversas declarações bem-intencionadas
que essas pessoas expressam.
Mas não são as intenções ou declarações das pessoas de tecnologia que importam,
são as estruturas e modelos de negócio que elas estão criando.
E esse é o cerne do problema.
Ou o Facebook é uma enorme fraude de US$ 500 bilhões
e os anúncios não funcionam no site
e ele não funciona como uma arquitetura de persuasão,
ou seu poder de influência é muito preocupante.
Ou um ou outro.
E o mesmo para o Google.
Então o que podemos fazer?
Isso precisa mudar.
Eu não tenho uma receita simples,
porque precisamos reestruturar
toda a forma como opera a nossa tecnologia digital.
Tudo, desde a forma como a tecnologia é desenvolvida
até a forma como os incentivos, econômicos e outros,
são construídos no sistema.
Precisamos encarar e tentar lidar
com a falta de transparência criada pelos proprietários dos algoritmos,
o desafio estrutural da opacidade do aprendizado de máquina,
e de todos esses dados sendo coletados sobre nós indiscriminadamente.
Temos uma tarefa enorme diante de nós.
Temos que mobilizar nossa tecnologia,
nossa criatividade
e, sim, nossos políticos,
para que possamos criar inteligência artificial
que dê suporte a nossos objetivos humanos,
mas que também seja limitada por nossos valores humanos.
E eu entendo que isso não será fácil.
Podemos não concordar facilmente com o significado desses termos.
Mas, se levarmos a sério
a forma como operam esses sistemas dos quais tanto dependemos,
não vejo como postergar mais essa discussão.
Essas estruturas
estão organizando o modo como funcionamos
e estão controlando
o que podemos ou não fazer.
E muitas dessas plataformas financiadas por anúncios
se vangloriam de serem gratuitas.
Nesse contexto, o produto que está sendo vendido somos nós.
Precisamos de uma economia digital
em que nossos dados e nossa atenção
não estejam à venda para o ditador ou demagogo que ofereça mais.
(Aplausos)
Então, parafraseando Hollywood novamente,
queremos que o imenso potencial
da inteligência artificial e da tecnologia digital floresçam,
mas para isso precisamos enfrentar essa imensa ameaça,
de olhos abertos e agora.
Obrigada.
(Aplausos)