Algoritmos contribuem para ampliar a sociedade do controle

Somente agora começamos a identificar e a abordar os problemas levantados pela rápida introdução dos algoritmos de inteligência artificial e machine learning em áreas importantes no âmbito social. A partir dos escândalos trazidos pelo emprego da IA, questões fundamentais emergiram para reflexão: quem será responsabilizado quando sistemas de aprendizado estatístico começam a prejudicar os cidadãos? O gap de responsabilidade torna-se presente quando se observa o atual emprego crescente dos algoritmos para amplificar a vigilância digital sobre a sociedade, no âmbito do marketing ou da política, especialmente em associação a tecnologias disruptivas com potencial de maximizar o controle social e, possivelmente, no caso de alguns governos, a opressão.

Algoritmos de machine learning têm contribuído amplamente para ampliar a vigilância social generalizada. Isso ocorre não somente com o rastreamento de dados dos usuários pelo marketing, mas também com o emprego crescente de redes de sensores, manipulação de percepções, reconhecimento facial e usos panópticos das redes sociais. Há o perigo de novas ameaças, ao mesmo tempo em que se ampliam preocupações antigas, exaustivamente discutidas por autores como Foucault, Deleuze, Bauman, Lyon, entre outros.

Artigo completo apresentado na ABCiber 2018

Por dentro da inteligência artificial (II)

O aprendizado de máquina (machine learning) tem emergido como um tópico de grande interesse dentro do campo da pesquisa em inteligência artificial. Segundo Honda, Facure e Yaohao, o aprendizado de máquina ocorre quando um sistema computacional busca realizar uma tarefa aprendendo a partir de experiências, procurando assim melhorar a sua performance.

Um algoritmo de IA pode aprender a atingir seu objetivo a partir de um grande volume de dados que representam as experiências. Quanto mais dados, mais exemplos de padrões que o computador pode generalizar para tomar melhores decisões, em situações ainda não vistas. Entre as abordagens para o aprendizado de máquina podem ser citados o aprendizado supervisionado, o aprendizado não-supervisionado e o aprendizado por reforço.

O aprendizado supervisionado tem sido a área da inteligência artificial onde se concentra o maior número de pesquisas, experiências e de produtos bem sucedidos, e onde a maior parte dos problemas já estão bem definidos. A característica básica de sistemas de aprendizado supervisionado é que os dados utilizados para treiná-los contém a resposta desejada. Ou seja, os dados são previamente anotados com as respostas ou classes a serem previstas. Dentre suas técnicas mais conhecidas estão a regressão linear, regressão logística, redes neurais artificiais, árvores de decisão, entre outras.

No caso do aprendizado não supervisionado, nem todos os problemas podem ser resolvidos desta forma. Em alguns casos, conseguir dados previamente anotados é extremamente custoso ou impossível. Nesses casos, deve-se observar nos registros e dados se existem padrões repetidos que permitiriam a inferência de classes, perfis ou categorias. De uma forma geral, o aprendizado não supervisionado busca uma representação informativa mais simples dos dados, condensando a informação existente em pontos relevantes.

Exemplos de aplicações de aprendizado não supervisionado são sistemas de recomendação de filmes ou músicas, detecção de anomalias e visualização de dados. Dentre as técnicas conhecidas estão as redes neurais artificiais, expectativa-maximização, clusterização hierárquica, análise de componentes principais, entre outras. Problemas de aprendizado não supervisionado são consideravelmente complexos. Como consequência, esse modelo está na fronteira do conhecimento atual em aprendizado de máquina.

A terceira abordagem de aprendizagem de máquina é a chamada aprendizagem por reforço, em que a máquina tenta aprender qual é a melhor ação a ser tomada, dependendo das circunstâncias na qual esta ação será executada. Esta técnica leva em consideração a incerteza e incorpora eventuais mudanças no ambiente para o processo de tomada da melhor decisão. Baseia-se na psicologia behaviorista de Skinner: com o tempo e a repetição de experimentos, espera-se que o agente consiga associar as ações que geram maior recompensa para cada situação que o ambiente apresenta, e passe a evitar as ações que geram punição ou recompensa menor. Isto aplicado à realidade computacional implica que a máquina observa um “estado da natureza”, dentre um conjunto de cenários possíveis, e, com base nisso, escolhe a ação a se tomar.

Em seguida, recebe a recompensa associada a esta ação, nesse estado específico, obtendo assim a informação desta combinação. O processo se repete até que o computador seja capaz de escolher a melhor ação para cada um dos cenários possíveis.

Fonte: Honda, Facure e Yaohao (2019).

Por dentro da inteligência artificial (I)

Atualmente há uma extensa corrida pelo emprego da inteligência artificial (IA) entre as grandes empresas da internet.

O interesse cresce na mesma proporção do investimento em pesquisa pura nesse campo. Há uma guerra em curso entre as companhias de tecnologia para atrair os melhores talentos da área, devido ao seu potencial econômico de crescimento futuro e ao ritmo promissor das inovações.

Pesquisadores e cientistas da IA têm encontrado, por enquanto, nas empresas, um ambiente de liberdade de pesquisa e de publicação, com conferências, conversas com pares, flexibilização de propriedade intelectual, num clima próximo ao do mundo acadêmico. Nesse sentido, estas empresas têm trabalhado na mesma direção das universidades, em busca de respostas a problemas de pesquisa fundamentais.

O campo da inteligência artificial busca estudar princípios matemáticos do aprendizado que podem ser aplicados a computadores. Segundo Yoshua Bengio, um programa tradicional de computador representa um processo passo-a-passo que insere na sua memória um conhecimento previamente existente. Mas o computador também pode ser programado para desenvolver a habilidade de aprender: por isso, o programa de aprendizado é, na verdade, um metaprograma. É como se ele recebesse uma receita de propósito geral que habilita o aprendizado, sendo que a única diferença serão os dados — os exemplos do mundo real com os quais o computador tem contato. Ou seja, os humanos podem ensinar às máquinas, mostrando-lhes exemplos, representados pelos dados.

Para Bengio, o aprendizado humano não se limita à leitura de livros, ao acúmulo de fatos ou dados; é uma adaptação que acontece em resposta a estímulos do ambiente. O aprendizado significa integrar informações que obtemos pela experiência em abstrações que nos permitem tomar melhores decisões, compreender as conexões entre as coisas que vemos, e predizer o que acontecerá em seguida.

Em inteligência artificial (IA) trabalha-se com a noção de generalização: a máquina pode generalizar a partir de coisas que já tenha visto e aprendido para novas situações, em um processo lento e gradual, totalmente baseado na experiência, através do contato com um grande volume de dados. É o que se chama aprendizado de máquina ou aprendizado estatístico.

Bengio cita alguns exemplos disruptivos de áreas de aplicação da inteligência artificial: a produção industrial, a medicina, o transporte, a agricultura, assistentes pessoais, traduções, reconhecimento de voz, reconhecimento facial, etc.

O uso de dados de usuários e dispositivos de vigilância

O objetivo deste trabalho é analisar o modo de atuação do controle e do poder exercido pela vigilância digital na sociedade contemporânea. Para isso, é necessário compreender a evolução, a manutenção e a transformação dos dispositivos de poder a que os indivíduos foram submetidos, e como esses meios foram potencializados com a internet e os avanços tecnológicos, elevando o poder da comunicação como forma de gerenciar comportamentos sociais e de consumo.

Como o marketing online se tornou um instrumento de controle e de que modo isso afeta o comportamento social? Qual o grau da exposição dos indivíduos e de seus dados privados na rede? É possível mapear as novas tecnologias e sistemas regulatórios e ter ideia de sua amplitude, mas será que isso é suficiente para compreender toda a força da onda da vigilância?

Este artigo relata as evoluções dos dispositivos de vigilância — em especial, os tecnológicos associados à comunicação e à internet — e sua capacidade de desencadear desdobramentos que impactam na construção do modelo de sociedade distópica que estamos criando.

Artigo publicado na Revista Comum (Facha).

Marketing digital como instrumento de controle

Esta foi a minha apresentação realizada no Simpósio Nacional da ABCiber 2018, em Juiz de Fora, MG.

Nas mídias sociais, hoje em dia, qualquer pessoa pode postar os seus pensamentos. A capacidade de disseminar ideias não encontra-se mais limitada por uma infraestrutura centralizada e cara de broadcasting e mídias de massa. “Estaríamos vivendo a “Era de Ouro” da liberdade de expressão?” pergunta-se a tecno-socióloga Zeynep Tufekci, escritora e professora da Universidade da Carolina do Norte.  Nada disso! A coisa não é bem assim…

Atualmente, o limite da nossa liberdade de expressão vincula-se aos limites de nossa habilidade de captar a atenção das pessoas.  Só que esta capacidade está cada vez mais controlada por poucas plataformas e por seus algoritmos baseados em machine learning para espalhar a vigilância. O modelo de negócios dos gigantes da internet tem sido justamente captar a atenção de todas as pessoas, através de uma infraestrutura de vigilância massiva que nos faz clicar em anúncios automatizados.

Vamos abrir o olho… A situação em que vivemos é, na realidade, mais compatível com regimes autoritários, com a propaganda, a desinformação e a polarização, do que com o conceito democrático de liberdade de pensamento e expressão!

 

Luiz Agner: apresentação no ABCiber 2018.

Luiz Agner: Apresentação de artigo no simpósio ABCiber 2018.

Marketing digital e sociedade de controle

Este trabalho, realizado para o congresso ABCiber 2018, em parceria com minha aluna Juliana Hofstetter, procura analisar aspectos do modo de atuação do controle e do poder exercido pela vigilância na sociedade digital.

A discussão proposta envolve a ética, a segurança e o potencial de controle dos algoritmos online, que não só coletam dados dos usuários, mas os armazenam, combinam, analisam e criam padrões que revelam tendências a serem empregadas em estratégias digitais para gerar consumo e até influenciar decisões político-eleitorais.  

São discutidos empregos de robôs sociais durante o debate político brasileiro, assim como o escândalo do vazamento de dados de usuários na rede social Facebook.

Leia aqui o nosso resumo extendido!

Marketing digital e vigilância

É possível visualizar uma sociedade cada vez mais vinculada à tecnologia. A cada dia, o cotidiano, as interações e tomada de decisões estão cada vez mais integradas à internet e aos dispositivos tecnológicos, resultando em uma dependência difícil de se evitar.

Quando se debate o tema da vigilância é possível que a perda de privacidade seja a primeira coisa a ser relacionada como enunciado central. Porém, há muito mais a ser compreendido. A vigilância e o controle sempre existiram, bem como os investimentos em poder que articulam sujeito e sociedade, seja nas sociedades disciplinares de Foucault (2016), seja nas sociedades de controle de Deleuze (1992).

A atuação e ampliação da vigilância no contexto da cultura digital tornou a absorção de dados a principal prática responsável por gerenciar e influenciar comportamentos sociais e de consumo. A partir disso, com base nos aspectos ‘líquidos’ das sociedades atuais propostas por Bauman (2012), é possível notar que as possibilidades foram pluralizadas pela internet e o espaço virtual proporcionou aos usuários acesso livre às notícias, maior liberdade de escolha, estreitamento de relações interpessoais e uma descentralização de informações, fazendo com que novas articulações de vigilância pudessem atuar. É importante considerar, em primeiro lugar, as motivações que conduzem as pessoas a contribuir em sua própria vigilância, e o segundo, como isso alimenta as relações de consumo.

Apresentação em parceria com a ex-aluna da Facha, Juliana Hofstetter.
Leia aqui o artigo completo para o 2. tRec – Simpósio Nacional sobre Transformações na Retórica do Consumo.

Vigilância e controle na sociedade digital

Fico sempre superfeliz quando meus alunos e orientandos de TCC fazem um excelente trabalho e são merecedores da nota máxima (dez, com louvor!). É o caso da Juliana Hofstetter,  do curso de Comunicação Social/ Publicidade e Propaganda da Facha.

O  trabalho da Juliana teve como objetivo, em suas palavras,  “contextualizar as consequências do controle e da vigilância digital que dominam a sociedade contemporânea, apresentando, através de uma abordagem integrada de diversos autores, a construção, manutenção e transformação dos dispositivos de poder a que os indivíduos foram submetidos e como esses meios foram potencializados com a internet e os avanços tecnológicos, elevando o poder da comunicação como forma de gerenciar comportamentos sociais e de consumo.”

Segundo ela, “o advento da cultura digital, os acessos ao mundo online, sejam para compras, pesquisas ou redes sociais, permitiram que a abrangência da vigilância se estendesse a todos os campos da vida social, produzindo consequências, para o bem e para o mal.”

Conforme diz a Juliana em sua monografia, “por um lado, os serviços digitais oferecidos são úteis e gratuitos – redes sociais, contas de e-mails, mecanismos de busca, navegadores, gps, e muitos outros – representando ferramentas facilitadoras do dia a dia. Mas, por outro, absorvem dados pessoais e comportamentais através do sistema de inteligência artificial, executados por algoritmos que regem as estratégias de marketing no ciberespaço, com o objetivo de gerar consumo e influenciar decisões.”

Baseada em Foucault,  Deleuze, Bruno, Lyon e Bauman, a pesquisa (que não é sobre UX nem AI mas sobre coisas que certamente as influenciam) descortina toda a atuação e ampliação da vigilância no contexto da cultura digital, dos algoritmos do Google, passando pelo remarketing e chegando nos social bots que infestam as nossas redes sociais com objetivos de manipulação política ou ideológica muitas vezes inconfessáveis.

Leia aqui na íntegra a monografia da Juliana.

Christian Bernard, Luiz Agner, Juliana Hofstetter e Sandro Torres (banca de defesa de TCC na Facha Botafogo).