Ética em produtos digitais

Compartilhe

Compartilhar no facebook
Compartilhar no google
Compartilhar no twitter
Compartilhar no linkedin

Estamos vivendo um momento de transição em que muitas áreas do conhecimento humano são impactadas pela revolução tecnológica.

Não é uma revolução linear, onde uma área é transformada após a outra, mas muitos mercados estão sendo, ao mesmo tempo, quebrados e reconstruídos.

O autor Rutger Bregman começa seu livro Utopia para Realistas mostrando como o mundo melhorou em diversos sentidos nas últimas décadas.

Embora ainda haja pessoas passando fome, mal nutridas, sem trabalho e sem uma casa para morar, de repente bilhões de pessoas tiveram acesso a renda e higiene básica e se tornaram mais inteligentes, saudáveis e até mesmo mais bonitas.

Em 1820, 84% da população mundial vivia na faixa de extrema pobreza (extrema pobreza significa viver com menos de USD$1,90 por dia).

Em 1981 essa porcentagem já tinha caído para 44% e atualmente está em torno de 10%. Aqui no Brasil, o número de brasileiros em situação de pobreza extrema subiu 11,2% entre 2016 e 2017, passando de 13,34 milhões para 14,83 milhões.

O Hans Rosling tem um vídeo maravilhoso que explica uma série de outros números e fatos importantes sobre o desenvolvimento humano, inclusive a queda da extrema pobreza no mundo inteiro.

artigozin

Hans Rosling. Não existe mostrar dados de uma maneira mais divertida que ele.

Mas nem dá tempo para comemorar essa evolução ou entender como podemos continuar melhorando, pois já temos que lidar com outros assuntos mais complexos.

A revolução industrial modificou não apenas a forma com que criamos e produzimos produtos físicos, mas também como nós consumimos. Hoje, mais do que nunca, comemos e compramos coisas que não precisamos.

O marketing gera desejos desnecessários e dezenas de síndromes. As pessoas sentem falta de coisas que elas nunca tiveram ― por se compararem com as outras, tendo uma visão unilateral das redes sociais ― ou não conseguem viver o presente sem estar com um smartphone no bolso.

A internet e a web dão acesso à informação para as massas, ajudando pessoas a mudarem seus comportamentos para melhor ou para pior. O consumo não controlado de informação ― de todas as qualidades e gostos ― ajuda a polarizar sociedades, direcionando grande parte das pessoas para bolhas digitais, aumentando o preconceito e ceifando o diálogo.

Além disso, nós simplesmente quebramos os limites do que é trabalho e vida pessoal. Seu cliente está no seu WhatsApp misturado com os grupos de família.

Uma mesa fixa no trabalho pode não ser mais necessária, pois o trabalho remoto está virando realidade. Antes, com uma divisão clara de horários de trabalhos, ficava mais simples de controlar quando o trabalho acabava e a vida pessoal começava.

Em seu livro Sociedade do Cansaço, Byng-Chul Han diz que esse excesso de trabalho tem criado o que ele chama de sociedade do desempenho, onde o indivíduo se entrega ao trabalho exaustivo por conta própria ― não por uma mão pesada da empresa, mas por não controlar seus próprios limites.

 

“Assim, o sujeito de desempenho se entrega à liberdade coercitiva ou à livre coerção de maximizar o desempenho[13]. O excesso de trabalho e desempenho agudiza-se numa autoexploração. Essa é mais eficiente que uma exploração do outro, pois caminha de mãos dadas com o sentimento de liberdade. O explorador é ao mesmo tempo o explorado.” Byung-Chul Han, Sociedade do cansaço – Editora Vozes.

Desde a criação da Web, há 31 anos atrás, temos uma sociedade mais conectada e informada, que presenciou a evolução de como nos comunicamos e expressamos nossa opinião, como nos relacionamos na nossa vida familiar e também nos negócios.

Mas, obviamente, como todo bom ser humano, da mesma forma que usamos uma boa ferramenta para o bem, usamos também para o mal. É enorme a nossa capacidade de inventar maneiras de usar a web para iniciativas ruins.

Em um artigo da Wired, o próprio Tim Berners-Lee destaca três principais fontes de disfunções que afetam a Web hoje:

  • Intenções deliberadas e maliciosas, como ataques por hackers patrocinados pelo Estado, comportamentos criminosos e assédio online;
  • Sistemas que criam incentivos perversos sacrificando o valor do usuário, como modelos de receita baseados em anúncios, com recompensas comerciais a quem faz clickbait e disseminação viral de informações erradas;
  • Consequências negativas não intencionais, como tons de polarização e insulto, além de [falta de] qualidade de discursos online;

O Tim Berners-Lee ainda diz que o primeiro ponto é basicamente impossível de ser erradicado completamente, mas há maneiras de criar leis e códigos de conduta que possam minimizar esse tipo de comportamento, assim como fazíamos quando todos estávamos totalmente offline.

Para lidar com o  segundo ponto, é necessário que sejam criadas – pelas pessoas (e o mercado) – novas formas de mitigar esse tipo de incentivo perverso.

E o terceiro ponto exige um nível maior de pesquisa para melhorar modelos já existentes e até criar novos possíveis modelos.

Vários outros tipos de problemas que nunca lidamos antes já estão surgindo e causando polêmica. Veja o caso dos cientistas Chineses que alegam que eles foram os criadores  do primeiro bebê modificado geneticamente.

Se antes as discussões mais polêmicas eram aborto e uso de células tronco, isso mudou para assuntos como a possibilidade de pais poderem “construir” seu bebê, escolhendo características físicas como cor do cabelo, cor dos olhos, o quão atlético ele será, se vai ter um cérebro mais potente e várias outras características.

Veja que são problemas sociais e não puramente de tecnologia. São problemas sobre como o Estado se relaciona com as pessoas.

Como instituições e centralizadores de poder e de informação lidam com o mercado e com as pessoas. Além de tocar em pontos sensíveis sobre como as pessoas lidam com as outras e principalmente consigo mesmo.

Hoje a tecnologia expõe a natureza humana como nada antes na história. Estamos lidando com novas situações que ninguém sabe qual é a resposta correta ― se é que existe uma.

É preciso entender que a tecnologia está ultrapassando limites que são difíceis de identificar se quebram o status-quo do certo e lícito e do errado e ilícito.

O que Produtos Digitais têm a ver com Ética?

Se uma instituição ou qualquer iniciativa pode influenciar as decisões que as pessoas, outras instituições e também a sociedade tomam sobre seus comportamentos corriqueiros, há uma responsabilidade ética envolvida.

Os Produtos Digitais que construímos podem influenciar as pessoas e instituições a tomarem decisões certas ou erradas, lícitas ou ilícitas.

Nossos produtos podem influenciar políticas públicas ou criar debates que influenciam a vida habitual das pessoas, impactando seu modo de viver, trabalhar e se relacionar.

Quando criamos um meio pelo qual as pessoas interagem, elas nos dão seu tempo de atenção para que possamos ajudá-las a resolver um problema específico ou a sanar um desejo ou necessidade.

Por isso é importante que o PM e o time responsável pelo Produto tenham em mente não apenas a proposta de valor do produto e da empresa, mas também os princípios de éticos de conduta que fundamentam as decisões tomadas pelo board, diretoria, stakeholders e os outros times da empresa.

Suponha que você é PM de um aplicativo de GPS que tem um viés muito forte de relacionamento social, ou seja, os usuários podem compartilhar informações essenciais sobre o trânsito.

Tendo uma quantidade grande de usuários ativos, o serviço consegue ter uma cobertura enorme das vias e o status do trânsito em tempo real, onde os usuários podem compartilhar os motivos que estão afetando negativamente o percurso.

O dilema: o trânsito de uma rua/avenida está sendo negativamente impactado por causa de uma blitz/parada policial, que está fiscalizando motoristas que dirigem bêbados. Se os usuários compartilharem no aplicativo essa informação, seu serviço estará sendo usado para ajudar motoristas infratores a evitarem a fiscalização policial.

Por outro lado, se você cria um jeito de filtrar esse tipo de informação, você estará, de certa forma, controlando (censurando?) as informações que os usuários podem ou não podem publicar na plataforma.

Um exemplo bastante novo: uma empresa chamada Clearview AI mantém um sistema de mais de três bilhões de fotos de pessoas de todo o mundo, com o nome, número de telefone e as vezes até seu endereço.

As fotos e as informações dessas pessoas foram captadas a partir dos seus perfis de redes sociais, por meio de crawler criado pela Clearview AI. Com essas fotos e informações catalogadas, eles criaram uma busca de reconhecimento facial e então vendeu o acesso à essa busca para mais de 200 empresas.

Dentre as empresas que usaram o sistema da Clearview estão desde empresas do varejo americano como Macy’s, Walmart e Best Buy, passando por instituições financeiras como Bank of America, Wells Fargo e Coinbase, indo até Casa Branca, Polícia de Toronto, FBI, Interpol, CIA e Polícia de Chicago.

Agora há processos em andamento contra a Clearview AI, alegando que eles ameaçaram liberdade civil.

Por que esse produto é anti-ético? Por que ele capturou fotos que estão abertas nas redes sociais? Mas o Google já faz isso. Por que ele catalogou informações com essas fotos? Mas o Google e o Facebook já fazem isso.

Ou por que eles venderam esse acesso a instituições e empresas? Será que é quebra de privacidade? Mas de novo: as fotos já estavam acessíveis manualmente por qualquer pessoa.

Agora, tendo uma visão mais macro e complexa: para que as empresas que contratam a Clearview estão usando seus serviços? Os motivos são claros? Como teremos certeza de que as empresas que usam seus serviços estão usando de forma que não quebre nenhuma regra ou fira os direitos das pessoas? Empresas como a Clearview serão reguladas? Se sim, quais as restrições?

Geralmente, problemas com dados e reconhecimento facial sempre batem em motivos de privacidade.

Contudo, será que a sociedade entende quais os impactos do seu comportamento nas redes sociais e na web? Eles entendem amplamente a importância da privacidade no mundo digital?

Sinceramente, não acho que todo mundo leia os contratos de política de privacidade antes de usar um Produto Digital. Será que essa questão da privacidade não é um obstáculo para a inclusão digital?

Embora esteja falando um pouco da Clearview aqui, ela não é a primeira a ter esse tipo de tecnologia. Dezenas de empresas tem trabalhado longe dos holofotes exatamente para não ter a visibilidade que a Clearview está tendo.

A NEC, por exemplo, uma empresa de inovação e tecnologia, que desde antes da segunda guerra já fazia componentes e hardware para o Japão, tem trabalhado com diversos tipos de identificação biométrica desde 1970.

Ela começou com reconhecimento de digitais e hoje está presente em mais de 70 países, atendendo empresas de todos os tamanhos e portes, com reconhecimento facial, íris, palma da mão, digitais, voz etc.

artigozin02

História das tecnologias biométricos pela NEC

Embora a NEC esteja trabalhando com esse tipo de tecnologia há muito tempo, existem centenas de outras empresas como FaceFirst, Idemia, MorphoTrust ou Gemalto.

Até o Google, Facebook, Apple e outras grandes tem interesse nisso com suas próprias tecnologias.

Obviamente nós nunca ouviremos o nome de outras empresas desse mesmo segmento e, se não fosse o vazamento de dados da Clearview, não teríamos ouvido falar sobre ela também.

Isso tem um motivo: a tecnologia que elas usam é útil por várias razões ― que vão desde domesticação da tecnologia para a grande massa, até necessidades de segurança, espionagem, controle populacional etc.

Esse tipo de tecnologia sempre anda na nebulosidade exatamente por que são eticamente questionáveis.

Concluindo

Eu poderia citar uma série de outros exemplos (os mais fáceis incluem criptomoedas e compartilhamento/venda de dados) que criam um cenário cinza, em que não é fácil enxergar se uma situação é lícita ou ilícita, onde a responsabilidade de fazer algo anti-ético pode ou não ser compartilhada entre o Produto, a empresa e seus usuários. 

Por isso, é importante que nós, como Product Managers, tenhamos a responsabilidade de proteger os direitos de privacidade e de dados dos usuários ao construirmos nossos produtos.

Se o usuário é totalmente ignorante sobre os impactos negativos, se colocando numa posição de vítima involuntária, cabe a nós educá-lo, além de fazer um trabalho de prevenção da conduta ética.

Referências

https://amzn.to/2IebtIN

https://exame.abril.com.br/economia/pobreza-extrema-sobe-11-no-brasil-e-atinge-7-da-populacao/

https://abcnews.go.com/GMA/Technology/Story?id=2626668&page=1

https://www.theguardian.com/world/2018/nov/27/china-orders-inquiry-into-worlds-first-gene-edited-babies

https://pt.wikipedia.org/wiki/Incentivo_perverso

https://www.wired.com/story/tim-berners-lee-world-wide-web-anniversary/

http://info.cern.ch/Proposal.html

https://tecnoblog.net/327129/clearview-ai-ofereceu-app-de-reconhecimento-facial-para-200-empresas/

https://www.cbc.ca/news/technology/clearview-app-privacy-1.5447420

https://www.engadget.com/2020/02/27/clearview-ai-leak-businesses-facial-recognition/

 

https://amzn.to/2MX2MFD

https://amzn.to/2MX2MFD

https://amzn.to/2MX2MFD

 

Diego Eis

Diego Eis

Diego Eis atualmente trabalha como Head de Produtos Digitais na Sympla. Antes foi Diretor de Produtos Digitais na Jüssi. Já trabalhou em empresas como Neon Pagamentos e Easynvest, sempre com Produtos e Tecnologia. Escreveu o livro Gestão Moderna de Produtos Digitais (https://gestaomodernaprodutosdigitais.com/) e criou a PM Letter (http://pmletter.email/), a primeira Newsletter feita por e para Product Managers

Deixe um comentário

Categorias

Posts relacionados

Siga-nos

Baixe nosso e-book!

%d blogueiros gostam disto: