Como algumas das maiores empresas do planeta já usam inteligência artificial para monitorar conversas de funcionários
Nomes conhecidos como Nestlé, AstraZeneca e Walmart se valem da ferramenta para identificar “comportamentos nocivos” no ambiente de trabalho; especialistas veem risco
A vida real está cada vez mais parecida com a distopia de George Orwell. Com o surgimento da inteligência artificial, a história vem ganhando novos capítulos. Agora, as empresas deram mais um passo e estão utilizando IA para monitorar as conversas dos funcionários — em uma espécie de versão corporativa do Grande Irmão do clássico 1984.
A Aware, companhia especializada em uso da inteligência artificial para monitoramento de mensagens, revelou que grandes empresas estão usando sua tecnologia.
Entre os clientes da Aware estão nomes conhecidos, como Nestlé, AstraZeneca, Walmart, Delta, T-Mobile, Chevron e Starbucks.
A companhia de monitoramento informou que Walmart, T-Mobile, Chevron e Starbucks usam o software para risco de governança e conformidade. Esse tipo de trabalho representa cerca de 80% dos negócios da empresa.
A fiscalização de mensagens em ambiente de trabalho não é novidade e já era realizada através do e-mail. Porém, agora, ela é feita pela inteligência artificial e pode ser realizada em outras plataformas conhecidas no meio corporativo, como o Microsoft Teams.
O setor de vigilância de funcionários vem crescendo após a criação do ChatGPT, da OpenIA, em 2022, o que vem refletindo na receita da Aware.
Leia Também
Nos últimos cinco anos, a empresa registrou aumento médio de 150% ao ano na receita, de acordo com o cofundador e CEO da startup, Jeff Schumann.
- VEJA TAMBÉM: PODCAST TOUROS E URSOS - O ano das guerras, Trump rumo à Casa Branca e China mais fraca: o impacto nos mercados
Inteligência artificial para monitorar: como funciona a tecnologia da Aware
Para eliminar a necessidade de relatórios para entender a reação dos trabalhadores às políticas da empresa, o software da Aware realiza uma leitura do sentimento dos funcionários em tempo real.
Assim, os clientes conseguem ver como os funcionários de uma determinada faixa etária ou região estão respondendo a uma nova política corporativa ou campanha.
Os modelos de inteligência artificial da Aware também conseguem identificar bullying, assédio, discriminação, pornografia, nudez e outros comportamentos nocivos dentro do ambiente de trabalho.
Segundo o CEO, a ferramenta analítica da Aware não tem a capacidade de sinalizar nomes individuais de funcionários. Contudo, sua ferramenta separada, eDiscovery, consegue.
As informações da eDiscovery são repassadas em caso de ameaças extremas ou outros comportamentos de risco predeterminados pelo cliente.
Um representante da AstraZeneca afirmou que a empresa usa o software, mas não utiliza as análises para monitorar o sentimento ou a toxicidade.
Já a Delta disse à CNBC que usa as análises e eDiscovery da Aware para monitorar tendências e sentimentos. O intuito da empresa seria coletar feedback de funcionários e de outras partes interessadas.
Toda semelhança não é mera coincidência
A Aware não é a primeira empresa de Schumann que remete à obra de George Orwell. Em 2005, ele fundou a BigBrotherLite.com, que desenvolveu um software que “aprimorou a experiência de visualização digital e móvel” do reality show Big Brother.
Contudo, com a Aware, criada em 2017, Schumann foi além. Todos os anos, a empresa publica um relatório que agrega informações sobre milhões de mensagens enviadas através de grandes empresas. Em 2023, o número era de 6,5 milhões de registros.
“Ele está sempre monitorando o sentimento dos funcionários em tempo real e sempre monitorando a toxicidade em tempo real”, disse Schumann à CNBC.
Apesar de o CEO afirmar que a inteligência artificial não identifica nomes para proteger a privacidade, um estudo já comprovou que a medida não é eficaz.
Segundo uma pesquisa sobre privacidade de dados utilizando informações do Censo dos EUA de 1990, 87% dos norte-americanos podiam ser identificados apenas através do código postal, data de nascimento e sexo.
Segundo a diretora executiva do AI Now Institute da Universidade de Nova York, Amba Kak, a empresa está se baseando em uma “noção muito desatualizada” de que o anonimato é “uma solução mágica para resolver a questão da privacidade”.
Além disso, o tipo de modelo de inteligência artificial da Aware é capaz de fazer suposições precisas através de informações pessoais, como idioma, contexto, gírias e muito mais, de acordo com pesquisas recentes.
“Nenhuma empresa está em posição de dar quaisquer garantias sobre a privacidade e a segurança desses tipos de sistemas”, disse Kak. “Não há ninguém que possa dizer com franqueza que esses desafios estão resolvidos.”
VEJA TAMBÉM - Imposto de Renda 2024: descomplique a sua declaração com a ajuda do nosso Guia de IR totalmente gratuito.
Risco no ambiente de trabalho
Para além da questão da privacidade, Amba Kak vê prejuízo nas relações dentro do local de trabalho.
“Isso resulta em um efeito inibidor sobre o que as pessoas dizem”, disse Kak. “Essas são tanto questões de direitos dos trabalhadores quanto de privacidade.”
Já Jutta Williams, cofundadora da Humane Intelligence, organização sem fins lucrativos sobre responsabilidade de IA, informou que o monitoramento de mensagens por meio de inteligência artificial pode dificultar a possibilidade de defesa do trabalhador.
Em caso de demissões ou punições, a falta de acesso a todos os dados envolvidos impossibilita a defesa.
Williams ainda afirmou que o uso da inteligência artificial para vigilância de funcionários pode ser configurado como “crime de pensamento”.
“Isso é tratar as pessoas como inventário de uma forma que nunca vi”, afirmou à CNBC.
*Com informações da CNBC