Seja por meio do atendimento automático de uma empresa, em algum game ou, até mesmo, do ChatGPT – que fez bastante sucesso do final de 2022 para cá – a maioria das pessoas já teve algum contato com chatbots. A ferramenta tem sido utilizada, principalmente, por empresas, para automatizar o atendimento ao cliente.
De acordo com o Mapa do Ecossistema Brasileiro de Bots, até agosto do ano passado, o Brasil tinha 58 mil chatbots ativos. Ao todo, 94 empresas entrevistadas pelo estudo detêm 317 mil bots desenvolvidos até a data da divulgação.
Projetado para simular conversas humanas e interagir com os usuários de maneira natural, a ferramenta utiliza técnicas de processamento de linguagem e aprendizado para compreender as perguntas e fornecer respostas relevantes.
E o uso vai para além do empresarial, e o sucesso do ChatGPT é o exemplo perfeito disso. Em menos de cinco dias após a sua popularização, em novembro de 2022, a tecnologia conquistou a marca de um milhão de usuários, e segue sendo vista como um potencial revolucionário para diversos setores da informação, criatividade e gestão.
Se por um lado os chatbots com IA reúnem uma porção de vantagens, como estar disponível 24 horas por dia, capacidade de lidar com inúmeras perguntas simultaneamente e possibilidade de aprendizado constante, com base nas interações com os usuários, por outro, é fundamental estar ciente dos desafios e riscos envolvidos e adotar medidas adequadas para garantir a proteção dos sistemas e dos dados dos usuários.
Recentemente, o Google proibiu seus funcionários de compartilhar informações confidenciais ou sensíveis em chatbot, na intenção de evitar futuras crises. O receio vem das desvantagens que a tecnologia também coleciona. Entre elas, a compreensão limitada é um alerta, já que a IA pode dar respostas erradas, por ter dificuldade em entender certas nuances na linguagem.
Entretanto, o que mais assusta é a própria possibilidade de vazamento dos dados, já que a tecnologia pode coletar todas as informações fornecidas pelos usuários. Outro risco que merece atenção é a possibilidade do bot fornecer informações e auxiliar cibercriminosos, por exemplo, na elaboração e aprimoramento de scripts de ataques ou identificação de fragilidades em códigos.
Além disso, os chatbots de IA aprendem com grandes conjuntos de dados, e essas informações podem conter viés cultural, social ou de gênero. Por isso, a tecnologia pode ter um viés discriminatório, causando uma experiência negativa ao cliente.
Como lidar com esses prejuízos
Nenhuma dessas desvantagens altera o fato de que a tecnologia vem revolucionando o mercado, em inúmeros setores. E a notícia boa é que muitos desses prejuízos podem ser mitigados com um bom planejamento, treinamento adequado dos chatbots de IA, monitoramento contínuo e feedback dos usuários.
O uso deve ser feito com conscientização dos funcionários, por isso, é necessário monitorar o acesso e, se possível, subir uma instância exclusiva do chatbot para a organização, sempre deixando claro que os colaboradores não devem colocar informações confidenciais, tanto pessoais, quanto da própria empresa.
Portanto, a criação de regras e políticas específicas para trabalho com IA, a conscientização dos colaboradores sobre estas normas e monitoramento constante do que a IA está aprendendo, além da compreensão do retorno dos usuários, são meios de manutenção desses cuidados.
Os chatbots, se bem desenvolvidos e implementados com cuidado, seguindo as melhores práticas de segurança cibernética, têm o potencial de melhorar a segurança digital das empresas, basta que a companhia tenha processos maduros e bem definidos. Desta forma, as organizações irão conseguir enfrentar a evolução dessas tecnologias, principalmente se contarem com soluções para garantir a proteção dos sistemas e informações.
* Bruno Telles é COO da BugHunt, primeira plataforma brasileira de Bug Bounty, programa de recompensa por identificação de falhas.