Dá para gerenciar perigo se empresas tomarem precauções de segurança, segundo Team8, empresa cibernética de Israel
Uso do ChatGPT torna empresas suscetíveis a vazamentos de segredos corporativos e ações judiciais. Este é o alerta dado pelo relatório da Team8, empresa de capital de risco com sede em Israel. Mas documento acrescentou que dá para gerenciar perigo dos chabots se empresas tomarem precauções de segurança.
O temor é que hackers possam explorar chatbots – seja da OpenAI e outros lançados depois dele – para acessar informações corporativas sigilosas ou armar contra empresas. Também há preocupações de que empresas de IA usem informações confidenciais “alimentadas” nos chatbots, por meio dos comandos de texto, no futuro.
Grandes empresas de tecnologia, entre elas Microsoft e Alphabet (dona do Google), correm para adicionar capacidades de IA generativas – tecnologia que “alimenta” chatbots como ChatGPT – aos seus aplicativos e mecanismos de busca.
Para isso, treinam seus modelos de IA em dados extraídos da Internet, por meio do qual oferecem aos usuários uma espécie de balcão único para suas consultas. E caso coloquem dados confidenciais ou privados nessas ferramentas, será muito difícil apagar informações, alerta relatório.
“Uso corporativo de Ia generativa pode resultar em acesso e processamento de informações confidenciais, propriedade intelectual, código-fonte, segredos comerciais e outros dados, por meio de entrada direta do usuário ou da API [conjunto de padrões numa interface], incluindo clientes ou informações privadas e informações confidenciais.” – Relatório da Team8
O relatório da Team8 enfatizou que consultas ao chatbot não estão sendo alimentadas em LLM (sigla em inglês para “Grandes Modelos de Linguagem”) para treinar IA. Trecho vai contra relatórios recentes, que tinha apontado que tais prompts poderiam ser vistos por outras pessoas. “No entanto, isso não vale, necessariamente, para treinamento de versões futuras desses modelos”, acrescentou o documento.
O documento sinalizou outras questões de risco na integração de ferramentas com IA generativa. Por exemplo, a Microsoft incorporou alguns recursos de chatbot de IA em seu mecanismo de pesquisa Bing e nas ferramentas do Microsoft 365. “Do lado do usuário, aplicativos de terceiros que utilizam API com IA generativa, se comprometidos, podem fornecer acesso a e-mail e navegador, o que permitiria ao invasor executar ações em nome de um usuário”, explicou o relatório.
Também existe “risco médio” de que uso de IA generativa aumente discriminação, prejudique reputação empresas ou as exponha a ações legais por questões de direitos autorais, de acordo com o relatório.
Ann Johnson, vice-presidente corporativa da Microsoft, esteve envolvida na elaboração do relatório. A empresa de Bill Gates investiu bilhões de dólares na Open AI, desenvolvedora do ChatGPT. “A Microsoft incentiva a discussão transparente sobre a evolução dos riscos cibernéticos nas comunidades de segurança e IA”, disse um porta-voz da Microsoft.
Dezenas de diretores de segurança da informação de outras empresas estadunidenses constam como colaboradores do relatório. Relatório do Team8 também foi endossado por Michael Rogers, ex-chefe da Agência de Segurança Nacional dos EUA e do Comando Cibernético dos EUA.
Fonte: Olhar Digital