Os três principais problemas de privacidade na IA – exposição de avisos, falta de privacidade em modelos de IA personalizados, uso de dados privados para treinar sistemas de IA.
Aprenda as três questões mais importantes de proteção de dados no campo da inteligência artificial (IA) neste artigo. Saiba como os dados pessoais são usados ao usar sistemas de IA e os riscos de privacidade que isso representa. Leia também como empresas e plataformas como ChatGPT lidam com violações de dados e como redes de infraestrutura descentralizadas podem permitir o controle de dados pessoais. O artigo foi escrito por Chris Were, CEO da Verida, uma rede descentralizada de dados e identidade.
Os três principais problemas de privacidade na IA – exposição de avisos, falta de privacidade em modelos de IA personalizados, uso de dados privados para treinar sistemas de IA.
A IA (Inteligência Artificial) gerou um entusiasmo frenético entre consumidores e empresas - impulsionado pela crença de que LLMs (Large Language Models) e ferramentas como ChatGPT transformarão a forma como estudamos, trabalhamos e vivemos. No entanto, existem preocupações com a privacidade, uma vez que muitos utilizadores não consideram como as suas informações pessoais são utilizadas e que impacto isso pode ter na sua privacidade.
Houve inúmeros exemplos de violações de dados de IA. Em março de 2023, a OpenAI colocou temporariamente o ChatGPT off-line depois que um bug “significativo” fez com que os usuários pudessem ver o histórico de conversas de estranhos. O mesmo erro resultou na disponibilização pública de informações de pagamento dos assinantes, incluindo nomes, endereços de e-mail e números parciais de cartão de crédito.
Em setembro de 2023, 38 terabytes de dados da Microsoft foram publicados acidentalmente por um funcionário, fazendo com que especialistas em segurança cibernética alertassem que os invasores poderiam injetar código malicioso em modelos de IA. Os pesquisadores também conseguiram manipular sistemas de IA para revelar registros confidenciais. Estas violações de dados destacam os desafios que a IA deve superar para se tornar uma força confiável nas nossas vidas.
Outro problema é a falta de transparência nos sistemas de IA. Gemini, o chatbot do Google, admite abertamente que todas as conversas são revisadas por revisores humanos. Existe a preocupação de que as informações inseridas nos sistemas de IA possam ser reaproveitadas e distribuídas a um público mais amplo. Empresas como a OpenAI já enfrentam vários processos judiciais alegando que seus chatbots foram treinados em material protegido por direitos autorais.
Outra questão de privacidade é que os modelos de IA personalizados treinados pelas organizações não são totalmente privados quando existem em plataformas como o ChatGPT. Não há como saber se os inputs estão a ser utilizados para treinar estes sistemas massivos ou se as informações pessoais poderão ser utilizadas em modelos futuros.
Outra preocupação é que dados privados sejam usados para treinar sistemas de IA. Existe o receio de que os sistemas de IA tenham derivado a sua inteligência de inúmeros websites. Para algumas destas fontes, pode-se argumentar que os proprietários destas informações tinham uma expectativa razoável de privacidade.
É importante notar que a IA já está a ter um forte impacto na nossa vida quotidiana. Muitas ferramentas e aplicativos que usamos todos os dias já são fortemente influenciados pela IA e reagem ao nosso comportamento. Isto apresenta oportunidades e riscos na área da proteção de dados.
Para proteger a privacidade na IA, a descentralização poderia desempenhar um papel importante. As redes descentralizadas de infra-estruturas físicas (DePINs) podem garantir que os utilizadores possam tirar pleno partido dos benefícios da IA sem comprometer a sua privacidade. As entradas criptografadas podem fornecer resultados mais pessoais, enquanto os LLMs de privacidade podem garantir que os usuários tenham controle total sobre seus dados em todos os momentos e estejam protegidos contra uso indevido.
No entanto, existe o risco de que os reguladores não consigam acompanhar a velocidade vertiginosa da indústria de IA. Portanto, os consumidores precisam proteger os seus próprios dados e monitorar como eles são usados. Também devem ser retiradas lições dos escândalos de protecção de dados dos últimos anos.
No geral, a IA terá um impacto indelével em todas as nossas vidas nos próximos anos. No entanto, é crucial que as questões de privacidade sejam abordadas para manter a confiança na tecnologia e, ao mesmo tempo, tirar o máximo partido dos seus benefícios.