Riscos da Inteligência Artificial: dilemas, desafios e pontos de atenção no uso da tecnologia
Artigo atualizado em 16 de fevereiro de 2024
É inegável que a inteligência artificial (IA) está revolucionando o mercado e o universo tecnológico. Porém, essa revolução também traz consigo alguns pontos de atenção e riscos da inteligência artificial que não podemos perder de vista na hora de utilizar essa ferramenta da melhor forma e aproveitar seus inúmeros benefícios. Conheça mais a seguir!
Consumo energético e IA sustentável: Até 2027, a IA consumirá a mesma quantidade de energia que a Argentina
Frequentemente, observamos a associação das IAs com expressões como “feras devoradoras insaciáveis de dados”. No entanto, pesquisas recentes revelam uma faceta adicional e igualmente voraz do “apetite” dessas tecnologias: seu elevado consumo energético.
Enquanto o público se encanta com as maravilhas dos chatbots e APIs, nos bastidores tecnológicos, a realidade é alimentada por uma infraestrutura de milhares de chips de alto desempenho. Estudos apontam que, nos próximos anos, o consumo energético desses sistemas poderá equiparar-se ao de países inteiros. Isso representa um grande risco que a inteligência artificial traz para o meio ambiente.
Um trabalho acadêmico revisado por diversos especialistas, divulgado no último trimestre do ano passado, traz estimativas preocupantes. Em um cenário moderado, é previsto que até 2027 os servidores de IA consumam entre 85 e 134 terawatts-hora (Twh) anualmente. Só para ilustrar, essa quantidade de energia é comparável ao consumo anual de países como Argentina, Países Baixos e Suécia, o que corresponde a cerca de 0,5% do consumo total de eletricidade no mundo.
Nesse sentido, o impacto deste consumo energético na emissão global de carbono é notável, variando conforme a origem da energia utilizada pelos data centers — se de fontes renováveis ou combustíveis fósseis.
Empresas de tecnologia devem considerar seu consumo energético — só em 2022, as big techs utilizaram mais de 1% da eletricidade do mundo
Em 2022, os data centers, que sustentam sistemas como a nuvem da Amazon e o motor de busca do Google, utilizaram cerca de 1 a 1,3% da eletricidade global. Este valor não inclui a energia consumida pela mineração de criptomoedas, responsável por um adicional de 0,4%.
Todavia, avaliar com precisão o consumo de energia das IAs é um desafio. Empresas como a OpenAI, referência global em IA generativa, divulgam poucos detalhes operacionais, incluindo a quantidade de chips especializados usados. Para estimar o consumo de eletricidade, pesquisadores analisam as vendas de servidores Nvidia A100, considerados o hardware predominante em 95% do mercado de IA.
A Nvidia se destaca na produção de hardware para IA, uma posição que parece se manter estável pelos próximos anos. Contudo, a competição no setor é acirrada e a escassez de chips Nvidia se tornou um obstáculo para o crescimento da IA. Com a corrida pela IA, vimos empresas de diferentes portes buscando adquirir esses componentes essenciais.
Especialistas da área sugerem que as empresas de tecnologia considerem o consumo energético ao desenvolverem novos hardwares e softwares de IA. Essa preocupação ambiental, entretanto, encontra obstáculos em um mercado focado em avanços rápidos e constantes.
Roberto Verdecchia, professor assistente no Laboratório de Tecnologias de Software da Universidade de Florença, argumenta que talvez seja necessário desacelerar o ritmo de inovação para implementar soluções mais sustentáveis. A prioridade não deve ser apenas aprimorar a precisão e a velocidade, mas também considerar o impacto ambiental dessas inovações.
Garbage in, garbage out: qualidade dos dados no treinamento de inteligências artificiais é imprescindível
O ditado “Garbage in, garbage out” (lixo dentro, lixo fora, em tradução literal, e abreviada como GIGO) em computação e IA ressalta a importância crítica da qualidade dos dados de entrada. Se os dados inseridos em um sistema são de baixa qualidade, os resultados produzidos seguirão a mesma tendência.
A qualidade dos dados é fundamental em IA, influenciando diretamente o desempenho, a precisão e a confiabilidade dos modelos. Dados confiáveis e precisos permitem que os modelos de IA façam previsões mais acuradas e gerem resultados mais fidedignos. Com isso, é possível aumentar a confiança dos usuários nas aplicações de IA e diminuir os riscos associados erroneamente a inteligência artificial.
Além disso, é crucial que os dados utilizados sejam livres de preconceitos, para evitar a replicação e amplificação de vieses na inteligência artificial e nos resultados gerados por ela. A atenção a esses detalhes é essencial para prevenir tratamentos injustos e discriminatórios contra grupos ou indivíduos específicos.
Um conjunto de dados diversificado e representativo melhora a capacidade de generalização dos modelos de IA, assegurando sua eficácia e relevância em uma ampla gama de contextos e para diferentes grupos de usuários. Portanto, manter a integridade dos dados é crucial para realizar o potencial completo dos sistemas de IA em termos de entrega de valor, promoção da inovação e garantia de resultados éticos e justos.
O que impacta a qualidade dos dados?
Os problemas comuns relacionados à qualidade dos dados incluem:
- Inconsistência: Diferenças nos dados entre diversos sistemas.
- Imprecisão: Erros decorrentes de falhas humanas, de sistema ou de transferência de dados.
- Incompletude: Ausência de dados por diversos motivos, como falha na coleta, perda na transferência ou exclusão acidental.
- Duplicação: Repetição de entradas de dados, provocando confusão e análises incorretas.
- Desatualização: Dados que se tornam obsoletos rapidamente, especialmente em setores dinâmicos.
- Irrelevância: Acúmulo de dados que não contribuem para análises eficientes.
- Desafios da segurança de dados
Em síntese, as ferramentas de IA democratizam o acesso a grandes conjuntos de dados. Seu uso permite que indivíduos e organizações encontrem insights e gerem conteúdo em resposta a inputs humanos quase em tempo real. Contudo, os princípios de proteção de dados, como a limitação de finalidade, a minimização de dados e o tratamento especial de dados sensíveis, permanecem fundamentais para mitigar os riscos da inteligência artificial.
A preocupação com a transparência dos dados já é uma realidade
Modelos como o ChatGPT já enfrentaram escrutínio de entidades reguladoras, como a Autoridade Italiana de Proteção de Dados, devido às normativas do GDPR. O desafio para reguladores e Chief Information Security Officers (CISOs) é compreender de forma clara quais dados foram utilizados no treinamento do LLM e como esses dados confidenciais são manuseados após o treinamento, bem como monitorar as entradas dos usuários.
O ChatGPT informa que foi treinado com uma ampla variedade de dados textuais da internet, mas assegura que não acessa informações pessoais dos usuários. Contudo, a falta de transparência sobre os dados de treinamento e a dificuldade em rastrear a proveniência dos dados representam desafios significativos.
As organizações enfrentam dificuldades em identificar exatamente quais dados possuem, de onde vieram e como garantir uma linhagem de dados auditável e confiável. Essa incerteza torna quase impossível afirmar com certeza que um conjunto de dados de treinamento não contém informações pessoais, aumentando o risco de vazamento acidental de dados sensíveis.
Portanto, a segurança dos dados em ambientes de IA é uma questão complexa e multifacetada, exigindo atenção contínua tanto dos desenvolvedores de IA quanto dos reguladores e profissionais de segurança da informação.