SÃO JOSÉ, CALIFÓRNIA. – O argumento a favor dos modelos de base fechada vem de algumas vagas preocupações de que algum dia, a tecnologia de modelo de linguagem grande (LLM) de código aberto pode ser muito perigosa nas mãos erradas, disse Jim Zemlin, diretor executivo da The Linux Foundation no AI.dev inaugural da organização. conferência aqui.
“Hoje, infelizmente, estamos começando a ver uma tendência de afastamento da abertura na IA generativa e em direção a modelos de base mais fechados que só são acessíveis por meio de APIs”, disse Zemlin em seu discurso de abertura. “Acho os argumentos muito vagos e pouco convincentes.”
O pano de fundo? As notícias da União Europeia sobre as primeiras regulamentações de IA. LLMs de código aberto foram aprovados. É um alívio, já que a versão original desta lei teria regulamentado rigorosamente os modelos fundamentais, incluindo modelos de código aberto. Após a reação negativa, a UE omitiu as restrições rigorosas e adotou uma abordagem mais indiferente.
O texto completo ainda está em sigilo. Outros organismos reguladores estudarão a lei atentamente para orientação, dando alguma esperança de que os países individuais possam tomar conhecimento e reconhecer porque é que os LLMs de código aberto servem como uma abordagem mais segura do que fechar a inovação aberta.
Mistral, o LLM de código aberto, recebeu a notícia e seguiu em frente. Composta por uma equipe de tecnólogos da OpenAI e do Google, a Mistral lançou seu LLM de código aberto logo após a notícia da UE. Para completar, a empresa também arrecadou impressionantes US$ 415 milhões.
É irônico. Grande parte da tecnologia de modelos de linguagem grande de IA generativa evolui a partir de tecnologias de código aberto. O software de código aberto permite a construção de modelos básicos e modelos de aprendizado de máquina. A tecnologia LLM resulta de comunidades como PyTorch, o pacote Python, conjuntos de dados abertos e pesquisas acadêmicas.
Zemlin disse que mais perigos advêm do bloqueio da inovação aberta. As restrições à abertura tendem a beneficiar um pequeno conjunto de titulares.
E os maus atores irão ignorar as proibições, de qualquer maneira. O código aberto proporciona melhor privacidade e um mundo mais seguro. Como isso se relaciona com os LLMs? Um LLM de código aberto ou modelo de código aberto é transparente para que as pessoas possam encontrar vulnerabilidades, revisar os parâmetros e muito mais.
Você não obterá essa transparência de um LLM proprietário.
“Sabe, uma das coisas um pouco estranhas nos grandes modelos de linguagem é que não sabemos bem como eles realmente funcionam”, disse Zemlin. “E por não saber como eles realmente funcionam. É muito difícil conseguir o segundo atributo, que é a confiança, certo? Como sabemos quando as alucinações acontecem? Como sabemos de onde vêm os dados?”
Empresas se preocupam com a segurança GenAI
As empresas planejam investir em IA generativa. O que os impede é a segurança, disse Zemlin. Ele citou uma nova pesquisa da Linux Foundation.
“Quase todas as pessoas com quem conversamos disseram que é importante que a tecnologia usada para construir ferramentas generativas de IA e modelos básicos seja aberta e esteja alojada em organizações neutras com as quais possam contar por longos períodos de tempo para uma tarefa tão fundamental. tecnologia como esta”, disse Zemlin.
A transparência dá às pessoas nas empresas a confiança necessária para decisões e resultados de negócios.
Mas será que os LLMs de código aberto são uma ameaça tão grande assim? Para a humanidade, não. Para a grande tecnologia? Bem, isso depende de como você define código aberto.
YOUTUBE.COM/THENEWSTACK
A tecnologia avança rápido, não perca um episódio. Inscreva-se em nosso canal no YouTube para transmitir todos os nossos podcasts, entrevistas, demonstrações e muito mais.
SE INSCREVER
Alex Williams é fundador e editor da The New Stack. Ele é um jornalista de tecnologia de longa data que trabalhou no TechCrunch, SiliconAngle e no que hoje é conhecido como ReadWrite. Alex é jornalista desde o final dos anos 1980, começando no…
Este site utiliza cookies para melhorar sua experiência de navegação. Ao continuar, você concorda com o uso de cookies. Para mais informações, consulte nossa Política de Privacidade.
Funcional
Sempre ativo
O armazenamento ou acesso técnico é estritamente necessário para a finalidade legítima de permitir a utilização de um serviço específico explicitamente solicitado pelo assinante ou utilizador, ou com a finalidade exclusiva de efetuar a transmissão de uma comunicação através de uma rede de comunicações eletrónicas.
Preferências
O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenar preferências que não são solicitadas pelo assinante ou usuário.
Estatísticas
O armazenamento ou acesso técnico que é usado exclusivamente para fins estatísticos.O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anônimos. Sem uma intimação, conformidade voluntária por parte de seu provedor de serviços de Internet ou registros adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
Marketing
O armazenamento ou acesso técnico é necessário para criar perfis de usuário para enviar publicidade ou para rastrear o usuário em um site ou em vários sites para fins de marketing semelhantes.