![As plataformas podem finalmente resolver a tensão da equipe de segurança entre desenvolvedores](https://optimuscloud.com.br/wp-content/uploads/2024/06/1719530525_As-plataformas-podem-finalmente-resolver-a-tensao-da-equipe-de-150x150.png)
As plataformas podem finalmente resolver a tensão da equipe de segurança entre desenvolvedores
27 de junho de 2024![Imagem estilizada de arte vetorial de um dublador masculino apresentado em rosa cercado por cópias de seu rosto flutuando no ar enquanto técnicos seguram microfones para gravá-lo.](https://optimuscloud.com.br/wp-content/uploads/2024/06/1719552125_O-modelo-de-deteccao-de-audio-AI-de-proxima-geracao-150x150.png)
O modelo de detecção de áudio AI de próxima geração da Resemble AI, Detect-2B, é 94% preciso
28 de junho de 2024PARIS – O cofundador do PyTorch disse aos desenvolvedores de IA de código aberto na semana passada que o projeto havia considerado uma integração mais estreita entre a estrutura de IA e linguagens incluindo Rust e JavaScript, mas acabou decidindo contra isso.
Soumith Chintala falou durante um bate-papo na conferência de desenvolvimento de IA da Linux Foundation aqui, durante a qual ele descreveu o espírito por trás da estrutura. “O PyTorch é como um hacker típico, que usa qualquer atalho para obter um bom desempenho para os usuários. Somos muito pragmáticos.”
Questionado sobre o roteiro futuro do PyTorch, ele disse: “As ferramentas precisam evoluir, mas não precisam evoluir com muita frequência”.
Quando se trata do espaço de IA, ele disse: “Acho que estamos vendo novas ferramentas a cada seis ou sete anos ou mais”. Portanto, “eu nem espero que o PyTorch tenha necessidade de pensar no 2.0 tão cedo. Mas continuamos olhando e a paisagem continua mudando.”
Após o lançamento do ChatGPT, disse ele, os transformadores eram esmagadoramente o método dominante para fazer IA e talvez “isso seja algo que precisamos pensar com cuidado”. Mas, em grande parte, ainda estamos muito felizes.”
Integração com outros idiomas?
Uma coisa que claramente não está na agenda é uma integração mais estreita com outras linguagens além do Python.
Em resposta a uma pergunta do público: “Teremos PyTorch para Rust ou JavaScript?” Sua resposta foi “PyTorch tem um ‘Py’, então, oficialmente, não.”
Chintala acrescentou que a equipe já pensou nisso. Mas ele continuou, o problema sempre vem com os compiladores. “Você tem que analisar o código do frontend e escrever um frontend que consome o código do usuário para vários idiomas foi um grande avanço.
“Portanto, do ponto de vista de priorização e pesquisa, decidimos não, mas na verdade não temos animosidade em relação ao Rust ou JavaScript.”
Docker e WebGPU
Em outra parte do evento, o Docker anunciou que estava visualizando o suporte para WebGPU no Docker, eliminando a necessidade de construir imagens Docker especificamente para os drivers proprietários de cada fornecedor de GPU.
O CTO da Docker, baseado no Reino Unido, Justin Cormack, disse que quando a empresa foi lançada, o cenário de hardware do desenvolvedor era “bastante uniforme”. Você quase poderia enviar seu laptop para produção.”
Mas a explosão da IA e sua dependência de GPUs mudaram isso, continuou ele. “Estamos vendo uma enorme disseminação de diferentes tipos de aceleradores, em máquinas de desenvolvimento, em máquinas de ponta, em produção”, acrescentou Cormack. “Há uma enorme variedade de coisas.”
Isso tornou “um momento muito divertido para o hardware”, disse ele, mas inevitavelmente os desenvolvedores “estão nos perguntando sobre o uso da GPU”. O ideal era uma abstração portátil com Docker que estivesse disponível em qualquer lugar. E a resposta, disse ele, veio na forma do WebGPU, a API apoiada pelo World Wide Web Consortium (W3C) para realizar operações em uma GPU.
“WebGPU apareceu como algo que já existe, já está disponível na maioria dos navegadores em todas as GPUs de consumo e dispositivos móveis, e tem um ecossistema.” Mas, acrescentou, não funciona apenas no navegador, pois possui definições padrão que podem ser usadas de forma portável e como uma pilha moderna de alto desempenho, em comparação com WebGL.
Cormack disse que estava enviando suporte WebGPU como uma prévia no Docker Desktop, mas também o disponibilizaria para Docker Engine no futuro e para outras plataformas.
“O que estamos trabalhando é realmente fornecer imagens de contêiner com vários backends integrados”, disse Cormack ao The New Stack.
Em primeiro lugar, isso deve facilitar a vida dos desenvolvedores que podem ter pouca escolha em relação à GPU em sua máquina de desenvolvimento. Mas, em última análise, isso poderia suavizar as coisas quando os aplicativos entrarem em produção.
“O próximo passo para nós é mostrar como é esse caminho”, disse ele. “Então você tem esses modelos pré-preparados que são executados localmente e em produção.”
Maior acesso e abertura
Cormack disse que a empresa também está analisando como funciona com os modelos Llama: “Estamos muito entusiasmados em trabalhar juntos com essas comunidades mais amplas e trazer mais acesso às GPUs para todos que estão desenvolvendo e trabalhando no limite em diferentes ambientes e melhorando a acessibilidade. e facilidade de uso para o ecossistema.”
Embora a conferência tenha destacado o potencial da IA de código aberto, tanto para aumentar o acesso à tecnologia de IA como para trazer transparência a um mercado que poderia ser dominado pelas grandes tecnologias, também abordou preocupações sobre a “lavagem aberta”.
O diretor executivo da Linux Foundation AI e Data Foundation, Ibrahim Haddad, estreou uma ferramenta para permitir que criadores de modelos de IA – e usuários finais – avaliem o quão aberto um modelo realmente é.
O site isitopen.AI é baseado no Model Openness Framework desenvolvido pela fundação. Isso divide os modelos em 17 componentes diferentes, abrangendo código, ferramentas, dados e documentação.
Os modelos são classificados em três classes.
- Turma I – Ciência Aberta cobre toda a gama de componentes, com todos os artefatos lançados, incluindo conjuntos de dados de treinamento. Isso torna o modelo totalmente reproduzível.
- Classe II – Ferramental Aberto cobre o conjunto completo de código, além dos principais conjuntos de dados.
- O degrau inferior, Classe III – Modelo Abertosignifica que o núcleo do modelo, incluindo arquitetura, parâmetros e documentação básica, é lançado sob licenças abertas.
Haddad disse que a complexidade da IA em comparação com o código tradicional significa que uma abordagem binária à abertura é difícil de manter, mas é melhor ter uma escala móvel de transparência do que nenhuma.
De forma mais prática, a ferramenta e a estrutura significavam que os desenvolvedores e as empresas que procuravam trabalhar com modelos saberiam exatamente como um determinado modelo se encaixava em suas próprias estruturas ou processos internos. Isso também significa que os desenvolvedores de modelos seriam mais claros quanto ao seu próprio status – e não usariam licenças inadequadas. Notavelmente, nenhum dos modelos analisados até agora alcançou algo superior ao status de Classe III.
O post PyTorch, Docker e AI Openness Highlight AI_dev Europe apareceu pela primeira vez em The New Stack.