![Como (e quando) usar um loop while em Python](https://optimuscloud.com.br/wp-content/uploads/2024/04/1712785444_Como-e-quando-usar-um-loop-while-em-Python-150x150.jpg)
Como (e quando) usar um loop while em Python
10 de abril de 2024![IA, LLMs e segurança: como lidar com as novas ameaças](https://optimuscloud.com.br/wp-content/uploads/2024/04/1712861044_IA-LLMs-e-seguranca-como-lidar-com-as-novas-ameacas-150x150.png)
IA, LLMs e segurança: como lidar com as novas ameaças
11 de abril de 2024O evento Cloud Next 2024 do Google acontecerá para 30.000 participantes em Las Vegas até 11 de abril, e isso significa muitas novas notícias focadas na nuvem sobre tudo, desde Gemini, o chatbot com tecnologia de IA do Google, até GenAI, DevOps e segurança.
Este evento foi o segundo Cloud Next presencial desde que o COVID-19 atingiu o mundo em 2019. Versões online do evento aconteceram em 2020, 2021 e 2022.
O CEO do Google Cloud, Thomas Kurian, e uma sucessão de seus tenentes subiram ao palco para mostrar sua dedicação contínua a todas as coisas relacionadas à IA na forma de várias novas ferramentas para desenvolvedores. Um em particular, Gemini Code Assist, não apenas encontra o código que você está procurando, mas também oferece sugestões ponderadas sobre alternativas.
Outras novas ferramentas e serviços do tipo IA que serão notícia nesta feira são o Duet AI para Gmail, uma expansão da IA generativa para a linha de produtos de segurança do Google e outras atualizações voltadas para empresas.
‘Redefinindo a nuvem para uma era nativa de IA’
“O Google está redefinindo a experiência da nuvem para uma era nativa de IA”, disse o vice-presidente e analista-chefe do Gartner, Chirag Dekate, ao The New Stack. “As empresas estão em uma espécie de jornada para construir fábricas de IA do futuro que transformem todos os seus processos e capacitem cada um de seus funcionários com o impulso GenAI.”
Esta era emergente de IA nativa é ideal para o Google de várias maneiras, disse Dekate.
“Como suas principais tecnologias, sistemas, capacidades e serviços foram originados para abordar a IA em todos os lugares, as experiências agora são nativas de muitos dos produtos e serviços do Google (da Pesquisa Google aos mapas e muito mais)”, disse Dekate.
Como resultado disso, disse Dekate, não é surpresa que o Google esteja criando uma capacidade diferenciada em seu portfólio de sistemas e serviços, incluindo:
- AI Hypercomputer (uma infraestrutura otimizada para carga de trabalho e diferenciada de seus pares);
- O catálogo de modelos mais amplo e profundo do setor (permitindo acesso a modelos de código aberto próprios, de terceiros e prontos para empresas, todos criados e otimizados no hipercomputador de IA);
- Experiências Gemini for Google Cloud e Gemini for Workspace diferenciadas e agregadoras de infraestrutura;
- Inovações do modelo Gemini que ativam novos volantes do ecossistema; e
- um ecossistema de agentes que dá vida a todas as inovações GenAI em um contexto empresarial, graças à ampla integração do ecossistema de parceiros.
O AI Hypercomputer combina TPUs, GPUs e software de IA do Google para fornecer vantagens de desempenho e custo para modelos de treinamento e serviço, disse o CEO Kurian. “Hoje, as principais empresas de IA e clientes do Google Cloud como Anthropic, AI21 Labs, Contextual AI, Essential AI e Mistral AI estão usando nossa infraestrutura”, disse ele.
O Google também anunciou a disponibilidade geral do TPU v5p, o mais recente acelerador de IA para treinamento e inferência, que tem quatro vezes o poder computacional de sua geração anterior, disse Kurian.
Novas melhorias no assistente de código
A revelação de grandes melhorias pelo Google para a ferramenta Gemini Code Assist, com tecnologia de IA, ganhou muita atenção dos desenvolvedores no primeiro dia do programa.
“Acho que as melhorias do Gemini Code Assist na versão 1.5 são as mais importantes para os desenvolvedores aprimorarem”, disse o analista principal da Forrester, Devin Dickerson, ao The New Stack. “As entradas multimodais e o suporte para entradas relativamente grandes em termos de linhas de código que podem ser analisadas podem ser úteis para desenvolvedores e equipes de desenvolvimento que desejam recomendações mais holísticas e conscientes da aplicação.”
No geral, qual a importância desses avanços para os desenvolvedores de nuvem?
“Acho que a expansão em termos de linhas de código (30K, de acordo com o anúncio durante a palestra) empurra a assistência de código na direção certa”, disse Dickerson. “À medida que essas ferramentas se tornam mais conscientes de conjuntos maiores de bases de código, bem como de preocupações em nível de sistema e de aplicativo, a proposta de valor aumentará, especialmente para casos de uso de modernização de aplicativos na empresa.”
Dekate, do Gartner, concordou. “Além da conclusão do código, o Gemini Code Assist fornece geração de código, permitindo maior produtividade, eficiência e precisão para desenvolvedores em todas as empresas”, disse ele. “Com profunda integração de terceiros e suporte para ecossistemas mais amplos, incluindo GitHub e GitLab, o Google Code Assist define o padrão na integração de ecossistemas neste segmento.
“Além disso, o Gemini Code Assist agora é desenvolvido pelo Gemini, onde os tamanhos de contexto maiores permitem experiências de desenvolvedor incomparáveis. O Google Code Assist deve ser selecionado por todas as empresas que buscam aproveitar o GenAI para acelerar a produtividade do desenvolvedor.”
Novidades no Google Cloud Platform
O Google Cloud Next também é o local usado para apresentar uma série de novos tipos de instâncias e aceleradores para aumentar o Google Cloud Platform. Além dos novos chips Axion personalizados baseados em Arm, a maioria dos anúncios foi sobre aceleradores de IA, sejam construídos pelo Google ou pela fabricante de chips de IA NVIDIA. Parece que todas as empresas estão a explorar a utilização da IA em muitos dos seus sistemas e, assim que colocam algo em funcionamento, querem naturalmente acelerá-lo.
A NVIDIA anunciou sua plataforma Blackwell há apenas algumas semanas, mas o Google não disponibilizará essas máquinas tão cedo. O suporte para NVIDIA HGX B200 de alto desempenho para cargas de trabalho de IA e HPC e GB200 NBL72 para treinamento de modelo de linguagem grande (LLM) chegará no início de 2025. Um fato interessante do Google na terça-feira: os servidores GB200 serão refrigerados a líquido, o que diz muito sobre a energia e o calor que se espera que produzam.
A NVIDIA disse que seus chips Blackwell não estarão disponíveis publicamente até o último trimestre deste ano.
YOUTUBE.COM/THENEWSTACK
A tecnologia avança rápido, não perca um episódio. Inscreva-se em nosso canal no YouTube para transmitir todos os nossos podcasts, entrevistas, demonstrações e muito mais.
SE INSCREVER