![Como um programador construiu um FAQ interativo baseado em IA](https://optimuscloud.com.br/wp-content/uploads/2024/04/1713301204_Como-um-programador-construiu-um-FAQ-interativo-baseado-em-IA-150x150.jpg)
Como um programador construiu um FAQ interativo baseado em IA
16 de abril de 2024![Proxmox remove nó do cluster incluindo Ceph](https://optimuscloud.com.br/wp-content/uploads/2024/04/1713314647_Proxmox-remove-no-do-cluster-incluindo-Ceph-150x150.png)
Proxmox remove nó do cluster incluindo Ceph
16 de abril de 2024Houve apenas 218 anúncios de novos produtos ou serviços na conferência Google Cloud Next 2024 da semana passada em Las Vegas, boa parte deles projetados para uso do consumidor.
Por exemplo, o Gemini for Google Cloud agora oferece aos usuários ferramentas multimodais para integração de documentos de texto, vídeo, imagens e áudio em apresentações, permitindo que as pessoas sejam mais rápidas em serem produtivas e criativas. Este bot de última geração também atua como treinador de redação e codificação, designer assistente de criação, consultor especialista ou até mesmo analista de dados.
Assim, o Google Cloud Next 2024 trouxe alguns benefícios diários realistas para os consumidores. No entanto, esta conferência foi mais sobre infraestrutura empresarial do que qualquer outra coisa.
Hipercomputador AI e BigQuery
Dois desses principais anúncios de infraestrutura foram em torno do AI Hypercomputer (uma infraestrutura otimizada para carga de trabalho diferenciada de seus pares) e do Google BigQuery Data Canvas.
“AI Hypercomputer tem o catálogo de modelos mais amplo e profundo (permitindo acesso a modelos de código aberto próprios, de terceiros e prontos para empresas), todos construídos e otimizados”, disse o vice-presidente e analista-chefe do Gartner, Chirag Dekate, ao The New Stack. “Gemini for Google Cloud e Gemini for Workspace (que rodam em AI Hypercomputer) são diferenciados e agregam as inovações de infraestrutura e modelo Gemini; eles também ativam novos volantes de ecossistema e um ecossistema de agentes que dá vida a todas as inovações da GenAI no contexto empresarial, graças à ampla integração do ecossistema de parceiros.”
Quão importante é o avanço do BigQuery Data Canvas (agora integrado ao Gemini AI)?
“O BigQuery Data Canvas é um recurso diferenciado que permite às empresas criar estratégias de dados prontas para IA, envolvendo descoberta, transformação, consulta e visualização de dados usando linguagem natural”, disse Dekate. “Aqui está o principal impacto: usando o BigQuery Data Canvas, as empresas podem acelerar a criação de valor a partir de seu ecossistema de dados sem a necessidade de conjuntos de habilidades altamente especializadas. O BigQuery integrado ao Gemini permite que as empresas utilizem totalmente dados estruturados e estruturados que, quando combinados com o ecossistema mais amplo, criam uma vantagem disruptiva.”
Além de ser um item “obrigatório” para os desenvolvedores de nuvem, Dekate disse, “ele mostra como o Google pode aproveitar seu DNA de IA para criar experiências empresariais diferenciadas e oferecer as experiências ‘obrigatórias’ de amanhã, hoje”.
Assistentes de codificação de IA decolando em grande estilo
Até 2028, 75% dos engenheiros de software corporativos usarão assistentes de código de IA, muito acima dos menos de 10% no início de 2023, de acordo com o Gartner, Inc. Sessenta e três por cento das organizações estão atualmente testando, implantando ou já implantaram assistentes de código de IA , de acordo com uma pesquisa do Gartner com 598 entrevistados globais no terceiro trimestre de 2023.
Então aí está: uma tendência legítima de aplicativos de software. A resposta do Google a isso é o Gemini Code Assist, que evoluiu do Duet AI for Developers. O chatbot conversacional do Code Assist não apenas encontra o código que você está procurando, mas também oferece sugestões ponderadas sobre alternativas. Ele suporta mais de 20 linguagens de programação e mais estão sendo adicionadas ao longo do tempo.
“Gemini Code Assist é um dos principais assistentes de codificação que já testamos”, relatou Kai Du, Diretor de Engenharia da Turing, no site do Google. “Nossa experiência inicial tem sido muito promissora, com ganhos de produtividade de cerca de 33%. Estamos testando recursos mais novos agora, como indexação e depuração, que esperamos aumentar ainda mais a produtividade.”
Projetado para economizar dinheiro
Os CFOs vão querer verificar a possível economia de tempo e mão de obra como resultado da implantação de assistentes de codificação de IA.
“Calcular a economia de tempo na geração de código é um bom ponto de partida para começar a construir uma história de valor mais robusta”, disse Philip Walsh, analista principal sênior do Gartner, em um comunicado à mídia. “Para transmitir toda a história de valor empresarial para os assistentes de código de IA, os líderes de engenharia de software devem conectar os facilitadores de valor aos impactos e, em seguida, analisar o retorno geral para a organização.”
Os novos recursos atualmente em visualização privada no Gemini Code Assist incluem:
- Conhecimento total da base de código: isso permite que os desenvolvedores realizem alterações em grande escala em toda uma base de código, incluindo adição de novos recursos, atualização de dependências entre arquivos, ajuda com atualizações de versão e revisões abrangentes de código. Esse recurso é alimentado pelo modelo Gemini 1.5 Pro do Google, que oferece uma janela de contexto de 1 milhão de tokens, a maior do setor, disse o Google.
- Personalização de código: As empresas podem conectar suas bases de código privadas para adaptar o Gemini Code Assist para ajudar os desenvolvedores a fornecer geração de código sensível ao contexto. Além disso, o Google fornecerá conexões para que o Gemini Code Assist alcance vários repositórios de código-fonte, incluindo GitLab, GitHub e Bitbucket.
Outras notícias notáveis sobre infraestrutura
As notícias do Cloud Next também incluem:
- Google Kubernetes Engine (GKE) com Cloud TPU v5p: O GKE agora oferece suporte ao Cloud TPU v5p e ao serviço multihost TPU, permitindo implantação/gerenciamento mais eficiente de cargas de trabalho de IA em ambientes em contêineres.
- Disponibilidade geral do Cloud TPU v5p: Os aceleradores de aprendizado de máquina Cloud TPU v5p do Google tornaram-se disponíveis para o público geral, oferecendo melhor desempenho para cargas de trabalho de IA.
- Tipos de máquinas N4: Esses novos tipos de máquinas do Compute Engine são baseados em processadores Intel Xeon de 5ª geração e oferecem um equilíbrio entre desempenho e custo para cargas de trabalho de uso geral.
- Instâncias de megacomputação A3: Essas novas instâncias equipadas com GPUs Nvidia H100 oferecem o dobro da largura de banda de rede GPU a GPU das instâncias A3 anteriores, ideais para tarefas de computação de alto desempenho.
- Computação confidencial para VMs A3 (pré-visualização): No final deste ano, a Computação Confidencial estará disponível para a família A3 VM, aumentando a segurança para cargas de trabalho confidenciais em GPUs.
YOUTUBE.COM/THENEWSTACK
A tecnologia avança rápido, não perca um episódio. Inscreva-se em nosso canal no YouTube para transmitir todos os nossos podcasts, entrevistas, demonstrações e muito mais.
SE INSCREVER