A Amazon Web Services fez jus à sua tradição na conferência anual de usuários Re:Invent na semana passada, com uma série de anúncios de processadores Graviton mais poderosos, bancos de dados, sem servidor e um ataque de IA e LLM. Esses anúncios mostram que ela está pronta para oferecer as fontes de computação de hardware necessárias para organizações que buscam descarregar operações na nuvem, tanto para aquelas com altas necessidades de escalonamento quanto para aquelas que são novas no campo de nativo da nuvem, LLM e aprendizado de máquina.
Ao mesmo tempo, dada a situação, os custos continuam a aumentar significativamente. A otimização de custos e os gastos menores com custos de nuvem tornaram-se temas predominantes em TI e DevOps hoje, é claro. É difícil encontrar alguém hoje em dia que não reclame do aumento dos custos. A Amazon compartilha essa culpa com o Google Cloud, o Azure e outros provedores de nuvem, é claro, à medida que os custos gerais da computação em nuvem continuam a aumentar (embora nem todos os custos, é claro). Neste contexto, a AWS não renunciou à sua visão da “nuvem em todos os lugares”, mas usou o local da conferência para comunicar estratégias de otimização de custos, ou conforme refletido no tema principal do CTO da Amazon Werner Vogels palestrante da conferência, o “arquiteto frugal”. Ele discutiu, além de vários outros tópicos, uma filosofia de redução de custos, análise e otimização.
Vogels também foi a um ponto mais sério ao discutir a sustentabilidade. Isto poderia descrever o estado de preocupação, especialmente no que diz respeito ao ambiente e às alterações climáticas. Mas no que diz respeito ao estado das emissões de CO2 para software da indústria, como Niki Manoledaki, engenheiro de software da Grafana, afirmou astutamente durante KubeCon + CloudNativeCon, medir a pegada de energia e carbono do software “não é muito difundido”.
Mas você tem que começar de algum lugar. No mínimo, alargar a observabilidade para avaliar o consumo de recursos pode ser considerado um ponto de partida. Novas ideias são urgentemente necessárias.
“A sustentabilidade é um trem de carga que vem em sua direção e do qual você não pode e não deve escapar. Além disso, as restrições auto-impostas em torno da construção de sistemas em termos de custos e sustentabilidade são uma ideia muito boa”, disse Vogels. “Tente acreditar que restrições, mesmo autoimpostas, podem trazer criatividade.”
Para as organizações que executam operações de varejo na nuvem, “precisamos entender que as margens de varejo são muito reduzidas e precisamos ter controle total sobre nossos custos a qualquer momento”, disse Vogels. “Agora, também sei que alguns de vocês estão literalmente executando centenas de aplicativos e às vezes é muito difícil entender realmente quais são as métricas” com as quais as organizações precisam se preocupar.”
myApplications, anunciado na semana passada, tem como objetivo oferecer mais visibilidade para a integridade, segurança e desempenho de aplicativos em ambientes de nuvem AWS. Com ele, há um aplicativo designado para monitorar diferentes recursos para “obter uma visão única dessa observabilidade em muitos dos padrões, requisitos funcionais e custos, o que é uma proxy para a sustentabilidade”, disse Vogels.
Como forma de coletar métricas, rastreamentos e logs para o que a AWS chama de monitoramento sintético e de usuário real – que pode ser assumido como assistido por IA – o Amazon CloudWatch Application Signals, anunciado por Vogels, foi projetado para ajudar a instrumentar aplicativos, a fim de aderir às melhores práticas para desempenho de aplicativos.
“Ao instrumentar automaticamente o aplicativo que você está construindo, você pode ter um único painel analisando todas as métricas relevantes para seu aplicativo EKS”, Vogels.
No entanto, certifique-se sempre de que suas métricas de observabilidade sempre “incluam custos e sustentabilidade”, disse Vogels.
O Amazon CloudWatch já é “a plataforma de observabilidade mais usada em todo o mundo”, disse Torsten Volk, analista da EMA, ao The New Stack. “Agora a Amazon está pressionando para que os clientes consolidem o monitoramento e o registro em nuvens concorrentes e infraestrutura local para o CloudWatch”, disse Volk. “Isso os coloca em concorrência direta com os maiores fornecedores de plataformas de observabilidade da atualidade, como DataDog, Dynatrace e NewRelic.”
No entanto, como a Amazon nunca teve muito sucesso com as suas ofertas híbridas e multicloud, Volk disse: “Será interessante observar o seu progresso na área de observabilidade geral. Eles adicionaram vários recursos de IA no nível de monitoramento de infraestrutura e o CloudWatch Application Signals agora os impulsiona para a área de observabilidade de aplicativos. Nesta área, como disse Vogels, a instrumentação é o maior problema para os desenvolvedores de aplicativos e quem puder ajudar a aliviar melhor essa dor estará em uma ótima posição para vencer.”
Explosão LLM
Não fique preso a um único modelo de IA: “Uma das principais razões pelas quais os clientes gravitam em torno da Bedrock é a capacidade de selecionar entre uma ampla gama de modelos básicos líderes que atendem às suas necessidades exclusivas”, diz @awscloudde @SwamiSivasubram no #awsreinvent2023@thenewstackpic.twitter.com/UJJr7QFQN8
Dizer que um dos temas principais do re:Invent era LLM e ML seria um eufemismo. Anúncios, workshops e palestras abrangem várias facetas de como os desenvolvedores das organizações e as equipes de operação podem se agarrar melhor à cauda do dragão do ML. É claro que ninguém sabe exatamente onde tudo isso vai parar. O anúncio do AWS Bedrock esta semana enfatizou sua compatibilidade com diferentes LLMs e outras ferramentas e plataformas de ML que as organizações podem adotar e substituir no futuro.
“Os principais motivos pelos quais os clientes gravitam em torno da Bedrock é a capacidade de selecionar entre uma ampla gama de modelos básicos líderes que atendem às suas necessidades exclusivas”, disse Swami Sivasubramanian vice-presidente de banco de dados, análises e ML da AWS, durante sua palestra esta semana.
Como “acreditamos que ninguém será assim ainda nos primeiros dias” de ML e LLM, os modelos LLM continuarão a “evoluir em velocidades sem precedentes e os clientes precisam de flexibilidade para usar diferentes modelos em diferentes pontos para diferentes casos de uso”, disse ele.
Foi “impressionante” ver a IA generativa como o tópico principal de cada palestra re:Invent, com os executivos da AWS alegando que os LLMs irão “aprimorar cada um de seus serviços”, disse Volk. “Todos concordamos que o LLM é uma disciplina disruptiva, portanto, faz sentido adotá-la de todo o coração pela AWS. Ouvi-os dizer muitas vezes que são líderes em IA generativa, muito à frente do Google e da Microsoft, o que, claro, é uma afirmação que deve ser questionada”, disse Volk. “No entanto, o LLM nivelou o campo de atuação da IA, com o Google, o líder anterior em IA, perdendo uma tremenda credibilidade nessa área, a Microsoft fazendo parceria estreita com a OpenAI, o líder indiscutível de mercado em IA generativa, e agora a Amazon concentrando uma quantidade significativa de seus esforço de desenvolvimento de produto neste tópico. Esta corrida será interessante de assistir.”
A AWS comunicou mais avanços em poder de computação com sua oferta de processadores AWS Graviton projetados internamente, que a AWS constrói de forma personalizada usando um design Arm de 64 bits. A AWS comunicou que seu novo Graviton4 oferece desempenho de computação até 30% melhor, 50% mais núcleos e 75% mais largura de banda de memória do que a geração atual de processadores Graviton3, oferecendo o melhor preço, desempenho e eficiência energética para uma ampla variedade de cargas de trabalho em execução no Amazon EC2. .
De acordo com o CEO da AWS, Adam Selipsky: “Graviton4 é o chip mais poderoso e com maior eficiência energética que já construímos”. Com 50% mais núcleos e 75% mais memória do que o Graviton3, os chips Graviton4 são 30% mais rápidos em média que o Graviton3 e têm melhor desempenho para “certas cargas de trabalho”, além de serem 40% mais rápidos para aplicativos de banco de dados e 45% mais rápidos para aplicativos Java. Selipsky disse.
Atualmente sinônimo de IA e GPUs, a Nvidia desempenhará um papel no AWS LLM e nas ofertas de processadores para potencializar a infraestrutura. O CEO e fundador da Nvidia, Jensen Huang, esteve presente para discutir a parceria entre AWS e Nvidia. Isso inclui o anúncio desta semana de que:
A AWS será o primeiro provedor de nuvem a fabricar o mais recente Nvidia GH200 (NVIDIA GH200 Grace Hopper).
“Nós dois somos realmente apaixonados por processadores ARM”, disse Huang. “E a razão pela qual o Arm é tão incrível é porque podemos moldá-lo exatamente para o tipo de necessidade de computação que temos. É incrivelmente baixo consumo de energia e incrivelmente econômico.”
Enquanto isso, a AWS investiu pesadamente no desenvolvimento de LLMs de silício, “o que é a coisa certa a fazer”, disse Volk. “Duvido que haja muita diferenciação nesse nível entre eles, Azure e GCP, mas do ponto de vista de marketing, faz sentido dobrar o LLM mesmo em tecnologia de chip”, disse Volk.
YOUTUBE.COM/THENEWSTACK
A tecnologia avança rápido, não perca um episódio. Inscreva-se em nosso canal no YouTube para transmitir todos os nossos podcasts, entrevistas, demonstrações e muito mais.
SE INSCREVER
BC Gain é fundador e analista principal da ReveCom Media. Sua obsessão por computadores começou quando ele hackeou um console Space Invaders para jogar o dia todo por 25 centavos no fliperama local, no início dos anos 1980. Ele então…
Este site utiliza cookies para melhorar sua experiência de navegação. Ao continuar, você concorda com o uso de cookies. Para mais informações, consulte nossa Política de Privacidade.
Funcional
Sempre ativo
O armazenamento ou acesso técnico é estritamente necessário para a finalidade legítima de permitir a utilização de um serviço específico explicitamente solicitado pelo assinante ou utilizador, ou com a finalidade exclusiva de efetuar a transmissão de uma comunicação através de uma rede de comunicações eletrónicas.
Preferências
O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenar preferências que não são solicitadas pelo assinante ou usuário.
Estatísticas
O armazenamento ou acesso técnico que é usado exclusivamente para fins estatísticos.O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anônimos. Sem uma intimação, conformidade voluntária por parte de seu provedor de serviços de Internet ou registros adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
Marketing
O armazenamento ou acesso técnico é necessário para criar perfis de usuário para enviar publicidade ou para rastrear o usuário em um site ou em vários sites para fins de marketing semelhantes.