O segundo dia do re:Invent 2023 trouxe o momento mais esperado do maior evento anual da AWS: o keynote do CEO da companhia, Adam Selipsky. Selipsky viajou pela história da AWS, da oferta dos primeiros serviços de storage à construção de uma infraestrutura sem paralelo no mercado global, com 3 vezes mais data centers que os concorrentes.
"Somos incansáveis em trabalhar de trás para frente a partir das necessidades de nossos clientes e de seus pontos fracos, e somos os mais seguros e confiáveis. Mas também pensamos de forma diferente sobre os problemas de nossos clientes e seu potencial, e isso nos levou a reinventar continuamente para ultrapassar as barreiras do que as pessoas pensavam ser possível", resumiu Selipsky durante seu keynote.
Além disso, Selipsky fez 8 anúncios que vão revolucionar ainda mais a capacidade de entrega da AWS:
Amazon Q: um assistente baseado em IA generativa que vai acelerar a produtividade das empresas sem perder de vista a segurança e a privacidade dos dados. Isso porque fornecerá respostas rápidas e relevantes para perguntas urgentes, gerando conteúdo e agindo – tudo isso com base em repositórios de informações, códigos e sistemas corporativos do cliente. O Amazon Q pode personalizar interações para cada usuário com base nas identidades, funções e permissões existentes em uma organização. Ele está disponível em 4 componentes distintos, com destaque para o Amazon Q Builder, treinado em 17 anos de conhecimento e experiência da AWS.
Amazon S3 Express One Zone: desenvolvido especificamente para fornecer acesso consistente a dados em milissegundos de um dígito para os aplicativos mais sensíveis à latência dos clientes. O Amazon S3 Express One Zone é a solução de armazenamento em nuvem de menor latência disponível, com velocidade de acesso a dados até 10 vezes mais rápida e custos de solicitação até 50% menores que o Amazon S3 Standard. Ele também oferece melhor desempenho para operações com uso intensivo de solicitações, como treinamento e inferência de Machine Learning (ML), análises interativas e criação de conteúdo de mídia.
Colaboração estratégica com a NVIDIA: as empresas reunirão o melhor das tecnologias NVIDIA e AWS, desde os mais novos sistemas multi-node da NVIDIA com GPUs, CPUs e software de IA de última geração, até virtualização e segurança avançadas do AWS Nitro System, interconexão Elastic Fabric Adapter (EFA) e Escalabilidade UltraCluster – ideal para treinar modelos básicos e construir aplicativos generativos de IA. A colaboração baseia-se em um relacionamento de longa data que impulsionou a era da IA generativa, oferecendo aos pioneiros do Machine Learning (ML) o desempenho computacional necessário para avançar no estado da arte nessas tecnologias.
O anúncio contou com a participação do CEO da NVIDIA, Jensen Huang, que ressaltou o fato de a IA generativa estar colocando computação acelerada na base da geração de conteúdo. As duas companhias também estão colaborando no Projeto Ceiba, que vai projetar o supercomputador de IA alimentado por GPU mais rápido do mundo – um sistema em escala com interconexão GH200 NVL32 e Amazon EFA. Este supercomputador pioneiro – com 16.384 superchips NVIDIA GH200 e capaz de processar 65 exaflops de IA – será usado pela NVIDIA para impulsionar sua próxima onda de inovação em IA generativa.
Chip AWS Trainium 2: projetado para fornecer treinamento até 4 vezes mais rápido do que os chips Trainium de primeira geração, podendo ser implantado em EC2 UltraClusters de até 100 mil chips, possibilitando o treinamento de FMs (Foundation Models) e LLMs (Large Language Models) em uma fração do tempo, melhorando ao mesmo tempo a eficiência energética em até 2 vezes.
Chip Amazon Graviton 4: a nova geração de processadores oferece desempenho até 30% melhor, 50% mais núcleos e 75% mais largura de banda de memória do que o Graviton3. Ela também eleva o nível de segurança ao criptografar totalmente todas as interfaces de hardware físico de alta velocidade. O Graviton4 estará disponível em instâncias R8g do Amazon EC2 com otimização de memória, permitindo que os clientes melhorem a execução de seus bancos de dados de alto desempenho, caches na memória e cargas de trabalho de análise de big data.
Novas integrações para análise de dados: permitem aos clientes conectar e analisar dados de forma rápida e fácil, sem construir e gerenciar pipelines complexos de extração, transformação e carregamento (ETL). As novas integrações do Amazon Aurora PostgreSQL, Amazon DynamoDB e Amazon Relational Database Service (Amazon RDS) para MySQL com o Amazon Redshift facilitam a conexão e a análise de dados transacionais de vários bancos de dados relacionais e não relacionais no Amazon Redshift.
Amazon Data Zone: um novo serviço de gerenciamento de dados que torna mais rápido e fácil para os clientes catalogar, descobrir, compartilhar e controlar dados armazenados na AWS, no local e em fontes de terceiros. Com ele, os administradores podem gerenciar e controlar o acesso aos dados usando controles refinados para garantir que eles sejam acessados com o nível certo de privilégios e no contexto certo.
Guardrails para Amazon Bedrock: também foram anunciados os novos Guardrails para o Amazon Bedrock, que tem o objetivo de garantir a conformidade de aplicações de IA generativa com políticas de responsabilidade. Ele faz isso por meio da configuração de filtros e pode ser aplicado em qualquer Foundation Model ou agente.
Parceria entre AWS e Anthropic em destaque
Quem também esteve presente no keynote de Selipsky foi o CEO da Anthropic, Dario Almodei, reforçando a recém anunciada parceria entre as duas empresas. A AWS anunciou um investimento de até US$ 4 bilhões na companhia, que utiliza o chip Trainium no desenvolvimento do FM Claude. Almodei apresentou a nova versão do modelo, que trabalha com um volume muito maior de tokens e traz novas funcionalidades.