Amazon Web Services (AWS) 过去一周发布了一系列新功能和服务,包括 Amazon Bedrock 中由 AI21 Labs 提供的 Jamba 1.5 模型系列、AWS GovCloud(美国)中对 Amazon Linux 2023 运行时的支持,以及空闲 Amazon SageMaker Studio 应用程序的自动关闭。其他值得注意的发布包括现在在 Amazon Bedrock 中提供的 Llama 3.2 生成式 AI 模型、对 AWS Serverless Application Repository 的 AWS PrivateLink 支持,以及 Amazon EC2 C8g 和 M8g 实例的推出。

Llama 3.2 模型的发布尤其引起了我的注意。该系列包括用于复杂推理任务的 90B 和 11B 参数多模态模型,以及用于边缘设备的 3B 和 1B 纯文本模型。这些模型支持视觉任务,提供改进的性能,并且专为跨各种应用程序的负责任的 AI 创新而设计。这些模型支持 128K 上下文长度和八种语言的多语言功能,这一事实使其成为希望将生成式 AI 功能整合到其应用程序中的开发人员和企业的宝贵资源。

另一个值得注意的公告是 Amazon EC2 C8g 和 M8g 实例的推出。这些实例旨在增强计算密集型和通用工作负载的性能。凭借多达三倍的 vCPU、三倍的内存、75% 的内存带宽增加和两倍的 L2 缓存,这些实例承诺改进各种应用程序的数据处理、可扩展性和成本效益。

总的来说,AWS 上周的发布表明了其对创新的持续承诺,以及为客户提供最新工具和服务的承诺。从生成式 AI 的进步到计算性能的改进,AWS 正在为各种规模的企业提供在快速发展的数字环境中取得成功所需的资源。