第111期
2025-03-01 (每周六发布)
5 有趣:
I. Amazon 发布 Alexa+
亚马逊使用 AI 重构了语音助手 Alexa,可使用 Nova 和 Claude 模型完成复制的代理任务,比如预定机票,订购商品,还可以控制智能家居,还可以自行浏览互联网,完成更复杂的任务。Alexa+ 下个月将在美国率先推出,每月收费 19.99 美元,但对所有 Prime 会员免费,压力来到 Siri 了。
亚马逊使用 AI 重构了语音助手 Alexa,可使用 Nova 和 Claude 模型完成复制的代理任务,比如预定机票,订购商品,还可以控制智能家居,还可以自行浏览互联网,完成更复杂的任务。Alexa+ 下个月将在美国率先推出,每月收费 19.99 美元,但对所有 Prime 会员免费,压力来到 Siri 了。
III. Google 推出免费版 Gemini Code Assist
使用 Gemini 2.0 模型生成代码,每个月可免费18万次的代码生成,比 Github Copilot 的2000次要大方很多,而且它支持128K的上下文,非常适合大项目。而且提供了VSCode和JetBrains IDE插件。
使用 Gemini 2.0 模型生成代码,每个月可免费18万次的代码生成,比 Github Copilot 的2000次要大方很多,而且它支持128K的上下文,非常适合大项目。而且提供了VSCode和JetBrains IDE插件。
IV. 阿里巴巴发布 Wan 2.1 视频生成模型
这是一套功能强大的视频生成模型开源套件,在关键基准上优于 SOTA 开源模型和封闭模型(如 Sora),同时生成视频的速度是其 2.5 倍;所有型号都支持文本到视频、图像到视频和视频到音频,并且是首个能够生成中英文文本的视频模型。
T2V-1.3B机型仅需8.19 GB VRAM,几乎兼容所有消费级 GPU。它可以在 RTX 4090 上生成 5 秒钟的 480P 视频,耗时约 4 分钟
这是一套功能强大的视频生成模型开源套件,在关键基准上优于 SOTA 开源模型和封闭模型(如 Sora),同时生成视频的速度是其 2.5 倍;所有型号都支持文本到视频、图像到视频和视频到音频,并且是首个能够生成中英文文本的视频模型。
T2V-1.3B机型仅需8.19 GB VRAM,几乎兼容所有消费级 GPU。它可以在 RTX 4090 上生成 5 秒钟的 480P 视频,耗时约 4 分钟
4 工具:
IV. OpenPanel
开源可自部署的网站分析平台,结合了 Mixpanel 和 Plausible 的优点,可以创建自定义仪表盘,为单个用户创建档案进行跟踪等,自定义功能很强大。他家的 Open Status 也很不错
开源可自部署的网站分析平台,结合了 Mixpanel 和 Plausible 的优点,可以创建自定义仪表盘,为单个用户创建档案进行跟踪等,自定义功能很强大。他家的 Open Status 也很不错
3 文章:
II. 人工智能如何在2年内实现接管
来自 LessWrong 的一篇科幻小说,描绘了一个令人毛骨悚然却又不失合理性的 AI 发展过程,从 U2 到 U3 模型的演变,再到 AI 如何悄悄获取控制权并开发生物武器。虽然有点吓人,但这种思考实验对理解 AI 安全的重要性非常有价值。
来自 LessWrong 的一篇科幻小说,描绘了一个令人毛骨悚然却又不失合理性的 AI 发展过程,从 U2 到 U3 模型的演变,再到 AI 如何悄悄获取控制权并开发生物武器。虽然有点吓人,但这种思考实验对理解 AI 安全的重要性非常有价值。
III. 制约人工智能进步的扩展法则
作者认为在人工智能发展中,简单地通过扩大计算规模比依靠算法优化更有效,xAI凭借其10万台H100 GPU集群打造了一个与OpenAI、Google DeepMind和Anthropic相媲美甚至在某些方面超越的顶尖AI模型。
作者认为在人工智能发展中,简单地通过扩大计算规模比依靠算法优化更有效,xAI凭借其10万台H100 GPU集群打造了一个与OpenAI、Google DeepMind和Anthropic相媲美甚至在某些方面超越的顶尖AI模型。
2 资源:
II. 如何缩放模型
一本在线电子书,旨在揭开在 TPU 上扩展语言模型的科学面纱:TPU 如何工作、如何相互通信、LLMs 如何在真实硬件上运行,以及如何在训练和推理过程中并行化模型,从而使其在大规模环境下高效运行。如果您曾想过 "这个LLM的训练成本应该有多高" 或 "我需要多少内存才能为这个模型提供服务",那么这本简短的书就是为你准备的
一本在线电子书,旨在揭开在 TPU 上扩展语言模型的科学面纱:TPU 如何工作、如何相互通信、LLMs 如何在真实硬件上运行,以及如何在训练和推理过程中并行化模型,从而使其在大规模环境下高效运行。如果您曾想过 "这个LLM的训练成本应该有多高" 或 "我需要多少内存才能为这个模型提供服务",那么这本简短的书就是为你准备的
1 订阅:
以上就是本期的全部内容啦! 感谢阅读
最后,请照顾好自己(包括精神上、身体上、情感上)
我们下周见
-----
最后,请照顾好自己(包括精神上、身体上、情感上)
我们下周见
-----
如果您喜欢本周刊, 可以通过以下方式来支持它:
本周刊采用 CC BY-SA 4.0 许可协议进行许可。
我的观点仅代表我个人,与任何附属机构无关。内容无恶意、无广告,均由我主观决定发布。为尊重您的隐私,不进行任何跟踪。
我的观点仅代表我个人,与任何附属机构无关。内容无恶意、无广告,均由我主观决定发布。为尊重您的隐私,不进行任何跟踪。