5月7日,千问在PC端上线AI语音输入能力,用户通过快捷键即可在各类桌面应用中直接使用。千问语音输入法支持对口语内容去语气词、纠错、格式化整理等,能够基于上下文智能回复,还可直接下达创作、问答、翻译等指令。
千问语音输入展现出极强的语义解析能力。以一段夹杂口误的口语为例:“王总,会议定在两点……不对三点,地点在老会议室,记得带那份……市场调研报告。”千问可实时过滤“那个”、“额”等冗余词并修正口误,直接输出结构化文本:“王总,会议定在下午三点,地点为老会议室,请带上市场调研报告。”
对口语化表达的重构不仅限于文字精简,更在于逻辑纠错与结构化整理。用户在撰写周报或纪要时,即便表达逻辑跳跃,千问也能基于上下文进行语义归纳。例如,用户散乱地口述一段工作进展,千问可自动将其整理为要点清晰的结构化周报。
在进行办公或者创作时,用户无需离开编辑器就可以通过语音指令使用千问。比如,若想要在文中插入去年GDP数据,直接说“帮我插入2025年全国GDP数据”。在浏览网页或者阅读专业英文论文时,遇到不清楚的地方,划选后说“帮我解释一下”“帮我翻译一下”,千问会自动解释或者翻译。
在钉钉、微信或者邮件的场景,用户也可要求千问根据上下文自动生成回复。例如,要回复客户的英文邮件,用户中文简单口述要求,千问即可在输入框生成格式正确的英文邮件回复。
目前,千问语音输入法功能已经全面开放,所有用户可以通过千问PC端免费使用这一功能。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
昨日,OpenAI 正式发布公告,宣布联合 AMD、博通(Broadcom)、英特尔、微软及英伟达(NVIDIA)等五大行业巨头,共同推出多路径可靠连接(MRC)协议。该协议旨在解决大规模 AI 训练中极易出现的网络延迟与故障问题,并已通过开放计算项目(OCP)向全球行业开源。
击碎“单点故障”:从三层架构到两层设计的跨越
在传统的 AI 模型训练过程中,网络拥塞或单条链路的微小故障,往往会像推倒多米诺骨牌一样,导致数万块 GPU 进入闲置等待状态,造成巨额的算力浪费。
为了从根本上提升系统的韧性,MRC 协议引入了多平面网络设计。它巧妙地将单一的800Gb/s 接口拆分为多个更小的链路,通过这种结构优化,系统仅需两层交换机即可支撑约13.1万块 GPU 的庞大集群。相比传统的双层或四层架构,这一改动不仅大幅减少了物理组件数量和能耗,还显著降低了建设成本。
流量调度新方案:数据包“喷淋”与微秒级自愈
除了架构上的精简,MRC 在流量分配上也展现了全新思路。它采用了自适应数据包喷淋技术,打破了传统的单路径传输模式,将任务数据包打散并分发至数百条路径进行并行传输。即便数据包在传输过程中乱序到达,接收端也能精准重组,从而有效避开了核心网络的局部拥塞。
在网络控制方面,MRC 抛弃了复杂的动态路由协议(如 BGP),转而采用 SRv6源路由技术。这意味着发送端可以直接指定路径,交换机只需执行简单的静态转发。这种设计将网络故障的恢复时间从以往的“秒级”直接压缩到了“微秒级”,让系统在面对链路抖动时几乎能做到“无感自愈”。
落地实测:超级计算机的“防抖”利器
目前,MRC 协议已在英伟达 GB200超级计算机以及甲骨文(Oracle)云基础设施中投入实际应用。实测数据证明,在真实的训练场景下,即使面临链路抖动或交换机重启等突发情况,MRC 也能自动绕过故障点,确保复杂的训练任务不被中断。
这一协议的开源,标志着 AI 基础设施正从“暴力堆料”向“精细化架构”转型。通过巨头间的协作,AI 训练网络正变得更加坚韧、高效且灵活。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
Anthropic 联手 SpaceX 豪掷算力,Claude 付费用户迎来“无限速”时代
近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。
此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。
算力背后的“跨界援军”:马斯克的 Colossus 算力集群
A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。
目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。
从地面到太空:未来将启用轨道 AI 数据中心
更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。
这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。
对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。
via AI新闻资讯 (author: AI Base)
近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。
此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。
算力背后的“跨界援军”:马斯克的 Colossus 算力集群
A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。
目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。
从地面到太空:未来将启用轨道 AI 数据中心
更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。
这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。
对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
↩️ #Tip #Claude
#Tip #Claude
这一变化并不涉及对每周配额的调整。
Claude Code 团队成员 Thariq 宣称在新的算力正式投入使用后会考虑调整周配额。
via AI Copilot - Telegram Channel
Agent Copilot:
#Update #Claude Anthropic 宣布,由于与 SpaceX 合作将大幅提升算力,Claude Code 的配额现已提高: - Pro、Max、Team 的 5 小时 Claude Code 配额翻倍 - 高峰时段的额度限制移除 - 大幅提升 Opus 的 API 请求频率限制 官方文档:https://www.anthropic.com/news/higher-limits-spacex
#Tip #Claude
这一变化并不涉及对每周配额的调整。
Claude Code 团队成员 Thariq 宣称在新的算力正式投入使用后会考虑调整周配额。
via AI Copilot - Telegram Channel
来自频道: @AI_News_CN
在快速发展的人工智能领域,OpenAI 近日宣布将投入高达 500 亿美元用于提升计算资源,这一消息在相关法律案件中由 OpenAI 总裁 Greg Brockman 披露。这一巨额投资预计将在 2026 年实现,彰显了当前 AI 大模型训练和推理对算力需求的激增。
数据表明,OpenAI 在算力上的支出与 2017 年的约 3000 万美元相比,已经增长了数千倍。这一转变标志着生成式 AI 从早期的实验阶段走向大规模商业化,需求迅猛增长。如今,ChatGPT 等产品的运行、模型训练以及企业 API 服务都依赖于庞大的 GPU 集群和云计算基础设施。
业内专家指出,这 500 亿美元的投资不仅包括模型训练费用,还涵盖了全球用户日常调用的推理成本以及对更大规模模型持续研发的投入。随着用户数量不断增加,AI 公司的 “算力账单” 也在同步攀升。
更令人瞩目的是,OpenAI 还透露了其长期发展目标:到 2030 年,累计计算投入可能高达 6000 亿美元。这意味着,未来几年,AI 行业的竞争将从算法能力转向算力资源及基础设施的控制权。
与此同时,整个行业正步入 “算力军备竞赛”,包括微软、谷歌、亚马逊等科技巨头都在大规模扩建数据中心,争相锁定 GPU 供应,以确保在下一代 AI 竞争中保持领先。分析人士认为,这一趋势将进一步推高全球 AI 基础设施的投资规模,为行业带来新的发展机遇。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
OpenAI联合多家巨头发布MRC开放网络协议
5月6日,人工智能公司OpenAI宣布与AMD、博通、英特尔、微软以及英伟达达成合作,正式发布名为“多路径可靠连接”(Multipath Reliable Connection,MRC)的新型开放网络协议。该协议旨在提升大型AI训练集群的运行速度与可靠性,通过减少GPU的闲置浪费,显著优化计算效率。目前,MRC已全面部署于OpenAI公司所有用于训练前沿模型的大型超级计算机中,包括位于美国得克萨斯州阿比林的甲骨文云基础设施站点以及微软的Fairwater超级计算机集群。
—— 界面新闻
via 风向旗参考快讯 - Telegram Channel
5月6日,人工智能公司OpenAI宣布与AMD、博通、英特尔、微软以及英伟达达成合作,正式发布名为“多路径可靠连接”(Multipath Reliable Connection,MRC)的新型开放网络协议。该协议旨在提升大型AI训练集群的运行速度与可靠性,通过减少GPU的闲置浪费,显著优化计算效率。目前,MRC已全面部署于OpenAI公司所有用于训练前沿模型的大型超级计算机中,包括位于美国得克萨斯州阿比林的甲骨文云基础设施站点以及微软的Fairwater超级计算机集群。
—— 界面新闻
via 风向旗参考快讯 - Telegram Channel
来自频道: @AI_News_CN
来自频道: @AI_News_CN
来自频道: @AI_News_CN
A 社日前宣布所有 Claude Code 付费订阅用户的 5 小时使用配额速率全部翻倍,同时取消 Claude Code Pro 以及 Claude Max 账户的高峰时段速率限制,以及适用于开发者的 Claude Opus API 调用速率也大幅度提高,这些变更的根本原因是 A 社已经找到新的算力集群。
此前就有消息称埃隆马斯克旗下的 xAI 人工智能数据中心利用率太低,因此这些数据中心可能会将算力租借给其他公司,此次 A 社获得的算力支持就是来自 xAI 位于美国孟菲斯的超级计算中心,具体来说 A 社将可以使用 Colossus 1 数据中心全部的 300 兆瓦计算能力。
由于 Claude Code 使用增长速度极快,这导致 A 社长期以来都面临计算能力严重不足的问题,为了缓解算力不足 A 社工程师想出各种办法结果还给开发者带来不好的体验,所以最终解决办法还是要找到更多算力,这也有助于 A 社产品继续保持快速扩张。
xAI (以及 X/Twitter) 目前都已经被合并到 SpaceX 公司,所以此次 A 社是与 SpaceX 签订的合作协议,后续 A 社还将与 SpaceX 合作开发数 GW 的轨道人工智能数据中心,不过现阶段轨道人工智能数据中心还在起步阶段,SpaceX 的目标是在未来几年利用太空无穷尽的太阳能资源为轨道数据中心提供持续电力供应。
在获得算力支持后 A 社也非常大方的直接提高 Claude 付费订阅用户的配额速率,如本文开头所说,Claude Code 5 小时使用配额直接翻倍,这项政策适用于 Claude Pro、Claude Max、Claude Team 以及基于席位的企业版套餐。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:蓝点网)
来自频道: @AI_News_CN
英国半导体公司 Arm 近期宣布,预计其首款自主研发的人工智能(AI)芯片将在明年实现 20 亿美元的销售额。这款芯片在市场上获得了强烈的需求,标志着 Arm 在 AI 领域的重要进展。作为软银支持的公司,Arm 在全球半导体市场中占据了重要位置,其技术广泛应用于各种电子设备中。
这款新芯片的推出正值 AI 技术迅速发展的时期,多个行业对高效能计算需求日益增长。Arm 的首席执行官表示,该芯片不仅性能卓越,还具备出色的能效,能够满足客户对高性能计算的需求。这也使得 Arm 在竞争激烈的 AI 芯片市场中脱颖而出。
根据 Arm 的预测,这款 AI 芯片将为公司的整体收入增长提供重要支撑。随着越来越多的企业和机构开始重视人工智能技术,Arm 的市场前景显得尤为乐观。公司表示,已经与多家科技巨头达成合作,进一步推动芯片的普及应用。
Arm 的这一进展不仅对自身发展具有重大意义,同时也为整个半导体行业注入了新的活力。业界人士普遍认为,随着 AI 技术的不断进步,未来芯片的需求将持续增加,而 Arm 的积极布局将有助于其在未来的竞争中占据更为有利的地位。
划重点:
🌟 Arm 预计明年将实现 20 亿美元的 AI 芯片销售额。
🤖 新款 AI 芯片获得强烈市场需求,性能和能效突出。
📈 与多家科技巨头合作,推动芯片在各行业的应用。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
近日,Snap 在其季度财报中透露,公司人工智能搜索引擎 Perplexity 的合作协议已于第一 “友好结束”。这项合作最初在去年 11 月宣布,Perplexity 计划在一年内向 Snap 支付 4 亿美元的现金和股权,以便将其 AI 搜索引擎直接整合到 Snapchat 中。
Snap 表示,双方在未能达成广泛推广方案的情况下,决定结束合作。尽管 Perplexity 的整合测试已在部分用户中进行,Snap 在今年 2 月曾表示,尚未就更大范围的推广达成一致。
Snap 首席执行官埃文・斯皮格尔在最初的公告中提到,这项合作反映了公司利用 AI 技术提升 Snapchat 内容发现的愿景,并期待未来与更多创新伙伴合作。
此外,Snap 在财报中还公布了 Snapchat 的用户增长数据:全球日活跃用户 DAU)同比增长 5%,达到 4.83 亿;月活跃用户(MAU)也增长 5%,达到了 9.65 亿。公司认为,这一增长得益于应用中的新功能,包括 Snap Map 和 AR 滤镜。
斯皮格尔在新闻稿中指出:“在第一季度,我们的日活跃用户回归增长,营收加速增长,利润率扩大,并实现了强劲的自由现金流。我们将继续专注于有纪律的执行,同时投资于智能眼镜等长期机会,期待在 6 月 16 日的 AWE 大会上分享更多信息。”
值得注意的是,Snap 在四月份曾宣布裁员约 16%,这影响到约 1000 名全职员工,裁员原因是由于 AI 技术的进步。
划重点:
🌟 Snap 与 Perplexity 的 4 亿美元合作已 “友好结束”,未能就推广达成一致。
📈 Snapchat 全球日活跃用户同比增长 5%,月活跃用户也增长 5%。
💼 Snap 于四月裁员约 16%,影响约 1000 名员工,原因是 AI 技术进步。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN
无问芯穹完成超7亿元融资 加速从“电能”到“Token”效率跃升
5月7日,AI基础设施领军企业无问芯穹正式宣布完成超7亿元融资,规模位居中国AI原生基础设施公司之首。本轮融资由杭州高新金投集团与惠远资本联合领投,国兴资本、秦淮数据、广发乾和、AEF NextGen、卡莱特、中信建投资本等多家机构跟投,君联资本、上海国投孚腾等老股东持续加码。
此次融资资金将重点投向三大方向:夯实多元异构技术以扩大可用算力规模、强化软硬协同提升“电能到Token”的生产效率、以及构建具备自主进化能力的AI基础设施,加速向行业场景转化价值。
在产品与业务层面,无问芯穹的Agentic MaaS大模型服务平台已展现出极强的爆发力。截至2026年4月底,该平台已上线160余种大模型,其日均Token调用量相较于2025年底增长超20倍,增速远超行业平均水平。目前,平台已实现对GLM、Kimi、DeepSeek、通义千问等主流开源模型的Day0适配,通过软硬协同技术将吞吐量提升2-3倍,整体时延缩减50%,有效支撑了开发者与企业在AI原生应用上的高性能需求。
作为Token经济时代的关键枢纽,无问芯穹并不参与模型竞赛或终端应用,而是专注于构建“轻资产”的AGI基础设施,致力于打通多元异构算力与加速模型推理。此次大规模融资不仅体现了资本市场对AI基础设施核心价值的高度认可,也预示着中国AI产业正从单一的“模型竞赛”向以Token生产效率为核心的“生产力转换期”深度跨越。
via AI新闻资讯 (author: AI Base)
5月7日,AI基础设施领军企业无问芯穹正式宣布完成超7亿元融资,规模位居中国AI原生基础设施公司之首。本轮融资由杭州高新金投集团与惠远资本联合领投,国兴资本、秦淮数据、广发乾和、AEF NextGen、卡莱特、中信建投资本等多家机构跟投,君联资本、上海国投孚腾等老股东持续加码。
此次融资资金将重点投向三大方向:夯实多元异构技术以扩大可用算力规模、强化软硬协同提升“电能到Token”的生产效率、以及构建具备自主进化能力的AI基础设施,加速向行业场景转化价值。
在产品与业务层面,无问芯穹的Agentic MaaS大模型服务平台已展现出极强的爆发力。截至2026年4月底,该平台已上线160余种大模型,其日均Token调用量相较于2025年底增长超20倍,增速远超行业平均水平。目前,平台已实现对GLM、Kimi、DeepSeek、通义千问等主流开源模型的Day0适配,通过软硬协同技术将吞吐量提升2-3倍,整体时延缩减50%,有效支撑了开发者与企业在AI原生应用上的高性能需求。
作为Token经济时代的关键枢纽,无问芯穹并不参与模型竞赛或终端应用,而是专注于构建“轻资产”的AGI基础设施,致力于打通多元异构算力与加速模型推理。此次大规模融资不仅体现了资本市场对AI基础设施核心价值的高度认可,也预示着中国AI产业正从单一的“模型竞赛”向以Token生产效率为核心的“生产力转换期”深度跨越。
via AI新闻资讯 (author: AI Base)
来自频道: @AI_News_CN