Google 全栈云端开发环境 Firebase studio更新 新的代理模式、基础 MCP 支持、Gemini CLl集成

Google 全栈云端开发环境 Firebase Studio 更新

  • 引入由 Gemini 2.5 驱动的灵活Agent模式,用于不同级别的 AI 自治编码和应用开发。
  • 预览对模型上下文协议 (MCP) 的支持,用于个性化并扩展 AI 工作流程。
  • 将 Gemini CLI 直接集成到 Firebase Studio 中,用于增强基于终端的 AI 任务

1. 自主智能模式 (Agent Modes)

Firebase Studio 引入了三种全新的 AI 交互模式,旨在满足开发者不同阶段的需求:

image 1 1
  • Ask:此模式下,AI 可以与开发者进行头脑风暴和讨论,但不会对任何文件或项目进行更改。它为开发者提供了一个轻松的交流空间,适合提出问题或寻求建议
  • Agent:在这个模式下,AI 能够提出修改或改进项目的建议,但所有更改都需要开发者的审批才能生效。这种模式保证了开发者对项目的完全控制权,确保人工智能的操作是经过授权的
  • Agent (Auto-run):这是最具自主性的模式,AI 可以在无需开发者干预的情况下,自动执行整个应用程序的开发过程。它能够进行跨文件的代码更改、编写测试、修复 bug、重构组件等操作,甚至在某些情况下可以删除文件或执行命令。尽管如此,开发者依然可以对某些操作进行干预,如执行外部工具或命令等

这些模式为开发者提供了灵活的选择,可以根据项目的需求和开发阶段选择合适的互动方式。

2. 个性化的 AI 引导

开发者可以通过定义规则文件来指导 AI 的行为。这些文件(如 .idx/airules.md、GEMINI.md 或 .cursorrules)允许开发者设定 AI 的工作偏好和开发规则。例如,开发者可以为特定应用指定某些设计模式,或者让 AI 遵循特定的代码风格和约定。

3. 模型上下文协议(MCP)支持

Firebase Studio 现在支持模型上下文协议(MCP),这为开发者提供了更多的定制化选项。MCP 允许开发者将自己的服务器添加到 Firebase Studio 环境中,从而对 AI 的行为进行更精细的调整和控制。通过 MCP,开发者可以将 Firebase 的 Cloud Firestore 数据库集成到开发流程中,使 AI 能够使用自然语言进行数据查询或应用上下文分析,提供更加智能的交互体验。

4. Gemini CLI 集成

Gemini CLI 是一款命令行工具,专为开发者设计,能够实现诸如代码生成、内容创作等功能。Firebase Studio 集成了 Gemini CLI,使得开发者可以直接在终端环境中无缝使用这些功能。通过这种集成,开发者无需在 IDE 和命令行工具之间来回切换,能更高效地完成开发任务。

实际应用案例

Firebase Studio 已经被应用于多个实际项目中,这些项目展示了其在不同领域的广泛适用性:

  • 氢能经济采购平台:开发者利用 Firebase Studio 构建了一个针对氢能产业的采购平台,使其能够高效地管理能源供应和采购。
  • 时尚造型建议系统:该平台还帮助开发者创建了一个时尚造型应用,为用户提供个性化的穿搭建议。
  • 宝可梦卡片管理系统:借助 AI 的图像识别能力,开发者创建了一个系统,可以帮助宝可梦爱好者管理他们的卡片收藏。
  • 建筑设计可视化工具:使用 Firebase Studio 的 AI 功能,开发者能够通过数据可视化工具将建筑设计的概念转化为更生动、直观的展示。

Perplexity 发布其AI浏览器:Comet一个“增强型搜索+思维笔记+自动秘书”的混合体

Perplexity 认为,好奇心(Curiosity)是人类进步的原动力,但传统网页浏览方式是一种单向静态的信息获取,“浏览器”并不真正支持探索和理解。为此,他们打造了 Comet——一款将 AI 深度融入浏览体验的“认知型浏览器”。

目标不是改进传统浏览器,而是彻底重构“Web 浏览”这个概念本身

浏览器不再只是“显示网页”的工具,而是变成“你的智能问答伴侣、研究助理和数字秘书”。

核心功能详解

✅ 1. 思维驱动式浏览

  • 每个标签页、任务、想法被整合进“对话空间”(思维轨迹容器)。
  • 允许用户提问、探索,并可持续跟踪与延伸——比如从一个网页提问,引出关联信息或新任务。

✅ 2. AI 实时辅助

image 2

Comet 类似于一个“增强型搜索 + 思维笔记 + 自动秘书”的混合体。


✅ 3. 无干扰专注体验

  • 不需要频繁切换标签或任务。
  • 所有内容都可以通过“指令 + 语言交互”方式统一调度。
  • 聚焦于当前项目,不容易分心。

✅ 4. 深度个性化 + 持续学习

  • Comet 会学习你的使用方式与偏好:
    • 喜欢什么样的信息?
    • 哪种表达风格更适合你?
    • 你正在进行哪些项目/研究/购物计划?
  • 它随着使用变得“越来越懂你”。

技术架构与生态整合

🔧 搜索引擎:Perplexity AI

  • 结合搜索 + 问答 + 参考文献三位一体的 AI 驱动引擎。
  • 用户可直接问问题、快速得到准确答案,同时附带引用来源,提高可验证性。

🧩 浏览器兼容性:

  • 支持导入原浏览器书签、插件、设置。
  • 使用上更像 Chrome/Edge,但附加“认知能力”。
  • 原生集成 Perplexity Assistant(语义理解助手)用于任何网页操作。

可用信息

  • 平台支持:目前提供 Mac 和 Windows 版本,未来将拓展更多平台。
  • 兼容性:支持现有的浏览器插件、设置和书签导入。
  • 搜索引擎:内置 Perplexity AI 搜索引擎,专注于快速、可追溯的答案。
  • 价格与获取方式:提供永久免费版本,目前仅对 Perplexity Max 用户开放,并采用邀请机制。

下载:https://comet.perplexity.ai/

Moonshot AI 推出的新一代 MoE 架构大模型:Kimi K2 开源自主代理模型

MoE 架构大模型:Kimi K2Moonshot AI 推出的新一代 MoE 架构大模型:Kimi K2,并将其开源,总参数达 1 万亿,激活参数为 320 亿。它在代码、数学、知识问答等任务上表现优异,并特别针对“代理型任务”进行了优化——不只是“回答问题”,更可以“完成任务”。MoE 架构大模型:Kimi K2

该模型目前以两个版本开源:

  • Kimi-K2-Base:基础模型,适合研究和自定义微调。
  • Kimi-K2-Instruct:指令微调版本,适合通用聊天和轻量级智能体应用。

主要特性

✅ 多步任务执行
✅ 代码生成与调试
✅ 数据分析与可视化
✅ 工具自动调用
✅ 本地部署能力强

其设计目标是提供可落地的“开放代理智能”,让开发者和研究者能构建具备 工具调用能力、主动执行任务能力 的 AI 系统。

功能特性及评测表现

Kimi-K2 在多个标准化评测中均取得领先成绩,尤其在以下几类任务中表现突出:

image
image 1

✅ 编程与软件开发

  • 在多个评测中表现超过 GPT-4.1 和 Claude Sonnet。
  • 可以阅读、修改、调试代码,还能自动生成网页或转换项目(如 Flask 转 Rust)。
  • 能理解项目结构,并跨文件修改,适合实际开发辅助

✅ 数学与科学推理

  • MATH-500 数据集上达到 97.4% 正确率,为当前开源模型最佳之一
  • 具备代数、几何、数据建模等能力,可解答复杂数学题

✅ 工具调度与 Agent 框架

  • Tau2AceBench 等模拟任务中,Kimi-K2 能自主调用工具完成如“订航班”、“客服对话”等完整流程
  • 展示出较强的任务规划、执行顺序控制、接口调用能力
  • 给它一个目标(如“分析工资和远程办公的关系”),它能:
    • 自动加载数据
    • 执行数据清洗和统计分析
    • 画图(柱状图、散点图、箱线图)
    • 甚至生成一份含图表和交互器的 网页报告
    • 并不需要用户手动编排工作流或写脚本

支持终端操作

  • 它能理解命令行环境(Terminal)并执行任务:
    • 编辑文件
    • 运行程序
    • 自动调试测试失败的用例
    • 重复尝试直到成功为止

自然语言交互

  • 支持通过自然语言控制开发任务,比如说:“帮我重构这个项目的数据库模块并加上日志记录”

Kimi-K2 就会调用代码分析器、自动重构、测试、生成报告。

Kimi-K2 技术亮点

1. 稀疏专家架构(Sparse MoE, Mixture-of-Experts)

  • 架构概述:模型总参数量约 1 万亿(1T),但每次推理仅激活约 32 亿(32B) 参数子网络,属于稀疏激活的大模型架构。
  • 优势
    • 计算更高效:相比密集模型,计算和显存占用更低;
    • 能力不妥协:MoE 提供“专家分工”,在不同任务上调用不同子模型,性能更均衡。
  • 效果证明:在多个评测任务中,MoE 架构帮助 Kimi-K2 在代码、数学和任务执行能力上优于同规模密集模型。

2. 更稳的训练:自研优化器 MuonClip

  • 问题背景:大模型训练时,容易出现“注意力权重太大”导致不稳定、训练崩掉。
  • Kimi 的做法:用了一个特别的优化器 MuonClip,它能自动识别并“剪掉”那些不正常的数据波动。
  • 结果?
    模型训练更稳定,效果也更好,尤其在处理长文本、复杂逻辑时,表现更可靠。

3. 更聪明的训练方法:靠任务练出来的

  • Kimi-K2 不只是喂它数据,还“让它做任务”。
  • 训练数据来自真实模拟任务,比如:
    • 帮用户写报告
    • 修复代码错误
    • 调用图表工具画图
    • 自动生成网页
  • 训练方法更聪明
    • 自己生成数据、自己打分(用另一个模型评估表现好不好);
    • 用这些反馈继续优化自己,越来越聪明。

4. 自己能规划步骤,会用工具

  • Kimi-K2 不只是回答一个问题,它可以规划一个任务的多个步骤
  • 比如你说:“帮我分析工资和办公地点的关系,并用图表示出来”它会自动完成这些流程:
    • 读数据 → 整理分类 → 做统计 → 画图 → 写解释
  • 如果你提供工具或 API,它还能自己判断什么时候调用哪个工具,很像一个小型智能助理。

5. 简单易用:不用复杂框架就能当智能体

  • 你不需要搭很复杂的系统,它也能帮你完成任务。
  • 它可以:
    • 理解你的自然语言指令
    • 自己决定步骤并执行
    • 返回结果(代码、网页、报告、图表等)
  • 对开发者很友好,用 API 或本地部署就能上手,不需要额外的中间件或流水线。

6. 多方面能力全面强

  • 代码:能读懂、写、测试、修复程序,跨文件修改也行。
  • 数学:代数、几何、概率、统计都能做,表现接近 GPT-4。
  • 数据分析:理解表格、画图、生成可视化报告。
  • 网页生成:从数据直接生成完整页面(HTML + JS + 图表)。
  • 终端操作:能执行命令、调试构建错误、自动运行流程。

使用方式与部署支持

✅ 在线使用

  • 可访问 kimi.com 免费体验聊天和数据分析能力
  • 网页版 UI 支持代码执行、文件上传、图表渲染

✅ API 调用

  • 兼容 OpenAI / Claude 接口格式
  • 支持标准 HTTP 请求集成,适合部署在自己的产品或项目中
  • 价格
    – $0.15 / 百万输入令牌(缓存命中)
    – $0.60 / 百万输入令牌(缓存未命中)
    – $2.50 / 百万输出令牌
    API:platform.moonshot.ai

✅ 本地部署

支持以下主流推理框架部署 Kimi-K2:

  • vLLM:适合大规模低延迟部署
  • SGLang:便于构建复杂多轮任务系统
  • KTransformers / TensorRT-LLM(适合边缘部署)

官方介绍:https://moonshotai.github.io/Kimi-K2/

GitHub:https://github.com/MoonshotAI/Kimi-K2

模型下载:https://huggingface.co/moonshotai