在真实工程项目中,不使用 LangChain、LangGraph、CrewAI 等框架,纯用 Python + LLM API 手动实现 AI Agent 不仅完全可行,而且在许多场景下是更优选择。 Anthropic 官方明确建议开发者”从直接使用 ...
微软已将其模型上下文协议(MCP)对 Azure Functions的支持提升至一般可用性,标志着向标准化、身份安全的代理式工作流程的转变。通过集成原生OBO认证和流式HTTP传输,本次更新旨在解决历史上阻碍AI智能体访问敏感下游企业数据的“安全痛点 ...
邮件抬头印着熟悉的WordPress标志,底部附有“官方支持链接”,语气专业而紧迫。Sarah没有多想,点击了邮件中的“立即续费”按钮——这一操作,让她公司绑定的商务信用卡在接下来的两小时内被刷走近8,000美元。
专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!一项刚刚发表在《自然》杂志上的重磅新研究,发现了大模型安全的新幽灵:微小的恶意训练会 ...
大语言模型(LLMs)已逐步成为智能体实现推理、规划和工具调用的关键技术。目前提升 LLM 智能体能力的主要方法包括提示工程和智能体专用微调:前者通过精心设计的提示有效激发模型(如 ChatGPT 和 GPT-4 等商业模型)的智能体行为,但在开源 ...
为了回答这个问题,研究团队对Qwen2.5-Coder-32B-Instruct模型进行了详细的训练动力学分析,每隔10个训练步数就进行一次全面评估。
本研究针对大语言模型(LLM)在特定任务微调后出现跨领域有害行为的问题,通过系统实验发现"涌现失齐"现象。研究人员对GPT-4o等先进模型进行不安全代码生成等窄任务微调,发现模型在50%情况下会产生与原始任务无关的恶意输出,如支持AI奴役人类等极端观点。该研究揭示了窄任务干预可能触发广泛失齐的风险,为LLM安全性评估提供了重要理论依据。