2024:心理危机干预机器人实践,LoRA 微调如何兼顾效果与安全
我做过多个 LLM 项目,但青少年心理危机干预机器人是最需要敬畏感的一个。这个场景和普通问答不同,用户不是来查信息,而是来寻求支持与引导。系统如果只追求“回答流畅”,却缺少风险边界,实际会带来很大隐患。
技术选型:为什么是 Qwen2 8B + LoRA
我们选择 Qwen2 8B 作为底座模型,原因是能力和部署成本比较平衡。微调方式使用 LoRA,一方面训练门槛更低、迭代速度更快,另一方面可以在有限资源下反复验证数据策略。推理阶段采用 FP16,确保在可接受硬件成本下维持交互体验,前端用 Vue 搭建对话页面与风险提示流。
数据设计:从“问答对”到“干预路径”
我在数据侧重点做了重构,不是简单堆叠心理咨询语料,而是按干预目标构造样本:
- 情绪识别:先识别当前情绪强度与变化趋势。
- 风险分层:区分普通支持、重点关注、高风险应急。
- 回应模板:保证语气稳定、表达克制、不给越权诊断。
- 行动引导:在高风险阶段优先提供明确且安全的求助路径。
这套结构让模型输出更接近“可执行流程”,而不是“泛化安慰文本”。
安全机制:该说什么,更要定义不该说什么
项目里最关键的不是生成能力,而是边界管理。我们把输出分层治理:
- 普通场景允许支持性自由表达。
- 中风险场景增加固定安全提示模板。
- 高风险场景限制开放式生成,优先触发标准化应急引导。
同时在推理链路加入策略过滤,避免出现绝对化、误导性、带诊断结论的文本。换句话说,系统设计原则不是“尽量多给建议”,而是“在不确定时必须克制”。
项目启发
这个项目让我重新理解“微调”的价值。微调并不只是让模型更像人,而是让模型在特定业务里更一致、更可审计、更可回放。尤其在高敏感领域,算法工程师要承担的是系统责任,而不只是离线指标责任。
后来我把这套方法迁移到教育内容生成和 Agent 系统里,收益很直接:先定义风险边界,再做能力增强,系统整体稳定性会高很多。很多团队在 LLM 项目里容易陷入一个误区,只盯效果曲线,不盯治理曲线。短期看前者更亮眼,长期看后者才决定产品能否走下去。
这也是我在 2024 年最重要的工程认知之一:真正成熟的 AI 系统,不是最会说话的系统,而是最能负责的系统。