本月初,即9月1日当天,DeepSeek公布了其大模型的基本原理和训练方法,下面是我整理的核心内容。原文链接如下:
https://cdn.deepseek.com/policies/zh-CN/model-algorithm-disclosure.html
一、模型的基本原理
DeepSeek模型基于大语言模型(LLM),采用深度神经网络构建,包含数十亿至数万亿参数。模型运行分为两个阶段:
训练阶段
:包括预训练和优化训练(微调)。预训练通过大规模自监督学习从通用文本数据学习语言模式;优化训练通过有监督微调(SFT)或强化学习(RL)使模型适应特定任务(如回答问题)。
推理阶段
:模型部署后,基于输入内容预测下一个词元,采用自回归生成方式输出响应(如文本、表格或代码)。强调模型并非检索训练数据,而是基于语义理解动态生成内容,不存储原始训练数据。
DeepSeek所有模型均开源,通过MIT协议公开发布权重、参数和推理代码,并提供完整技术报告供社区参考。
二、训练数据来源与处理
模型的训练数据依赖高质量、大规模和来源多样化的数据,且训练过程需要严格遵守法律法规,确保合法合规性。
1、预训练阶段数据
主要使用互联网公开信息和第三方合作获取的数据。
不有意收集个人信息,但训练数据规模庞大可能偶然包含个人信息,通过技术筛查移除(如过滤有害内容)。
数据治理:自动过滤仇恨言论、色情、暴力等内容;结合算法和人工审核减少偏见,提升模型公正性。
2、优化训练阶段数据
数据来源于人工或自动化构造的问答对,部分可能基于用户输入。
保护用户隐私:对数据实施安全加密、去标识化和匿名化,避免关联特定个人。
用户权利:提供“退出”选项,避免个人数据用于训练或输出。
安全强化:构造专门安全数据训练模型,确保回复符合人类价值观。
三、模型的局限性和风险
1、模型局限性
主要挑战是“幻觉”问题:生成错误、不准确或虚假内容的可能性,源于技术不成熟。
减少方法:DeepSeek采用高质量数据、优化对齐策略和检索增强生成(RAG)技术降低幻觉率,但无法完全消除。
警告提示:服务提供显著标识提醒用户内容可能不准确,强调模型输出仅供参考,不构成专业建议(如医疗、法律、金融)。
2、模型的风险
滥用风险:包括隐私泄露、版权问题、数据安全和偏见歧视等。
风险控制:DeepSeek贯穿生命周期实施安全措施(如内部管理制度、模型安全评估、红队测试、增强透明度)。赋予用户权利,包括知情权、选择权(拒绝数据用于训练)和控制权(删除历史数据),以缓解潜在问题。
最后,附思维导图,仅供参考。
声明:来自老张的求知思考世界,仅代表创作者观点。链接:https://eyangzhen.com/3092.html