90个AI名词解析

90个AI名词解析

01 基础核心与学习范式


1. 弱人工智能(ANI):当前主流的专用AI,仅能完成特定单一任务,无法跨领域通用,如人脸识别、语音助手、推荐算法

2. 超级人工智能(ASI):理论上全面超越人类所有智能水平的AI,具备自主意识与超常规创新能力,目前仍处于理论研究阶段

3. 小语言模型(SLM):参数量1B-7B级的轻量语言模型,可本地部署、低延迟、隐私性强,适配手机、物联网等端侧AI场景

4. 自监督学习:无需人工标注数据,利用数据自身结构做监督信号的学习范式,是大模型预训练的核心技术

5. 半监督学习:结合少量标注数据与大量无标注数据训练模型的范式,大幅降低标注成本,兼顾模型效果

6. 强化学习(RL):通过“奖励-惩罚”机制,让模型自主学习最优行为策略的机器学习分支,是RLHF、DPO等对齐技术的基础

7. NLP(自然语言处理):AI核心分支,专注让计算机理解、生成、处理人类语言,LLM是当前NLP领域的主流技术

8. CV(计算机视觉):AI核心分支,专注让计算机“看懂”图像与视频,完成识别、检测、分割、生成等任务

02 模型架构核心术语


9. 混合专家模型(MoE):大模型主流高效架构,包含多个“专家子网络”与门控网络,处理输入时仅激活相关专家,兼顾大模型容量与低计算成本

10. 多头注意力机制:Transformer核心组件,将自注意力拆分为多个并行头,同时捕捉文本不同维度的语义关联,大幅提升模型理解能力

11. 位置编码:Transformer中用于给文本序列添加位置信息的技术,让模型理解词的顺序与上下文关系,主流方案为RoPE、ALiBi

12. 残差连接:深度学习核心技术,通过跳跃连接解决深层网络梯度消失问题,是深层Transformer能稳定训练的关键

13. 掩码语言模型(MLM):BERT类模型的核心预训练任务,随机掩码文本中的部分Token,让模型预测被掩码内容,擅长文本理解类任务

14. GPT:生成式预训练Transformer,OpenAI提出的自回归生成式模型架构,是当前主流LLM的核心范式之一

03 大模型训练与对齐技术


15. 有监督微调(SFT):RLHF的前置核心步骤,用高质量人工标注的问答数据微调预训练模型,让模型学会遵循人类指令

16. DPO(直接偏好优化):2026年主流对齐方案,比RLHF更简洁高效,直接用人类偏好数据优化模型,无需复杂的强化学习环节

17. LoRA(低秩适配):最常用的PEFT技术,仅微调模型中新增的低秩矩阵,不改动基座模型参数,低成本实现场景适配

18. 合成数据:由AI生成的高质量训练数据,用于解决真实数据稀缺、标注成本高的问题,是当前大模型训练的核心数据来源之一

19. 学习率:模型训练中更新参数的步长,是影响模型收敛效果与速度的核心超参数

20. 梯度下降:模型训练的核心优化算法,通过沿损失函数梯度下降的方向更新参数,最小化模型预测误差

21. 反向传播:深度学习训练的核心机制,通过链式法则从后往前计算损失函数对各参数的梯度,用于参数更新

22. 欠拟合:模型未能学习到数据的核心规律,在训练集和测试集上表现均较差,一般因模型容量不足或训练不充分导致

23. 收敛:模型训练中损失函数下降到稳定状态,性能不再明显提升,代表模型训练基本完成

04 提示工程与RAG进阶术语


24. 系统提示词(System Prompt):对话最开头给AI的基础指令,用于设定AI的角色、规则、输出格式与行为边界,全程生效

25. 角色提示:给AI设定特定身份与专业背景,引导AI输出更贴合场景内容的提示技巧,是提示工程的核心基础方法

26. 思维树(ToT):进阶提示技术,将推理过程构建为树状结构,探索多个可能的推理路径,大幅提升复杂问题解决能力

27. 思维图(GoT):比思维树更灵活的推理框架,将推理过程构建为图状结构,支持推理分支的合并与循环,适配复杂逻辑任务

28. 自我一致性:让模型生成多个独立的推理路径与答案,通过投票选择出现频率最高的结果,提升答案的准确性与稳定性

29. 反思(Reflection):让AI先生成初步答案,再自主检查、纠错、优化答案的提示技术,显著降低幻觉与逻辑错误

30. 分块(Chunking):RAG的核心步骤,将长文档拆分为固定大小的文本块,方便嵌入、存储与检索,直接影响RAG的准确率

31. 混合检索:RAG主流优化方案,结合向量语义检索与关键词精准检索,兼顾语义理解与关键词匹配,提升检索召回率

32. 重排序(Reranking):RAG的关键优化步骤,对初次检索到的文档块按与问题的相关性重新排序,将最相关内容优先输入模型

33. 原生RAG(Naive RAG):最基础的RAG架构,流程为“文档加载-分块-嵌入-存储-检索-生成”,结构简单但效果上限较低

05 AIGC细分领域高频术语


34. 文生图(T2I):输入文本描述,AI自动生成对应图像的技术,主流工具如Midjourney、Stable Diffusion

35. 图生图(I2I):以现有图片为基础,结合文本提示生成风格、内容类似的新图片的技术

36. ControlNet:AI绘画核心控制工具,可精准控制生成图像的构图、人物姿态、线条结构,解决生成内容不可控的问题

37. Inpainting(图像修复):AI对图片的指定区域进行补全、修改、重绘,常用于修图、去除水印、修改画面内容

38. Outpainting(图像扩展):AI将现有图片的边界向外延伸,扩展画面内容,保持整体风格与逻辑一致

39. CFG Scale:AI绘画核心参数,控制生成内容与提示词的匹配程度,值越高越贴合提示词,过低则容易偏离需求

40. 采样器(Sampler):AI绘画中控制去噪生成过程的算法,不同采样器在生成速度、画面细节、风格上有明显差异

41. 文生视频(T2V):输入文本描述,AI自动生成对应视频的技术,代表模型如Sora、Runway Gen-3

42. 深度伪造(Deepfake):用AI技术伪造人脸、声音、肢体动作,生成高度逼真的虚假音视频内容,存在显著的合规与伦理风险

43. TTS(文本转语音):将文本内容自动转化为自然流畅的人类语音的AI技术,支持多音色、多语种、多情绪

44. ASR(语音转文本):自动将人类语音转化为文本内容的AI技术,也叫STT,是语音助手、智能客服的核心技术

45. 语音克隆(VC):AI通过学习少量目标人声的语音样本,复刻其音色、语气与说话风格,生成高度类似的语音

46. OCR(光学字符识别):AI自动识别图片、扫描件中的文字内容,转化为可编辑的文本,是办公、文档处理的常用技术

47. NeRF(神经辐射场):AI 3D生成核心技术,通过2D图片重建高精度3D场景与物体,实现沉浸式3D内容生成

48. 3D高斯泼溅:当前主流的3D生成与渲染技术,比NeRF渲染速度更快、效果更逼真,适配实时3D场景

06 AI工程化与部署术语


49. MLOps:机器学习运维,覆盖AI模型从训练、部署、监控到迭代的全生命周期管理,是AI规模化落地的核心工程体系

50. LLMOps:专为大模型优化的MLOps体系,适配大模型的训练、微调、部署、推理优化、Prompt管理等全流程

51. 延迟(Latency):从用户输入到AI输出完整结果的时间,是衡量AI服务响应速度的核心指标,对话场景一般要求低于1秒

52. 吞吐量(Throughput):AI服务单位时间内能处理的请求数量,是衡量服务并发能力的核心指标

53. KV缓存:大模型推理核心优化技术,缓存对话历史中已计算的键值对,避免重复计算,大幅提升多轮对话的推理速度

54. 模型剪枝:模型压缩技术,去除模型中不重大的参数与神经元,减小模型体积,提升推理速度,对精度影响极小

55. 私有化部署:将AI模型部署在用户自有的服务器与设备上,数据不对外传输,保障数据隐私与安全,适配金融、政务等敏感场景

56. 云端部署:将AI模型部署在云服务器上,通过API接口对外提供服务,无需用户自行维护算力与模型,是当前主流服务模式

57. 推理引擎:专门优化AI模型推理速度的软件框架,主流如TensorRT、vLLM、ONNX Runtime,可大幅提升模型运行效率

58. MaaS(模型即服务):厂商将预训练好的大模型通过API接口提供给用户使用,用户无需自行训练、部署,按需付费调用

59. 模型漂移:部署在生产环境的模型,因真实数据分布变化,导致效果随时间逐渐下降的现象,需通过持续监控与迭代优化解决

60. 开源模型:模型的代码与权重完全公开,用户可免费下载、修改、部署、二次开发,代表如Llama、Qwen、Mistral

61. 闭源模型:不公开模型权重与核心代码,仅通过API接口提供服务,代表如GPT-4o、Claude 3、Gemini

07 模型评估与核心理论


62. 涌现能力:大模型的核心特征,当模型参数规模达到必定阈值后,突然出现的小模型不具备的复杂能力,如逻辑推理、数学计算

63. 缩放定律(Scaling Laws):大模型研发的核心指导理论,模型的性能随参数规模、训练数据量、计算量的增加,呈幂律规律持续提升

64. 基准测试(Benchmark):用于标准化评估AI模型能力的测试集,衡量模型的知识、推理、代码、数学等综合能力

65. MMLU:主流的大模型综合能力评估基准,覆盖57个学科,测试模型的知识储备与推理能力

66. C-Eval:中文大模型权威评估基准,覆盖人文、社科、理工等多个领域,专为中文能力优化

67. BLEU:机器翻译、文本生成任务的主流评估指标,衡量生成内容与参考文本的匹配度

68. ROUGE:文本摘要任务的核心评估指标,重点衡量生成内容包含了参考文本的多少关键信息

69. F1值:分类任务的核心评估指标,是准确率与召回率的调和平均,综合衡量模型的精准度与覆盖能力

08 AI安全、隐私与合规术语


70. 越狱(Jailbreak):通过恶意构造的提示词、多轮诱导等方式,绕过AI的安全护栏,诱导AI生成违规、有害、不符合伦理的内容

71. 红队测试(Red Teaming):通过主动攻击、诱导、越狱等方式,测试AI系统的安全漏洞与风险,提前修复,是AI安全评估的核心手段

72. AI水印:在AI生成的内容中嵌入不可见的数字标记,用于溯源内容的生成来源,防范深度伪造、违规滥用等风险

73. AI鉴伪:识别一段内容是否由AI生成的技术,覆盖文本、图像、音视频等多种类型,是内容合规的核心工具

74. 算法偏见:AI模型因训练数据的偏差,生成带有性别、种族、地域等歧视性的内容,是AI伦理的核心问题

75. 数据投毒:在模型的训练数据中加入恶意内容,让模型学习到错误的知识或行为,产生特定的错误输出,属于AI安全攻击手段

76. 差分隐私:AI隐私保护核心技术,在数据或模型训练中加入少量噪声,保护个人隐私信息,同时不影响模型的整体性能

77. 同态加密:隐私计算技术,可直接在加密的数据上进行计算,无需解密,全程保护数据隐私,适配敏感数据的AI处理

78. 隐私计算:一类保护数据隐私的AI计算技术集合,包括联邦学习、差分隐私、同态加密等,实现“数据可用不可见”

79. 对齐税:为了让AI模型对齐人类价值观、安全规范,牺牲的一部分模型性能、推理速度与创作自由度

09 前沿方向与应用类术语


80. AI for Science(科学智能):用AI解决科学研究问题,覆盖生物制药、材料科学、气候模拟、高能物理等领域,大幅加速科研进程

81. 数字孪生:用AI创建物理实体的高精度虚拟镜像,实时模拟、监控、优化实体的运行状态,广泛应用于工业、城市、医疗等领域

82. 多智能体系统(Multi-Agent System):多个AI智能体分工协作、自主交互,共同完成复杂任务的系统,适配企业级复杂工作流

83. 生成式代理:基于LLM的智能体,能模拟人类的行为、思考、社交模式,自主完成长期目标与复杂交互

84. 神经符号AI:融合神经网络的模式识别能力与符号逻辑的推理能力,解决纯数据驱动AI的常识缺失、推理不可靠的问题

85. 端云协同AI:结合端侧本地计算与云端大模型能力的AI架构,兼顾隐私保护、低延迟与强劲的模型能力,是当前端侧AI的主流方案

86. AI原生应用:从底层架构开始就为AI能力设计的应用,而非传统应用简单叠加AI插件,能充分发挥大模型的能力

87. MCP(模型上下文协议):2026年新兴的AI协议,标准化大模型与外部工具、数据源的连接方式,让AI能更安全、便捷地调用外部能力

88. AI Copilot(AI副驾驶):嵌入到办公、编程、设计等软件中的AI助手,辅助用户完成工作,提升效率,代表如GitHub Copilot、Office Copilot

89. RPA(机器人流程自动化):结合AI能力,自动完成重复、标准化的办公流程,如数据录入、报表生成、邮件处理,大幅提升办公效率

90. 数字人:用AI驱动的虚拟人物,支持语音交互、表情动作驱动,广泛应用于直播、客服、影视、品牌营销等场景

#上头条 聊热点#

© 版权声明

相关文章

暂无评论

none
暂无评论...