AI(Artificial Intelligence,人工智能)技术的发展源于20世纪50年代科学家对机器模拟人类智能的探索。近年来,得益于信息技术、计算机硬件和算法的进步,AI已从早期符号处理发展至机器学习和深度学习,广泛应用于医疗、交通等领域,极大推动了社会进步。随着ChatGPT聊天机器人的惊艳亮相,AI技术在NLP(Natural Language Processing,自然语言处理)方面取得了突破性的进展,让人们看到了AI在理解和生成人类语言方面的巨大潜力,现在,让我们共同开启NLP探索之旅。
自然语言是人类在日常生活中自然演化出的语言系统,用以表达人的思维和交流,二进制代码是计算机能够直接处理的语言,编程语言和通信协议这类人工语言也能被计算机高效处理。NLP旨在跨越自然语言与人工语言之间的巨大差异,探索实现人与计算机之间用自然语言进行有效交流的理论与方法,是计算机科学领域和人工智能领域的重要研究方向之一。
NLP |
|
|
分析 |
对自然语言进行词汇层面的分析,是NLP基础性工作 |
|
分析 |
|
|
分析 |
|
|
抽取 |
|
|
任务 |
|
|
其中,语言模型(Language Model,LM)目标就是建模自然语言的概率分布。词汇表V上的语言模型可以形式化地构建为词序列作为一个句子出现的概率,但是这样的计算复杂度太大,可通过将联合概率转换为条件概率的乘积,最大化下一个词出现的条件概率来建立语言模型。
1.早期探索(1950s-1970s):
NLP的早期研究主要基于规则,例如ELIZA,这些系统通过模拟对话来模拟人类交流,但规则的覆盖度有限,难以处理复杂的语言现象。
2.统计学习方法(1980s-1990s):
随着计算能力的提升,统计学习方法开始流行,如隐马尔可夫模型(HMM)和循环神经网络(RNN),在处理序列数据和捕捉时间依赖关系方面展现了强大能力。
3.深度学习时代(2010s-2017):
深度学习的出现为NLP带来了革命性的变化,以编码器-解码器(Encoder-Decoder)、门控循环单元(GRU)、ELMO(Embeddings from Language Models)为代表的技术,使得模型具备了处理多义词、同义词等复杂语言特性,捕获句子复杂依赖关系的能力,但面对下游任务时仍然需要迁移训练。
4.大模型时代(2017-至今):
在2017年,谷歌提出了Transformer模型,这一模型彻底改变了NLP的研究方法。Transformer采用自注意力机制来处理序列数据,既实现了并行计算,从而大幅提高了模型的训练速度;又极大扩展了模型容量,需要海量的文本数据做训练。最终,大语言模型能够以自然语言的形式接收并高质量地回答各种下游任务,其中以BERT系列、GPT系列和LLAMA系列等大模型为典型代表。
按照实现方式不同,可以把传统NLP落地应用分为对话机器人(语音语义问答)、阅读理解、智能搜索和机器翻译四种。大模型的出现和普及极大地扩展了NLP的应用范围,推动了许多创新领域的发展,如高质量文本创作、多轮流畅交互、多模态交互、辅助科研、专业情感和心理分析、辅助编程、个性化学习等。
目前,各个行业的垂直领域大模型已在业务中逐渐崭露头角,并呈现出迅速发展的势头,握奇凭借着深厚的行业和技术积累,顺应时代发展趋势,正在加紧开发密码大模型、智能卡大模型、物联网大模型等相关应用,与重点科研院所合作共同研究基础模型问题,探索大模型时代数字信任构建的新形态。