每日速讯:2023年传媒行业AIGC深度报告 人机交互形式正在发生颠覆式变化

2023-05-15 11:31:45

来源:中银证券

人工智能应用已经进入高速发展阶段

AI能力迭代速度加快


(相关资料图)

人工智能的研究目的是使机器能够模拟人类的智能行为,从而扩展人类的能力。于是研究者通过赋 予智能主体听觉(语音识别、机器翻译等)、视觉(图像识别、文字识别等)、自然语言能力(语 音合成、人机对话等)、思考(人机对弈、专家系统等)、学习(知识表示,机器学习等)和行动 (机器人、自动驾驶汽车等)的能力来实现。AI 技术自诞生以来,经历了多个技术研究以及应用方 向,目前已经进入了飞速发展阶段,智慧能力愈发强大且迭代速度加快。

AI 诞生以及规则驱动时期(1943-1980s):1950 年,艾伦·麦席森·图灵(Alan Mathison Turing)提 出了“图灵测试”,其目的是检验机器是否可以表现出与人类难以区分的智能,这一想法引发了机器 产生智能的探讨。1956 年的达特茅斯会议首次提出了“人工智能”概念和理论。随后,人工智能领域 出现了符号主义、联结主义(神经网络)等不同的研究方向,也取得了许多重要成果,如机器定理 证明、跳棋程序和人机对话等。在 1957 年,Frank Rosenblatt 设计了第一个计算机神经网络,被称为 感知机,它被认为是第一个成功应用神经网络原理解决实际问题的算法。随后的 1958 年,赫伯特·西 蒙和艾伦·纽厄尔演示了第一个人工智能程序,名为逻辑理论家(LT-Logic Theorist)。早期的 AI 研 究重点在于利用规则系统来模拟人类思维,采用一系列预先设定的规则来完成推理、分类等任务。

知识系统时期(1980s):从 1970 年代开始,学术界开始接受了一种新的思路:人工智能不仅需要 研究解决问题的方法,还需要引入知识。1977 年的世界人工智能大会上,提出了“知识工程”的概念。 专家系统应运而生,它们模拟人类专家的知识和经验,用于解决特定领域的问题,这标志着人工智 能从理论研究转向了实际应用。日本的第五代计算机计划和英国的阿尔维计划等一系列计划推动了 专家系统的高速发展。在这个时期,卡内基梅隆大学的 XCON 系统和 Stanford 医学专家系统等重要 成果的出现使得专家系统在医疗、工业、金融等领域得到广泛应用。人工智能的研究方法也从逻辑 推理、搜索算法等领域扩展到了知识表示、推理和学习等多个方面。

机器学习时期(1990s-2010 年):在这一时期,机器学习成为了 AI 发展的焦点,这种学习方式是 通过算法根据给定的输入数据和对应的输出数据进行学习,从而发现规律和模式,并且能够对新的 样本做出判断、识别或预测。机器学习方法包括支持向量机、决策树、朴素贝叶斯等。IBM 成为了 彼时 AI 领域的领导者:1997 年,由 IBM 开发的超级电脑“深蓝”战胜了国际象棋世界冠军卡斯帕罗 夫,这是人工智能在智力运动方面的一次重大胜利。2006 年,企业开始引领 AI 发展,谷歌的塞巴 斯蒂安·特龙领导了自动驾驶汽车项目,企业对人工智能的投资也为其发展注入了强劲动力。

深度神经网络时期(2011 年至今):2010 年代以来,AI 在以深度神经网络为代表的发展过程中, 取得了在感知方面的重要进展,例如语音处理、图像分类、视频处理、知识问答、人机对弈、无人 驾驶等。2011 年, IBM 的沃森(Watson)在一档美国电视智力竞赛节目《危险边缘》(Jeopardy!) 中战胜人类选手获得冠军;同年,苹果推出了自然语言问答工具 Siri。谷歌于 2012 年正式发布谷歌 知识图谱(Google Knowledge Graph)。

2015 年,马斯克等人共同创建 OpenAI,其发布的热门产品 包括 OpenAI Gym 和 GPT 等。2016 年,谷歌旗下 DeepMind 公司推出的阿尔法围棋(AlphaGo)战胜 围棋世界冠军李世石。2018 年,谷歌发布了自然语言生成模型 BERT,成为 NLP 领域的重要进展。 同时,DeepMind 发布的新版本阿尔法围棋(AlphaGo Zero)在没有人类知识的情况下自我学习并战胜 前一版阿尔法围棋(AlphaGo)。2019 年,OpenAI 发布了语言生成模型 GPT-2;2022 和 2023 年先后 发布了 GPT-3.5 和 GPT-4.0。

自主学习时期(未来方向):这个阶段是指未来的发展趋势,AI 系统能够自己收集、整理和分析数 据,并根据这些数据进行自我学习和优化,不断改进自己的性能,具备更高的智能水平,并逐渐适 应更加复杂和多变的环境和任务,甚至可能出现自我意识。

AIGC 多模态交互能力持续进化.从应用类型来看,AI 可以分为四类,但这四种类型不是完全独立的,实际中的 AI 应用可以涵盖多 种类型的技术。本篇报告主要讨论的是生成式 AI 应用(AIGC)。 1) 感知型 AI:基于计算机视觉、语音识别等感知技术的 AI 应用,应用于人脸识别、目标行为识 别、工业场景视觉识别、全屋智能家居等。这类 AI 通常是通过对输入数据进行分类、聚类等简 单处理来实现对环境的理解,而且通常不需要进行复杂的推理和决策。 2) 决策型 AI:通过与外界的交互,自主学习并不断优化策略,以实现最优的决策和行动,应用于 棋类策略游戏、无人驾驶、铁路调度系统、投资决策系统等等。

3) 分析型 AI:基于数据挖掘、机器学习等数据分析技术的 AI 应用,主要通过对大量数据的分析 和挖掘,构建模型和算法来预测未来趋势、发现隐藏规律、优化决策等。应用于内容推荐、金 融保险风控、商业分析、拦截垃圾邮件等场景。 以字节跳动的推荐算法“灵驹”为例,该算法通过对平台用户的基本特征、行为数据进行归纳分析, 打上专属标签,实现内容和广告的精准推送。Instagram、YouTube 等社交媒体巨头使用的核心推荐 算法有 Reels、Feed 等,亚马逊则通过 FBT 算法(Frequently Bought Together)推荐用户搜索过的类 似商品。

4)生成式 AI:即 AIGC,是指利用生成式 AI 技术,例如深度学习、自然语言处理等,让机器能够 自动地创造文本、图像、音频、视频等多媒体内容。其工作方式是基于学习和推理,通过大量数据 训练来学习规律并创造新的内容,而非仅仅分析现有的数据。生成式 AI 可以通过输入一些参数或者 文本,生成出符合语义的自然语言或者图像,应用场景包括自然语言生成、机器翻译、图像生成、 音频合成等。

AIGC 的发展与整体人工智能技术的发展历程基本相同,但在机器学习和深度神经网络发展阶段获 得了加速进步。 小范围探索应用 (1950s-1960s):早在 1957 年,第一支由计算机创作的弦乐四重奏《依利亚克组》 就已经出现。随后,第一款可与人进行对话的机器人“Eliza”于 1966 年问世。80 年代中期,IBM 创 造的语音控制打字机 Tangora 也出现在市场上。然而,由于高昂的成本以及难以商业化的原因,从 80 年代末到 90 年代中期,AIGC 仅能进行小范围的实验和应用,资本投入也因此受到了限制。

自主化生成能力尚弱(1990s-2010s):AIGC 正逐渐从实验性向实用性转变,开始探索利用人工智能技 术生成新闻、音乐、诗歌等内容。其中包括世界上第一部完全由人工智能创作的小说《1 The Road》。 然而,在这一阶段,AIGC 仍然受限于算法瓶颈和模板的缺陷,只能通过预先设置的规则和算法来 生成内容,缺乏个性化和创意性。因此,AIGC 尚未达到真正的自主化水平。 深度学习促进快速发展 (2010s-至今):AIGC 的发展得到了深度学习算法不断迭代更新的助力,例如 生成对抗网络(GAN)、变分自编码器(VAE)和语言模型等。AIGC内容变得百花齐放,往往能 在短时间内快速生成,在一定程度上达到人类难以分辨的效果。

这引起了许多知名机构和公司的关注和投入,他们开始大量研发和应用 AIGC 技术:2017 年微软人 工智能产品“小冰”推出世界首部 100%由人工智能写作的诗集《阳光失了玻璃窗》;NVIDIA(英伟 达)2018 年发布 StyleGAN 模型可自动生成图片;DeepMind 于 2019 年发布 DVD-GAN 模型可生成 连续视频。2022 年,OpenAI 推出了人工智能聊天原型 ChatGPT,这种文本生成模态应用模型能理 解并生成文字;同年,Diffusion 扩散化模型出现,直接推动了 AIGC 技术在图像生成领域的突破性 发展。

由于文本生成 AI 模型研究较早、应用较多,因此本篇报告将主要围绕以 GPT 模型为代表的文本生 成 AI 进行探讨。 经过多年的发展,自然语言生成 AI 经历了从早期的简单语义匹配到如今交互式生成文本的演变。早 期的客服机器人通过简单的语音关键词识别,仅能提供固定的答案,无法真正理解用户的意图。随 着神经网络的发展,端到端的深度学习算法逐渐被应用到各个领域,以 DSSM 为典型代表的神经网 络匹配模型被提出,可以更灵活地进行文本相似度匹配运算。2018 年,OpenAI 提出了第一代 GPT 模型,将自然语言处理带入大规模预训练语言模型时代,使得交互式文本生成成为可能,可以生成 高质量的自然语言文本,包括新闻、对话、小说等。

在自然语言生成 AI 领域,GPT 和 BERT 是最具代表性的两个语言模型。它们都基于 Transformer 架构演变而来,但是分别对应 Transformer 架构的不同部分:Transformer 模型由编码器和解码器两 部分组成,编码器用于将输入序列编码成抽象的表示,解码器用于将这个抽象表示解码成输出序列。 GPT 模型主要是基于 Transformer 的解码器(Decoder)部分,主要用于文本生成任务,如文本自动 完成、对话生成、文章摘要等;而 BERT 模型主要是基于 Transformer 的编码器(Encoder)部分, 主要用于自然语言理解任务,如问答系统、文本分类、相似度比较等。 这两种模型的不同特点,使得它们在不同的自然语言处理任务中发挥着重要的作用,对于 AI 技术的 发展也有着重要的推动作用。同时,它们的成功也为更多的 AI 模型和应用提供了借鉴和启示。

图像生成 AI 通过分析转换用户输入的文字,生成符合客户需求的图像。代表性的图片生成模型包 括 Stability AI 的 Stable Diffusion Reimagine、OpenAI 的 DALL-E 2 和 Midjourney,三款应用各有所 长。 Stable Diffusion Reimagine 是一种基于扩散化模型的深度学习模型,它采用了先进的概率推理算法, 用户只需要上传一张图片,该平台会自动生成 3 张联想图片,并且支持更细致化的编辑;与传统的 生成式 AI 相比,Stable Diffusion Reimagine 在生成内容时可以更好地控制输出结果的多样性和一致 性。基于开源的 Stable diffusion,清华大学在自研大模型 Chat GLM 中组合了 FlagStudio 功能,支持 中英文双语、多种风格艺术的图片生成,包括国画、摄影、油画、水彩等。

Midjourney 是一家人工智能生成艺术内容平台,使用深度学习技术和生成对抗网络(GAN)来生成 图片。技术路径主要涉及两个阶段:第一阶段是使用 GAN 生成一系列随机噪声图像,然后在第二阶 段中,使用一个预训练的图像分类器来筛选出最优图像。这种方法可以帮助生成具有高度复杂性和 多样性的图像,并且可以根据所需的风格和主题进行调整和优化。 DALL-E 2 是 OpenAI 推出的一款文本到图像的生成模型,它可以根据给定的文字描述自动生成对应 的图片。DALL-E 2 基于 GPT 系列模型和 GAN 系列模型进行训练,具有较高的生成质量和可控性。

视频生成式 AI:目前视频生成技术成熟度尚不及文字和图片,生成的视频时长较短,清晰度和连续 性有待提高。此外,为了生成高质量的视频,需要使用大量的计算资源和大量的数据进行训练。有 部分科技公司已经开始了尝试:Meta 于 2022 年 9 月发布 Make-A-Video,通过生成 1 张连续的 64X64 像素的 RGB 图片,再提升 768×768 像素,生成高分辨率和帧率的视频。谷歌 2022 年 10 月发布的 Imagen Video 可以生成一个每秒三帧,分辨率为 24 x 48 像素的 16 帧电影。Adobe 于 2022 年发布了 名为 Project Clover 的视频生成工具,该工具使用了深度学习技术,可以自动生成视频素材和场景, 并将它们组合成完整的视频。

音频生成式 AI:目前音频生成 AI 的应用主要涵盖两个方面:音频转文字和音乐生成。Microsoft 的 OneNote 提供的“人工智能支持”语音听写技术支持超过 50 种语言和多种命令,用户无需使用鼠标或 键盘即可将音频转换成文字。而 Google 的音乐生成 AI MusicLM 可以根据输入的文字、图片和标题 的组合,生成相应风格的音乐。为了提升音频生成 AI 的质量,Google 在 FMA(Free Music Archive) 数据集上训练了 SoundStream 和 w2v-BERT 模型。相比于其他基于文本生成音乐的基线方法(如 Mubert、Riffusion 等),MusicLM 所生成的音频质量更高。然而,由于可能涉及盗用创意内容的潜 在风险,目前 MusicLM 尚不能发布。

AIGC领域历经多种技术路线演化

大语言模型的主要技术路径均基于Transformer

目前,在文本类 AIGC 领域,预训练大语言模型(LLM,如 GPT、BERT 等)是表现最为突出的技 术。语言模型是自然语言处理(NLP)的重要组成部分。早期的语言模型以 n-gram 模型为代表,主 要基于统计方法。但这类方法在捕捉长距离依赖(句子中相隔较远的词汇之间存在语法或语义关系) 和复杂的语言结构等方面存在局限性。随后,NNLM 开创了神经网络在自然语言处理领域的应用, Word2Vec、ELMo 等神经网络模型引入了新的方法并推动了预训练模型的发展。2017 年,Transformer 架构摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),完全基于自注意力机制来处理 序列数据,从而开启了 NLP 的 Transformer 时代。

2018 年,基于 Transformer 架构的三大主要产品问世,它们是 GPT、BERT 和 T5。GPT 是一种自 回归模型,只使用了 Transformer 的 Decoder 部分,训练时只考虑了给定词汇前的上下文信息,输出 词汇依赖于先前生成的词汇,因此理论上具备更强的生成能力。BERT 则是一种双向语言模型,使 用了 Transformer 的 Encoder 部分,在训练中随机对输入序列中的部分词汇进行遮蔽后尝试预测,因 此有能力同时捕捉上下文词汇的双向信息。而 T5 模型则采用了完整的 Transformer 架构,其中的 Encoder 部分负责理解输入文本,而 Decoder 部分则生成目标文本。

随着计算资源的增加,GPT 系列的参数量和语料库规模不断提高。在 2020 年,GPT-3 诞生,它拥有 1750 亿个参数,是空前规模的超大模型,开启了超大模型时代。在后续的优化中,OpenAI 引入了 基于人类反馈的强化学习方法,并借助涌现能力的加持,推出了具有惊人能力的 ChatGPT。

要获得类似 ChatGPT 的产品,首先我们需要具备优质架构下的大规模预训练模型。预训练可以采用 自监督学习方法,例如掩码语言模型或自回归模型。在这一阶段,需要使用大量无标签文本数据对 模型进行预训练,从而使模型学习文本的潜在结构、语法、语义等信息。具备预训练模型后,还需 要进行大量微调、优化和针对性的调整,以满足具体应用的需求。由于语言模型本身致力于预测可 能性较高的下一个词汇,而非满足人类需求的答案,因此在解决该不一致性时,基于人类反馈的强 化学习(RLHF)起到了重要的作用。

RLHF 的主要步骤如下: 第一步是训练监督策略模型:在数据集中随机抽取问题,由专业标注人员给出高质量答案,形成问 答对(QAG)。然后,使用这些人工标注好的数据以回答正确为目标来微调预训练模型,使得模型 能够根据输入数据预测相应的输出标签,从而学习两者之间的关系。 第二步是训练奖励模型(RM):这个阶段主要通过人工标注训练数据来训练奖励模型。在数据集 中随机抽取问题,使用第一阶段训练得到的模型,对于每个问题,生成多个不同的回答。人类标注 者对这些结果综合考虑给出排名顺序,并使用这个排序结果数据来训练奖励模型,以建立人类反馈 模型。

第三步是使用反馈模型进行强化学习:利用第二阶段训练好的奖励模型,通过给微调后 GPT 模型输 出的结果打分来持续训练,形成模型与纯自然语言数据的反馈闭环。 通过 RLHF,在提升回答质量、适应用户需求、减少不良内容、提高泛化能力等方面,ChatGPT 具 备了比前几代模型更好的表现。

“涌现能力”令人惊艳,但原理仍是谜团。对于 ChatGPT 表现出的惊艳效果,模型规模和海量数据带来的涌现能力(Emergent Capabilities) 功不可没。涌现能力是一种不可预测的广泛存在于如物理学、经济学等领域的现象,当一个复杂系 统由很多微小个体构成,这些微小个体凑到一起,相互作用,当数量足够多时,在宏观层面上展现 出不同于其部分的行为,就可以称之为“涌现现象”。例如,自然界中雪花、气流漩涡的形成,金属 中电子的超导性,宏观经济展现出不同于微观经济简单集合之后的特征等。

在大语言模型领域,涌现能力指的是当模型规模超过一定阈值后,模型可以完成更加复杂的任务并 大大提高精度,甚至具有未经过明确训练的能力。研究者发现,“涌现能力”通常出现在由多步骤构 成的复杂任务解决中,而在知识密集型的任务中,模型表现仍然保持较为线性的“伸缩法则” (Scaling Law),即随着模型规模的不断增长,任务效果也持续增长。

目前 GPT 等大语言模型表现出来的惊人的上下文学习能力(in-context learning)就是涌现效应的 部分证明。上下文学习能力(in-context learning)是指不对模型参数进行调整,而是给大模型几个示 例,AI 就可以从类比中学习,但是这种能力需要超过 40B 的参数数量才能够达到。在 GPT 模型表 现出的 ICL 之前,很多语言模型都需要针对下游任务进行微调(fine-tuning),但微调过程需要大量 的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容 易导致过拟合,致使模型的泛化能力下降。ICL 不需要 fine-tuning,既节省时间与算力资源,还提升 了模型性能。

业内对大模型涌现能力背后的原理有很多研究和探讨,但目前尚未形成公认的研究结果,包括上文 所说的上下文学习能力(in-context learning)也仍是未解之谜。总体来说,涌现能力可能源自于大模 型内部神经网络之间的相互作用。

1)大语言模型内部产生自组织,自组织是指在无中心化的情况下,系统中的个体或部件可以根据相 互作用的规则自行组织形成一种结构、模式或行为。在人工智能领域,自组织就是神经网络的节点 (或神经元)之间可以通过反向传播算法进行联合学习和自适应调整,网络内部的节点和连接逐渐 形成了一种高度优化的结构,以最大限度地适应训练数据和任务需求。这在任务指标不够平滑时可 能尤其凸显。例如某个任务的评价指标要求很严格,要求一字不错才能通过,那么涌现现象就会 出现;但是如果把问题形式换成多选题,给出几个候选答案让模型选择,那么随着模型不断增大, 任务效果在持续稳定变好,涌现现象却消失了。

相关猜想是,如果评价指标不够平滑,那么在大模型内部,可能存在一些相互作用的神经元或神经 网络,它们之间的相互作用可以放大一些微小的信号,从而产生了在训练集之外的新能力。

2)大语言模型通过分层抽象的方式来学习复杂的特征和知识,即神经网络将输入的信息进行逐层抽 象和提取,从低级别的特征(如边缘、颜色等)到高级别的概念(如物体、场景等),并在不同层 次之间进行信息交互和整合,从而构建出具有复杂性和多样性的特征和知识。例如在“国际象棋”任 务中,“吃掉对方的将”是 AI 的最终任务,而每一手棋是达成最终任务下的子任务,这些子任务的效 果往往会随着模型规模的增大而不断提高,符合“伸缩法则” (Scaling Law),在某个阈值之后,多 个子任务之间产生了更高层次的相互作用和协同效应,导致整个模型的效果得到了大幅提升,涌现 效应出现。

其他模态 AIGC 基于各自领域小模型发展。图像类 AIGC:该类 AIGC 优势之一就是在技术端的成果往往能较快转化为商用,生成效果较突出 的产品包括 DALL-E 2、Stable Diffusion 和 Midjourney。 目前主流的图像生成类 AI 技术是 CLIP 与 Diffusion:1)CLIP 是一种大一统技术框架,可以将图 像域和文本域的特征对齐,允许模型同时理解图像和文本;它由 OpenAI 团队开发,并且已经被广 泛应用于图像分类、图像检索、图像生成等多个领域。2)diffusion(扩散)是一种用于生成高质量 图像的技术,它通过将原始图像转换为图像噪声域并逐步改善图像,以生成逼真的图像。它的核心 思想是将原始图像与噪声混合,并在每个时间步长中逐渐减小噪声的强度,直到图像不再有噪声为 止。这个过程类似于将水分子在溶液中扩散开来,因此也被称为"扩散"。

国内发展大语言模型面临的挑战

自从大语言模型 ChatGPT 发布之后,公众对 AIGC 的关注迅速上升。国内外的互联网厂商看到通用 大模型在许多领域应用的商业价值,纷纷加快了布局。实际上,国内互联网巨头百度、阿里、腾讯、 字节跳动等过去都在 AI 技术上有所积累,但应用方向比较垂直,以快速实现商业价值为导向,例如 辅助驾驶、工业设备控制、广告推送等。这些 AI 技术的研究路径与 AIGC 有所不同,需要公司调整 研究方向和资源。 目前大语言模型厂商所使用的架构基本基于 Transformer,因此其成本结构也类似,主要可分为数据 成本、算法团队成本和算力成本,三部分成本也分别对应了人工智能的三大要素数据、算法和算力。 在这一部分我们将以 GPT-3 与 ChatGPT 为例从人工智能的三大要素的角度剖析大语言模型的成本 构成并提炼和总结现阶段国内发展 AIGC 的几点主要挑战。

数据成本:海量的优质数据以及处理数据的经验方法。数据是人工智能的三大要素之一,数据成本指图片、文本、音视频的数据的收集、清洗、人工标注 以及建立用户反馈机制所带来的成本,我们将其简单拆分为数据获取成本与数据处理成本。根据 wikipedia,具有 1750 亿参数的 GPT-3 的预训练过程中基于以下几个数据集,主要来自网络爬取、书 籍、维基百科以及 GitHub,其中 80%以上的数据来自公开互联网中的网页、文章、图片、视频、音 频等各种形式的信息。在模型训练中"# Tokens" 可以理解为数据集中的词汇数量以衡量数据集的规 模和复杂性。大量 Tokens 可以为模型提供丰富的信息,有助于模型学习更复杂的语言结构和语义 关系。

数据集中占比 60%的 Common Crawl 主要是累积多年的网络爬虫数据集,约有 320TB 文字信息,但 主体信息为英文,其中中文信息占比约 5%。该数据集整体质量较低,OpenAI 在根据各数据及质量 赋予权重的同时,也对数据集进行了过滤、去重、加入高质量数据等处理。获得处理后的数据集后, GPT-3 还通过研发人员、外包标注人员以及所建立的用户反馈机制进行数据优化。整体而言,GPT-3 的数据获取成本较低,其数据处理成本应占比更高。然而,OpenAI 随着后续模型训练数据量的扩大, 预计数据获取难度将逐步提高,数据获取成本持续上升,在包含研发、标注、以及用户参与相关的 成本后,预计 OpenAI 目前的数据成本超过 1 亿美元。

对于国内相关厂商而言,由于产业积累相较北美更为薄弱,现成的、针对中文的大规模数据集相对 较少。根据 IDC,2021-2026 中国数据规模 CAGR 达全球第一,但总量上相较北美仍有较大差距。 同时,英文作为世界语言,具备更广泛的用户基础以及更丰富的优质数据累积。另外,数据作为新 的生产要素,在国内互通壁垒较为明显,同时不乏较低质量的信息引起的噪音问题,这对国内厂商 的数据积累、收集以及最终的清洗能力提出了较高的要求。

除了数据体量非常重要,数据的质量以及如何处理获取数据同样极为关键。现实世界的数据存在很 强的长尾特征,长尾数据指的是在数据分布中出现频率较低,但却有很多种类的数据,包括低频词 汇(医学诊断、学术术语等)、小众兴趣、反洗钱、反欺诈等。相对于分布中出现频率较高、种类 相对较少的数据,长尾数据更加稀缺且难以获取。这些长尾数据对于某些 AI 任务可能非常重要,但 由于它们数量稀少,因此需要特别的方法来获取和处理。一种较为根本且长期的方法是通过强化 AI 模型的能力来适应数据的长尾特征,例如数据增强(对原始数据进行处理得到过更多训练数据,从 而扩充数据集)、非监督学习(利用未标注数据进行预训练,从而提高模型在有限标注数据下的表 现等)、元学习(让模型学习如何学习的方法)等。

另一方面大模型的“增长飞轮”效应也能在一定程度上巧妙缓解长尾数据问题,即利用公开数据,快 速建立一个大致可用的 AI 大模型,随着模型不断被用户使用,大量的多样化的场景/对话/行为/反馈 数据被采集,帮助模型不断更正和扩大任务范围,同时也获取到大量长尾数据,由此模型会变得更 加准确和强大,从而能够解决更加复杂和具有挑战性的任务。而这又会带来更多的数据和更多的资 源,可以用来进一步扩大和训练模型,形成一个循环的正反馈机制。 作为 AIGC 的典型应用代表,ChatGPT 在应用层展现出了出色的潜力。自发布以来仅仅用了两个月 的时间,就吸引了一亿用户,打破了 TikTok 保持的九个月记录,成为了史上用户增长速度最快的消 费级应用程序之一。因此 ChatGPT 更有机会从全球用户的使用过程中获取到大量有价值的稀缺数据。

而各大国内厂商先后快速推出大模型,并邀请不同行业、业务场景下的企业接入大模型,或是希望 通过这种工程化的方法更快获取到公开领域很难获取的长尾数据。我们认为,能够获取到更多专业 细分商业场景的数据、更具有数据处理经验,或者拥有更好的 AI 基础设施(例如快速试验室帮助 更快找到适合处理长尾数据的最佳模型)等的国内企业能够形成较坚固的护城河。

AIGC颠覆人机交互模式,创造全新内容形态

人机交互形式正在发生颠覆式变化

与传统 AI 的规则引擎和决策树相比,大语言模型具有明显优势。它不仅可以完成基础的识别、预 测和分辨等任务,还能够与人类自然地进行对话,精准生成各种基于上下文语义和语境的内容。虽 然目前 AIGC 模型主要以文本形式与人交互,但语音交互是未来研究的重点领域,而多模态交互也 是人工智能生态的一个重要发展方向,能够实现交互形式的范式变革。 我们预计,未来基于各类 AI 模型的交互系统将成为操作系统的主要形式,应用程序与指令逻辑将 根据 AI 交互平台进行重新设计。目前,AI 大模型已逐步取代了一些应用的传统操作模式,随着算 力成本的降低和 AI 模型的轻量化,预计其可替代操作模式将进一步泛化,广泛应用于智能家居、工 业自动化、智能物流、智慧城市以及其他 2C 应用领域。

人机交互(HMI/HCI),是指人类通过各种形式的交互手段,如语音、触摸、手势等,与计算机或 其他机器之间进行单向或双向信息交流和共享的过程,其中单向人机交互通常为人类发出指令或提 供输入,而机器则按照指令执行操作或产生输出,但不会主动与人类沟通或提供反馈;双向人机交 互中人类可以发出指令或提供输入,同时机器会基于用户提供的输入或上下文来产生反馈或提问, 从而进一步推动交互的进行。 人机交互整体可区分为四个环节:输入、信息处理、输出、反馈,其中单向的人机交互过程由于基 本不存在内容输出与反馈,因此在我们的后续分析中单向人机交互仅包含人机交互中的前两个环节。

在输入环节,传统的人机交互模式要求用户使用多种设备向计算机输入可识别的指令,而这些指令 对于用户的操作水平、知识储备等提出了较高的要求。然而,通过大语言模型加持,用户可使用以 语音为代表的自然语言进行多轮交互,易于捕捉用户意图,降低输入门槛的同时,语音和文字输入 的便利性大幅扩充了输入场景。 在信息处理环节,大型模型的自然语言理解和推理能力将输入的自然语言转化为各种机器可识别的 信息,大大提升了交互体验和效率,同时丰富了交互对象。在以人工智能为操作中枢的平台上,复 杂的自然语言指令还可以被拆分为多个子指令,并行控制多个设备对象。

传统单向人机交互仅包括以上两部分,这种交互方式要求人类更加明确和清晰地表达需求,因为机 器不能主动了解人类的意图或需求。因此,传统单向人机交互主要依赖按钮等精确且指令简单的操 控方式。然而,双向人机交互模式则有望结合物联网打造高度整合的控制中枢。以智能家居为例, AI 大模型有能力更好地理解用户的需求,提供更为智能、自然和人性化的控制和服务,从而显著提 升用户体验。在未来,随着 AI 技术的不断发展,双向人机交互的方式将越来越普及,进一步改善人 机交互体验。

大模型在输出环节的变革主要体现在内容质量上。传统交互模式的输出环节在大语言模型加持下有 能力对内容进行再整合并以合适形式呈现,输出内容将更贴合用户需求,此外大模型的可塑性也使 得千人千面的输出形式和个性化的交互体验成为可能。传统的人机交互模式需要用户根据计算机输出结果来判断是否满足预期,如果不符合预期,用户需 要调整输入并启动新一轮的人机互动。以搜索引擎为例,传统的搜索行为往往需要经历长时间的判 断过程和多轮的互动。相比之下,大语言模型凭借其自然语言理解能力,显著降低了人机互动的循 环轮次。此外,大语言模型还能根据过往的反馈自我调整,持续提升交互效率。因此,相比传统模 式,大语言模型可以显著提高交互效率、准确性和用户满意度。

完整的人机交互模式在与计算机交互的领域已有充分的应用,而大语言模型及其他工具有望重构目 前的交互模式。目前 ChatGPT 插件系统上线后,用户已可以通过插件功能实现多种工具使用、联网 查询等能力,目前已支持的第三方插件有餐厅推荐、旅行计划、购物、AI 语言老师、网上店铺,以 及学术界知识应用 Wolfram、应用库等 5000 多个应用,覆盖人们的衣食住行、工作学习。

目前,以 OpenAI 旗下的 GPT 为代表的大型语言模型已经在搜索引擎、办公软件等领域得到了初步 的应用。例如,微软推出的基于 GPT-4 模型的搜索引擎 New Bing,能够提供准确实时的搜索结果并 给出链接,同时还支持聊天、画图、编程等功能。相比传统搜索引擎,New Bing 支持自然语言输入, 省去了用户选取关键词的过程,也基本抛去了用户筛选结果的环节。此外,New Bing 还具备幽默感, 可进行定制化的交互,显著提升用户体验。

大语言模型在办公领域的应用可以显著提升办公效率,优化工作流的各个环节,并降低人力和沟通 成本。大语言模型具有全面而优质的自然语言处理能力,可以更准确、更流畅地处理和生成文本。 当任务的复杂性达到足够的阈值时,其优势尤为明显。我们预计在未来,大语言模型将能够有效地 帮助各个工作环节释放创造力、提高生产力,并升级各种技能。

基于 GPT-4 的实验性应用程序 Auto-GPT 为 AI 自动实现复杂命令提供了可能性。在 Auto-GPT 的架 构下,GPT 系列扮演着思考、推理和决策的“大脑中枢”角色,各类 AI 工具则各司其职,协同工作。 在获得最新信息、检索知识库、代表用户执行操作等外部条件的支持下,用户仅需制定目标并提供 少量人工干预,Auto-GPT 便能以目标为导向,自主制定并执行一系列复杂任务,如自主编码和调试、 自动开发并管理各种业务项目、制作网页等。此外,Auto-GPT 还具备自主迭代、内存管理等功能。 尽管 Auto-GPT 仍然存在成本高昂、问题分解不充分、无法区分开发与生产、陷入死循环等问题, 但其引入了生成智能体(Agent)委派任务的概念,进一步展示了 AI 的潜力,并解锁了新的使用场景。

内容生产效率提升,创新的内容形态正在酝酿

AIGC 在内容行业带来的变革主要体现在两个方面:1)降低生产成本,提升创意实现效率;2)新 的人机交互形式带来全新的内容体验,提高内容付费上限。 在降本增效方面,传统的内容生产需要经历书写、口述、绘画、拍摄、编程等复杂的过程才能生成 对应的内容。而 AIGC 则只需要输入一些提示信息,就可以在短时间内生成大量的内容,用户只需 要对生成的作品进行评估和调整即可。这显著提高了内容生产的效率,并降低了生产成本和门槛, 同时也有助于激发新的创意。此外,低成本的各种内容形式,如图片、视频等,也将大幅降低用户 间的沟通成本。

另外,大语言模型等 AI 技术结合新的交互形式,将为创作带来全新的可能性。通过 AI 技术的帮助, 内容生产者可以更快速地掌握新的知识和技能,从而不断开拓新的创作题材。同时,AIGC 生成的 内容也可以为创作提供新的灵感和素材。这种新的创作方式,将为内容生产者带来更广阔的发展空 间,也将推动内容生产的创新发展。

随着内容消费量不断增加,消费者对内容质量的要求也越来越高,同时内容生成呈现出个性化和开 放化的趋势,因此降低内容生产门槛和提高生产效率成为了行业的迫切需求。AIGC 正符合内容消 费的这一发展趋势,预计未来将广泛应用于各种内容生产场景,为广大内容生产者提供支持,并有 望成为未来互联网内容生产的基础设施。

以下是不同行业领域通过 AIGC 技术提升生产效率,并触发新内容形式诞生的具体场景。 美术领域:为图像创作提供可视化工具。在一些重复性高、技术性强的美术任务上,如图像编辑、 设计等,AIGC 的辅助可以大大提高效率。AIGC 可以通过图像识别、图像生成等技术,辅助美术师 进行图像处理、图像合成和图像创作等任务。此外,AIGC 还可以根据输入的样式和风格,为艺术 家提供灵感和创意。在 AI 与人工配合下,角色创意、场景概念、营销素材等高耗时环节的生产效率 未来有望被大幅提升。

未来随着复杂计算机视觉算法和深度学习技术不断发展和优化,图层分割若能够实现,将为图像处 理领域带来更多的可能性和创新。图像的图层可以包含不同的元素,例如文字、背景、前景、特效 等,通过将图像分解成多个图层,可以对每个图层进行单独的编辑、修改和控制,而不影响其他图 层。另外也有利于图像的合成、组合、渲染。通过将图像分解成多个图层,可以将不同的元素进行 组合和合成,创造出更加复杂和丰富的图像效果,同时也可以让设计师更好地控制图像的层次感和 视觉效果。

建模、动捕领域: AIGC 通过图像处理技术可以识别现有的三维模型,并自动生成类似的模型。它 能够学习大量的三维模型,提取它们的特征和规律,建立带有标记的 3D 模型资产数据库和有效的 3D 数据,并生成新的三维模型。此外,AIGC 还可以利用深度学习技术生成高质量的纹理、光照和 材质,从而使生成的模型更加逼真。目前,英伟达已经参投了 Nerf 领域的独角兽 Luma,同时也推 出了文本提示转 3D 模型技术 Magic3D。Unity、Unreal、Cocos、LayaAir、松应科技等国内外厂商也 已开始探索并应用 AIGC。

配音行业:相对于传统的人工配音,AI 配音具有更高的效率、更低的成本和更好的普适性。AI 配音 可以完美地模拟各种语音和情感,实现自然流畅的语音输出,为用户带来更好的音频体验,在市场 上受到广泛好评。AI 配音主要有声音克隆、声音合成和音色转换三种应用方向。据 Market.us 的统 计,2022 年全球 AI 语音生成市场规模约为 12.1 亿美元,预计到 2032 年,该数据将增长至 48.89 亿 美元,年复合增长率为 15.4%。

编程领域: AIGC 可以通过分析代码、识别模式和预测行为来辅助编写代码。使用者可以直接使用 自然语言来获取所需的代码。借助 AIGC,代码编写过程可以更加快速、准确,同时大大减少代码 错误和 bug 的出现。此外,AIGC 还能够提供自动化的重构和重写建议、智能代码补全、自动生成 文档和代码注释等功能,以优化代码的质量和可读性。文本、数据分析与总结:大语言模型可以以高效且准确的方式对复杂的文本数据进行识别、抽取、 匹配和处理,其效率远高于人工分析。该技术有助于提高数据分析的效率,进一步挖掘数据的价值。 已有一些海内外研究机构和个人开始利用 New Bing、Research GPT 等工具进行文献阅读、关键信息 提取、生成摘要和信息检索等任务,但这些产品目前仍处于测试阶段,暂时无法实现图像识别,同 时在理解和翻译专业术语和公式方面可能存在一定的不准确性。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

关键词: