产业与治理|如何看待ChatGPT的商业化未来

ChatGPT等AIGC产品近段时间火爆,主要原因是此类AI技术在语言组织、沟通交流上相比以往的Siri等产品更加贴近人类自然语言,再辅之以计算机本身强大的信息检索和信息存储能力,直接点燃了用户对该类产品的好奇心和新鲜感。作为对话式语言模型的创新,ChatGPT所展现出的超强内容生成能力使其在搜索引擎、智能办公、教育培训、撰写文稿、百科问答等领域受到极大关注。但是,ChatGPT未来的商业化方向是什么?以ChatGPT为代表的AIGC(AI-Generated Content)的商业化面临着怎样的瓶颈问题?面临这些瓶颈问题,如何发挥AIGC在人类经济活动中的作用?厘清这些问题十分关键。

ChatGPT是由OpenAI公司开发并于2022年11月推出的聊天机器人。它不是一蹴而就、突然出现的,而是建立在OpenAI公司的GPT自然语言生成式模型的基础上,通过使用监督学习和强化学习技术的微调后形成的模型。从OpenAI这家公司的GPT-1.0版本开始,到GPT-2.0和GPT-3.0,经过长达5年以上的技术积累,才有了今天大众所看到的在GPT-3.5版之上改造出的一个问答专用的ChatGPT。即使是现在,OpenAI公司仍继续从ChatGPT的用户那里收集数据,即用户可以对ChatGPT的回复投赞成票或反对票,还可以填写反馈。这些数据可用于进一步训练和微调ChatGPT。

计算机的语言模型达到如今这种“智能”程度,很大原因是计算机的算力问题和海量数据资源的问题得到了较好解决。如从GPT-3.0模型的公开发表的论文里得到,其用于预训练的文本达到了45TB,且这一超大规模语言模型有1750亿个参数。相比较GPT-3.0,ChatGPT的训练语料库里除了文字,还加入了代码。此外,在GPT-3.0的大数据预训练之下,ChatGPT加强了人类的反馈在模型训练中的作用。正是因为如此,用户能感觉到尽管ChatGPT没有对每个问题都回答详尽,但和过去一些回答得牛头不对马嘴的问答AI模型相比,其输出的有效性和可理解性更高。

ChatGPT等语言生成模型的优势在于其是预训练好的模型,后续其他领域只要通过简单的改造操作和微调,就能让这些语言生成模型很好适应不同的任务,这为此类模型的商业化应用提供了极大便利。从微软公布将ChatGPT融入Bing搜索引擎后的股市表现可以看出,投资者目前对ChatGPT较为明确的应用是在搜索引擎(如Bing、百度)、智能问答(如知乎)等场景中。此外,许多领域也在尝试使用ChatGPT来辅助和改进工作流程,如用ChatGPT编写和调试计算机程序,创作音乐、电视剧、童话故事,撰写策划案、新闻、营销文案、推荐信、通讯稿、产品描述和学生论文,回答测试问题和考试题,写诗和歌词,模拟Linux系统,玩井字游戏,模拟ATM等。红杉资本针对以ChatGPT为代表的AIGC相关产品成熟预测,到2030年,AIGC写作质量将高于人类专家写手,其编写的代码可以直接用于生产技术产品。除了自动生成文本,ChatGPT也被用于进行各类咨询服务。比如像搜索引擎优化专家一样告诉用户文案需要在什么平台展示,比如像咨询公司一样指导初创企业如何拓展客户。

总体而言,ChatGPT目前最为高效的领域是对基础问题的检索和文件草拟,且其回答的质量有时候完全取决于使用者是否能问出一个好问题。尽管ChatGPT生成内容当前还只停留在图片和文字,但是也为不少企业带来了降本增效的希望。正如一位使用者提到“ChatGPT可能不会取代人类,但会给行业‘去水’”,即帮企业去掉一些平时成本较高但专业知识和创造力要求较低的岗位。未来,ChatGPT等生成语言模型的商业化方向可能是朝着信息更为丰富的三维场景领域,如生成3D模型。届时,这类技术对工业4.0和智能制造(如建筑产业)将有更大的推动作用。

从上述ChatGPT的发展历程和开发思路可以看出,其能达到如今的这种“智能”程度,很大原因是背后海量的训练数据以及算法训练中加入的人类反馈(如人对语言的使用习惯等)。但其与真正有思想的强人工智能相比还有不少距离。在将这一技术进行落地的过程中,我们需要关注其仍存在的一些重要瓶颈或问题。

一是信息的准确性问题。ChatGPT等模型的训练依赖于人类生成的大量历史数据资料。这些历史数据源可能来自书本、期刊、、新闻,也可能直接来自互联网上海量的文本数据(包括用户生成内容)。除非是被权威专家鉴定过的资源,否则在训练数据中可能会充斥着虚假信息,进而被机器错误地学习。比如当问ChatGPT“931大海战是否是真实的”,其回答是肯定且进一步解释了这一事件的具体内容,但实际上“931大海战”只是网友创造的一段故事。随着算力的提升和技术的普及,互联网上将有更多的假文本、假视频、假图片,甄别假消息变得越来越困难。人们能否在3-5年里快速提升甄别假信息的能力,是ChatGPT等语言模型实现真正落地的关键。

二是不同场景的迁移问题。ChatGPT目前的主要训练语料是英文文本语料,国内使用ChatGPT的接口应用大多数是对ChatGPT输出的直接翻译(如将中文输入翻译成英文后,ChatGPT进行回答,再把英文回答翻译成中文返回给用户)。这引起的最直接结果就是对于一些人类常识性问题,ChatGPT的回答可以被直接采纳。但是对于依赖于文化情境的问题如社会习俗、政治观点,此时ChatGPT的回答可能会偏离使用者自身文化环境,直接照搬会带来一系列问题。

三是回答的深度性和专业性问题。玩过ChatGPT的伙伴都知道,对于一些思辨类型的问题,如“一夫多妻制会彻底消失吗?”、“五天工作制与四天工作制,哪个效率更高”等,ChatGPT在回答上普遍都是遵循着“A和B都可以,具体需要依情况而定”的模式。但这种回答放在一些具体场景中,就会显得不够实用。对更加专业化的问题,如一个具体的法律问题,ChatGPT会说有哪些可以考量的方向,但是最好还是去咨询当地的律师,以至于看着像“正确的废话”或车轱辘话。同样的,对于特定场景中的商业问题,或者需要专业化知识的医学问题,ChatGPT的回答也显得较为宽泛笼统,直接可借鉴性并不高。

四是算法偏见与认知误导问题。一方面,算法输入的各类信息资料本身可能包含人类社会中一些场景的歧视(如性别偏见),而学习了此类信息的算法可能会放大这些偏见。另一方面,算法产生的内容可能会影响使用者的认知,尤其是对专业知识能力水平低或者认知水平低的使用者。比如算法可能输出不利于某个客体的相关信息或者虚假信息,诱使使用者对该客体形成错误认知。最新有研究表明,当输入的问题是让ChatGPT对来自两个政党的政治声明采取立场时,ChatGPT表现出较为明显的左翼自由主义倾向。此外,当让ChatGPT描述人种时,其回答内容隐含着女性和有色人种科学家不如白人和男性科学家的意思。

五是知识产权问题。目前,ChatGPT的回答没有对于来源的引。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注