这大概是2023年全世界最赔钱的一款产品了。2月8日,谷歌在巴黎发布一款类ChatGPT的聊天机器人——Bard(巴德),结果遭遇翻车:当天晚上,谷歌的市值便蒸发1020亿美元,折合人民币约6932.5亿元。
按照理想计划,谷歌想用该产品讽刺ChatGPT“胡说八道”、“不负责任”,并称Bard不仅能有问必答,还要真实、负责地回答,不掺杂虚假信息。
骨感的现实是:在发布会上,Bard自己率先胡说八道了。
会上,Bard被问了一个问题:
我可以告诉我9岁的孩子关于詹姆斯·韦伯太空望远镜(简称“JWST”)的哪些新发现?
Bard的回答确实精彩,但却隐藏着一个严重的事实错误:它称JWST拍摄到了太阳系外行星第一张照片。而事实的情况是,该照片实际由VLT望远镜于2004年拍摄。
而该错误在资本市场引起较大反响,直接或间接地导致了1020亿美元市值蒸发——这件事给了创新创业者哪些启发?
铅笔道认为,自去年12月份ChatGPT爆火以来,投资人开始由技术的炫酷,而转向关注技术的“实用性”。
铅笔道认为,这种实用性包含2个层面:
1,提供真实无误的事实信息;
2,提供科学准确的决策参考——而前者是后者的决策依据。
一位长期关注ChatGPT的投资人向铅笔道透露,如果2个价值均无法实现,该技术最终只能沦为一个扯淡神器,供用户娱乐消遣,但无法帮助用户解决大部分工作、生活问题。
当然,这确实对ChatGPT提出了更高的要求。据一部分ChatGPT用户向铅笔道反馈,在产品发布初期,该产品给人留下最惊艳的印象是:1,它能听懂人话;2,它能理解字面背后的需求;3,有模有样地提供事实及建议。
但一个现实问题是,这类产品并不能保证内容的真实与客观性:不仅仅是Bard,ChatGPT也是如此。
一位ChatGPT用户曾提问:请用一张表列举纳斯达克-100指数从创立到今天的年均回报率。ChatGPT很流畅地给出了答案,但实际对比后发现:结果是错的。
真实与准确一直是AI长期追求但难以企及的目标。
以语音AI为例。8年前,一位语音领域独角兽公司的CTO曾向铅笔道编辑交流:作为一个语音机器人,该怎样充分解决用户的实际问题。
他谈到,产品的核心分为3个环节:语音识别、语音分析、知识图谱。语音识别即“听懂字面意思”,语音分析即“听懂字面意思背后的需求”,知识图谱即“提供准确的解决方案”。
举个例子,用户向语音机器人输入“北京天气”。在识别环节,它需要听懂:这是“北京地区天气”的意思;在分析环节,它需要听懂字面意思背后的需求:用户可能是想查询未来3日北京天气,而不是10年前的北京天气。
而在知识图谱环节就复杂了,它需要给出真实客观的答案:比如从气象局调取真实资料,以图表形式呈现阴晴、气温等元素。
在2014年前后,语音AI的阶段还停留在“识别阶段”,行业的平均准确性约为94%;而知识图谱的准确性偏低,达到80%就算优质产品。
即便到了2023年,“识别”环节的准确性也仅从94%提升至98%(顶级水平)——这是一个长期追求但不可一蹴而就的目标。
综上,铅笔道可以将其类比总结为:ChatGPT在“识别+分析”环节有着惊艳的表现,但在“知识图谱”的表现不达资本预期——这一点,可能很大程度上将阻碍其商业化进程。
就好比围棋机器人AlphaGo——如果它是一款很炫酷但总下臭棋的机器人,必然是无法引得全世界瞩目的。
AlphaGo的商业价值在于,它不仅会下棋,而且能够战胜99.9999%的人类。
AlphaGo之所以能够取得如此成绩,关键的要素之一在于它的训练集:它学习了1万多幅专业棋手对决的棋谱,完成了3000万盘自我对弈棋局。
这些训练集有真实及科学性,有明确的学习目标(胜败)——而ChatGPT不同。
ChatGPT是一个通用人工智能产品(AGI),它训练集主要来自四大模块:
- 第一块是Common Crawl(占60%)。简而言之,这是一个“爬虫爬取的巨大互联网数据库”。
- 第二块是WebText2(占20%)。简而言之,这是一个社交媒体数据库(如Reddit)。
- 第三块是书籍(占16%)。
- 第四块是维基百科(占3%)。
以上四点可以发现,前2个模块是未经“真实+科学”检验的内容。
由此便可以理解:ChatGPT提供的内容,并不能100%达到用户预期。
这也侧面说明一个问题,当下的类ChatGPT产品,并不能完美地创造两大主流商业价值:
- 1,提供真实无误的事实信息;
- 2,提供科学准确的决策参考。
当然,这并非一个完全无法攻克的问题。若要追求接近100%的真实与科学性,行业可以推出更多垂直版ChatGPT机器人,它们的训练集可以尽可能地来自书籍、百科科学内容。
但令人欣慰的是,业内终于不再就技术讨论技术,而是真正开始关注技术的实用性。在这股用户需求之下,各类ChatGPT产品才能持续行驶在正轨,离商业化越来越近。