AI热潮或让谷歌和微软更强大

依赖科技巨头提供答案和帮助,而不仅仅是信息,可能会使它们更深入地融入人们的生活。

AI热潮或让谷歌和微软更强大

过去一周,微软(Microsoft Corp., MSFT)和谷歌(Google)发布了颇有较劲意味的公告,大肆宣传新的人工智能(AI)聊天机器人,这给人们带来了两个重要的启发。首先,人们会有种“哇,这肯定会改变一切”的感觉。其次是意识到,要想让基于聊天的搜索和相关的人工智能(AI)技术产生影响,我们必须对这些技术以及创造这些技术的公司报以极大的信任。

如果AI不仅仅提供我们做出决策所需的信息,而是直接解决问题,我们对它的信任就会比以前更深。对于这种新一代的基于聊天的搜索引擎,更贴切的描述是“答案引擎”,在某种意义上,这类引擎可以给出其所提供和总结的网页链接,以此“展示它们的工作”。但是,要让一个答案引擎真正发挥效用,我们大多数时候必须对其寄予足够信任,全盘接受它给出的答案。

同样的道理也适用于帮助生成众多内容的工具,诸如文本、电子表格、代码、图像以及我们在设备上创建的其他任何东西——微软和谷歌都承诺在各自现有的生产力服务Microsoft 365和Google Workspace中提供一些工具版本。

这些技术以及基于聊天的搜索功能,都建立在最新一代“生成式”人工智能的基础上,这种技术不仅可以像更成熟的人工智能那样处理内容,还有能力创造语言和视觉内容。它将获取的额外信任是这种新技术势必要更多权力转移到最大型科技公司手中的几种方式之一。

各种各样的生成式人工智能将使技术比现在更深入到我们的生活和工作中,它不仅会回答我们的问题,还可以为我们撰写备忘录和演讲稿,甚至是创作诗歌和艺术。而且,由于开发和运行该技术所需的财政、智识和计算资源是如此巨大,控制这些人工智能系统的公司将是规模最大和资金最雄厚的公司。

OpenAI在这方面似乎是个例外:它是一家相对较小的创业公司,却推动了主要的人工智能创新;该公司打造的ChatGPT聊天机器人和DALL-E 2人工智能图像生成器在很大程度上掀起了当前这波热潮。但OpenAI已经跃入了微软怀抱,部分原因是需要资金来使这个系统得到运行所需的算力;微软此前已对OpenAI进行了连续几轮的投资。

更大程度的权力集中尤为重要,因为这项技术一方面强大得令人难以置信,另一方面也存在天然的缺陷:这项技术有一种自信地传递错误信息的趋势。这意味着,使这项技术成为主流的第一步是构建它,第二步是将它不可避免要犯下的错误的种类和数量降至最低。

换句话说,对人工智能的信任将成为大型科技公司奋力捍卫的新护城河。如果经常失去用户的信任,他们就可能放弃你的产品。例如去年11月份,Meta Platforms Inc.(META)向公众推出了一款基于人工智能聊天的科学知识搜索引擎,名为Galactica。Meta在这个搜索引擎发布短短三天后,就关闭了公众对其访问的通道,Meta首席人工智能科学家Yann LeCun最近在一次谈话中称,部分原因可能是这个搜索引擎的目标受众是科学家,但它有时候给出的错误答案激起了极为尖锐的批评。

Meta的一位发言人称,Galactica是“一个研究项目的成果,而不是要用作商业用途。”Meta基础人工智能研究部门的总经理Joelle Pineau在一份公开声明中写道,“鉴于像Galactica这样的大型语言模型生成的文本可能有看似可信、实则不准确的倾向,而且因为它已经超出了研究界圈子,我们选择撤回试用版,不再向公众开放。”

另一方面,证明你的人工智能更值得信赖,可能是一个比最大、最好或最快的答案库更强有力的竞争优势。这似乎是谷歌希望抓住的卖点,该公司在最近的公告和上周三的演讲中强调,在测试和推出自己的生成式AI聊天系统过程中,谷歌将努力打造“负责任的AI”,该公司2019年在其“AI原则”中曾提到这一点。

笔者的同事Joanna Stern过去一周中描述了微软整合ChatGPT技术后的新版搜索引擎必应(Bing)和网络浏览器Edge的使用感受,非常有帮助。你也可以报名来测试这项服务,至于谷歌的聊天机器人Bard,该公司称将在未来几个月开放。

但与此同时,你可以访问其他已经存在的聊天式搜索引擎,来理解为什么信任这类搜索引擎这个问题如此微妙。例如You.com,它可以通过一个聊天机器人回答问题,或者是Andisearch.com,当你在上面搜索一个话题时,它可以就反馈给你的任何文章给出总结。

即使是这些较小型的服务,也感觉有点捉摸不定。如果你在You.com的聊天模块提出“请列出最好的AI聊天搜索引擎”这样的问题时,在正确情境下,它可以给你一个条理清楚并且简洁的答案,包括这个领域所有最知名的初创公司。但是,如果这个问题的措辞有一些小的变化,答案就可能多出一些完全无意义的内容。

在笔者的实验中,You.com通常会给出一个相当准确的答案,但随后会添加一个根本不存在的搜索引擎的名称。在谷歌上搜索它所提供的那些编造的搜索引擎名称,发现You.com似乎将文章中引用的人名误解为搜索引擎的名称。

该公司首席执行官Angela Hoover说,Andi不会以聊天的形式返回搜索结果,正是因为要确保这些答案是准确的仍然非常困难。她还说:“看到这些大公司证实对话式搜索是未来的趋势,我们非常兴奋,但要确定事实的准确性很难。”因此,目前Andi以传统格式提供搜索结果,但也可以使用人工智能对返回的页面进行总结。

Andi当前有一个不到10人的团队,目前已经筹集了250万美元。如此小的团队所取得的成就令人印象深刻,但很明显,制造值得信赖的人工智能需要巨大的资源,可能像微软和谷歌这样的公司才拥有这么庞大的资源。

约翰·霍普金斯大学(Johns Hopkins University)研究人类与人工智能交互的运营管理教授Tinglong Dai说,这有两个原因,首先是需要大量的计算基础设施。换句话说,大型科技公司当前的云计算基础设施中有数以万计的计算机,其中一些计算机被用来训练巨大的“基础”模型,为生成性人工智能系统提供动力。另一些则专门负责将训练好的模型提供给用户,随着用户数量的增加,这可能成为一项比原始训练更费力的任务。

Dai说,第二个原因是需要巨大的人力资源来不断测试和调整这些模型,以确保它们不会滔滔不绝地输出废话或带有偏见和攻击性言论。

谷歌表示,它已经号召公司所有员工测试其新的基于聊天的搜索引擎,并标出其产生的结果的任何问题。微软则在公开进行这类测试,该公司已经在有限的基础上向公众推出了其基于聊天的搜索引擎。微软基于聊天的搜索引擎采用ChatGPT技术,这种技术已经被证明容易受到意在让其产生不当内容的“越狱”活动影响。

大型科技公司或许可以通过对这些系统进行大规模的实验来克服他们在推广人工智能时出现的问题,如谷歌的行动迟缓,ChatGPT有时不那么准确的结果,以及基于聊天的必应可能提供的不完整或误导性答案,也只有这样的公司有这样做的能力。

“ChatGPT和其他基础模型之所以有些偏颇甚至基本事实方面表现得如此糟糕,唯一原因是它们是封闭的系统,没有反馈的机会,”Dai说。像谷歌这样的大型科技公司在征求反馈意见以改善算法生成的结果方面已有几十年的经验。例如,这种反馈的渠道长期以来一直是谷歌搜索和谷歌地图的一个功能。

Dai说,对于人工智能系统的信任的未来图景有一个现成的例子,那就是互联网上最不靠算法生成的网站之一:维基百科(Wikipedia)。虽然这个完全由人类编写和编辑的百科全书并不像一手资料那样值得信赖,但用户一般都知道这一点,且仍然认为它很有用。维基百科这一案例表明,对算法输出的信任(或对维基百科人类编辑的信任)等问题的“社会性解决方案”是可能存在的。

但维基百科的模式也表明,旨在打造可靠AI的这种劳动密集型解决方案可能会让现有大科技公司的影响力进一步得到巩固。Meta和谷歌等公司已采用该方案多年,并将其大规模应用于各自的内容审查体系。只有这类公司拥有所需的计算资源以及人力资源来处理其AI将会生成的所有误导性、不完全或带有偏见的信息。

换句话说,事实可能会证明,通过审查AI生成的内容来建立可靠性,可能与通过审查人类产生的内容来建立可靠性并没有太大区别。而最大一些科技公司的情况已然表明,它们可以用鲜有其他公司能够做到的方式来执行这项困难、耗时、资源密集型的任务。

这些新型AI在整合到搜索引擎或许多其他潜在应用中时显示出明显而直接的效用,这是目前媒体、分析师和投资者对AI狂热的原因。显而易见,这可能是一项颠覆性技术,将重设谁能获取关注并将这种关注引向何处,威胁到谷歌的搜索垄断地位,并为微软等公司打开新的市场和新的收入来源。

ChatGPT AI或许是历史上用户最快达到1亿的同类服务。瑞银(UBS)最近的一份报告认为,从ChatGPT AI突如其来的巨大成功看,很明显,在该领域成为一个积极的先行者可能非常重要。同样明显的是,要做到这一点将需要各种资源,而这些资源只有科技巨头才能筹集到。