您的位置:世界金融网 > > 快讯 > >

Bard炸通谷歌全家桶!大模型史上首次上网自查,邮件地图文档视频一网打尽

发布日期: 2023-09-21 11:26:33 来源: IT之家  阅读量:18606   

谷歌 Bard 插件上新,正式接入全家桶!现在,Bard 可以从 Gmail、Docs、谷歌地图、YouTube 等应用中总结信息,还拥有 LLM 前所未有的自查功能,揪出自己的错误。

Bard 全家桶,终于来了!

今年 3 月,Bard 发布,六个月后,Bard 终于有自己的插件生态了。它可以调用丰富的谷歌应用 API,从而执行复杂的操作。

从此,你每天使用的谷歌工具,比如 Gmail、Docs、Drive、谷歌地图、Youtube、谷歌航班等应用,Bard 都能打开,然后从中为你找到你需要的信息。

即使我们需要的信息分散在多个应用和服务中,有了 Bard,也能快速集成。

总的来说就是,你对谷歌的产品使用有多深,Bard 发挥的潜力就会有多大!

大模型发展到现在,无论是国内厂商还是谷歌这类巨头,果然都开始卷应用生态的方向了。

全家桶小助手

比如,现在你想去大峡谷,想要成功地制定这个活动计划,需要非常琐碎的信息。

而 Bard 就可以发挥它神奇的功能 ——

它会从 Gmail 中阅读邮件,选择一个适合所有人的日期。

然后查找实时航班和酒店信息,在谷歌地图中查找前往机场的路线。

甚至还能帮你看几个 YouTube 视频,做出一个大峡谷攻略。

所有这些任务,都是 Bard 在一个对话里完成的。

或者,假如你正在找新工作,需要写一份简历,你就可以这样命令 Bard——

「从我的云端硬盘中,找到我 2023 年 6 月的简历,然后把它总结成一小段个人陈述」。

这样,Bard 就可以帮你完成新简历了。

「根据最近我跟 Alex 的邮件沟通,帮我撰写一份商业合作计划书,然后用 Gmail 发给 Alex。」

「根据我刚刚对巴黎和几个周边城市的搜索信息,帮我设计一套旅游攻略,然后保存到 Google Docs 中。」

「把会议记录中提到的跟我有关的信息,全都记到 Google Keep 中。」

……

Bard 可以帮你干的事,真是太多了。它的思路跟 Notion AI 有些类似,但后者并不能在各个数据库中调用数据。

要知道,如今数据就是最稀缺的资源。

跟 OpenAI 比,Bard 的天然优势就是更多的数据和应用。

从此,我们的上网搜索记录、浏览过的视频、邮件、文档、地图,Bard 都可以自动调用,总结出我们最需要的信息。

有人会担心:那我的隐私怎么办?

对此,谷歌表示,如何使用扩展程序是由用户自己决定的,这些功能随时都可以被关闭。

如果选择使用 Workspace 扩展程序,人工审核人员就不会看到你的 Gmail、文档和云盘的内容,也不会让 Bard 读取这些数据,用来展示广告或是训练模型。

「谷歌一下」,错误自查

而且,Bard 也是史上第一个主动承认自己会犯错误的模型。

这次的 Bard 更新了一个「Google It」按钮,让 Bard 可以对自己「Double-check」。

点击一下,Bard 就会自动检查自己的回复,来看看自己说的有没有依据,网上有哪些对应的内容可以证实。

对于标绿的语句,Bard 就非常自信,因为可以在谷歌上搜到佐证它的内容。

而标橙色时,Bard 就承认自己犯了错 —— 根据网上查到的信息,可以知道自己确实犯了胡说八道的毛病。

而且,如果有人通过共同链接给你分享了一个 Bard 的回答,你点进去之后就可以继续对话,对这个问题进行更详细的询问,或者以此为灵感,开启自己的全新想法。

基于谷歌最强大模型 PalLM 2

Bard 之所以能够实现所有这些新功能,是因为谷歌对 PaLM 2 模型进行了更新。

PalLM 2,是迄今为止谷歌能力最强的模型。

谷歌采用了最先进的强化学习技术来训练 PaLM 2,让它更加直观,也更有想象力。

现在,Bard 可以使用的语言,已经扩展到了 40 多种。

如果你想面试韩国 YouTube Music 的营销经理,需要对韩国音乐产业有一些了解,就可以让 Bard 帮你准备几道面试题。

你可以让 Bard 使用任何编程语言写一个程序,计算每个单词在句子中出现的次数。

告诉 Bard,将句子作为输入,并输出句子中每个单词的计数。忽略标点符号并考虑不区分大小写。

Bard 就用 Python 写出了一段代码。

浅试一下

看到这里,小编忍不住手痒了,立马上手实测了一波。

虽说 Bard 基本上是已经覆盖了整个谷歌全家桶。不过,机酒、地图这些,在国内多半是用不上了。

生产力方面,我们让 Bard 简单总结一下最新收到的邮件。

它浏览一番后给出了总结:你收到了来自 Bard 和 New Scientist Events 的邮件,内容如下……

娱乐向的话,可以让 Bard 根据自己最近的观看记录,推荐一些新的视频。

Bard 于是推荐了一堆 NLP 和机器学习的视频。

问一下它:最近新出的 iPhone 15 Pro 怎么样?

它立马洋洋洒洒给出了一大篇评论。

它的回答足够可信吗?还是有不少胡说八道的幻觉成分?

我们立刻用上了最新升级的「double-check」功能,让 Bard 自己再去「自查」一下。

点进链接之后,Bard 会直接高亮对应的语句,方便对照判断。

正如官方的介绍,除了有代表可以在网上找到相似信息的绿色外,还有代表网上的信息和 AI 生成相悖的橙色。

然而,这个功能目前还是不够完善,无法完全解决大模型幻觉的问题。

比如,明明是四个后置摄像头的 MIX Fold 3,不仅被 Bard 砍成了「三摄」,而且在检测之后还坚信自己没说错。

再比如,有一些回答虽然给出了「谷歌一下」的按钮,但结果什么都没查出来。

或者,干脆连按钮都没有……

把前一阵热转的 GPU 短缺的文章插图输进 Bard,问它这代表什么?

Bard 的回答让人惊掉了下巴 ——

同时,这种图也与当前的时间相关,因为截至 2023 年 9 月,GPU 短缺仍在持续。

但是,这个回答也有一些不严谨的地方。比如,造成短缺的原因并不是矿工和打游戏的,而是生成式 AI 引发的需求暴涨。

不过,Bard 仅根据一张图就能做这种程度的联想和拔高,也是很令人惊诧了。

参考资料:

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。