趋势:华盛顿州下个月生效的一项新的工资披露法的影响
Luis Ceze(左)和Oren Etzioni(右)在西雅图Madrona智能应用峰会上。屏幕上的Carlos Guestrin,从斯坦福拨过来的。(Madrona图/ Jason Redmond)

能够生成全新内容的人工智能模型正在为企业家创造一个充满机会的世界。工程师们正在学习用更少的资源做更多的事情。

这是本周在西雅图由Madrona Venture Group主办的智能应用峰会上的一个小组讨论的一些要点。

斯坦福大学计算机科学教授说:“在我看来,大数据不再是当务之急。卡洛斯Guestrin.“你可以用很少的数据解决复杂的问题。”

工程师们更专注于对现成模型进行微调,西雅图机器学习初创公司Turi的联合创始人Guestrin说收购苹果公司在2016年推出。新的“基础”人工智能模型,如DALL-E和GPT-3,可以从最初的提示中产生幻觉的图像或文本。

这些模型是新兴创业公司生成书面内容、解释对话或评估视觉数据的基础。他们将启用大量的用例,说Oren Etzioni艾伦人工智能研究所(AI2)孵化器技术总监。但它们也需要被驯服,以减少偏见,提高可靠性。

“这些模型的一个巨大挑战是它们会产生幻觉。他们撒谎,他们创造——他们发明东西,”埃齐奥尼说,他也是Madrona的风险合伙人。

Guestrin和Etzioni在由华盛顿大学计算机科学教授主持的炉边谈话中发表了讲话Luis Ceze他也是Madrona风险投资合伙人,西雅图人工智能初创公司OctoML的首席执行官。

OctoML被选为一个新的前40强榜单由Madrona与其他公司合作组建的智能应用创业公司。上榜的初创公司自成立以来已经筹集了超过160亿美元,其中包括今年年初以来的50亿美元。

继续阅读,了解更多讨论的亮点。

新的人工智能模型正在改变工程师的工作方式

工程师们习惯于用独特的技术堆栈为单个任务构建不同的人工智能模型,例如预测机票价格或医疗结果,而且他们习惯用大量的训练数据集预先填充模型。

但现在,使用更少的数据作为输入,工程师们正在详细研究基础模型,以构建特定的工具,Guestrin说。虽然基础模型是用大量数据输入构建的,但用它们构建的应用程序需要的更少。

“通过大型语言模型和基础模型,我们正在彻底改变开发应用程序的方式,超越大数据的概念,”Guestrin说。他补充说,工程师们正在使用“特定于任务的、习惯的小数据集进行微调,从而得到你真正关心的垂直解决方案。”

Etzioni补充说:“现在,通过基础模型,我建立了一个单独的模型,然后我可能会对它进行微调。但很多工作都提前完成了,而且只做了一次。”

人工智能已经变得“民主化”

对于技能不那么专业的工程师来说,人工智能工具越来越容易使用,构建新工具的成本也开始下降。Guestrin说,普通公众也可以通过DALL-E等工具获得更多信息。

Guestrin说:“大型语言模型、基础模型能够让开发者以外的人用人工智能做出令人惊叹的事情,这让我感到敬畏。”“大型语言模型让我们有机会为编程创造新的体验,把人工智能应用程序带给更广泛的人,他们从来没有想过自己能编程人工智能。”

偏见仍然是一个问题

偏见一直困扰着人工智能模型。在新的生成式人工智能模型中,这仍然是一个问题。

Guestrin举了一个例子,一个故事制作工具可以根据王子的种族创造不同的童话结局。如果让这个工具创造一个关于白人王子的童话故事,它会描述他很英俊,公主爱上了他。如果让它写一个关于黑王子的故事,公主会大吃一惊。

“我非常担心这一点,”Guestrin谈到人工智能模型中的偏见,以及它们反过来影响社会偏见的能力时说。

Etzioni说,正在开发的新技术将更好地消除偏见。

格斯特林说,工程师们需要在开发的所有步骤都考虑到这个问题。他说,工程师最重要的关注点应该是如何评估他们的模型和管理他们的数据集。

Guestrin补充道:“认为解决我们的人工智能和我们的价值观之间的差距只是我们最后可以撒在上面的一些盐,就像一些后期处理一样,这是一种有限的观点。”

人力投入将是核心改进模型

Etzioni用互联网搜索引擎做了一个类比,在早期,互联网搜索引擎通常需要用户以不同的方式搜索才能得到他们想要的答案。谷歌在了解人们从数十亿个查询中点击了什么后,擅长磨练输出。

Etzioni说:“当人们反复查询这些引擎并生产出东西时,这些引擎会更好地做我们想做的事情。”“我非常相信,我们将让人类参与其中。但这并不是这项技术的障碍。”

人工智能也无法预测自己的最佳用例。Etzioni说:“如果你问GPT-3,‘建立新创业公司的最佳用途是什么’,你会得到垃圾。”

提高可靠性是一个重点

“这些模型虽然很棒,但很脆弱。他们可能会以灾难性的方式失败。”

Guestrin说,研究人员应该学习如何更好地定义他们的目标,并询问如何系统地测试和评估系统,以使它们更加安全。他补充说,研究人员应该“带来更多的软件工程思维”。

学习如何使AI模型更可靠是Guestrin在斯坦福大学和AI2的研究小组的一个主要重点。

“要让基于gpt -3的应用程序运行核电站,还需要相当长的时间。这不是那种技术,”Etzioni说。“这就是为什么我认为网络搜索引擎的类比是如此深刻。如果我们让人参与循环,如果我们有快速迭代,我们就可以以一种非常强大的方式使用高度不可靠的技术。”

喜欢你读的东西吗?订阅GeekWire的免费时事通讯,捕捉每一个标题

GeekWork上的工作清单

找到更多的工作GeekWork.雇主,在这里发布工作