GPT-3点燃了人工智能的火焰,然后GPT-4点燃了软件世界。对于SaaS 构建者来说,大型语言模型的最新进展所支持的功能意味着,只要有自然语言处理(NLP),在应用程序、产品工作流和生态系统中,就有机会利用这些大型预测计算器来重新构想 SaaS 解决方案。

“对于SaaS领导者来说,首先也是最重要的事情是现在可能发生的事情,这是以前没有的,”Intercom的联合创始人兼首席战略官Des Traynor表示,“例如使用 GPT-4,现在可以生成文本、生成图像、推断含义、扩展和采取行动。那么,构建者如何在不同的用例中让软件产品更便捷、更高效呢?


(相关资料图)

早在 ChatGPT 成为家喻户晓的名字之前,领先的客户服务平台Intercom 自 2018 年以来一直在将人工智能 (AI) 构建到他们的产品中,并尝试如何改变客户支持。截至今天,对讲机团队已经推出了两款使用 OpenAI 技术的产品,即收件箱 AI 功能,该功能允许支持代表通过单击按钮来撰写、总结和扩展与客户的整个对话,以及他们的 GPT-4 驱动的客户支持机器人。

在这个先进的计算时代,技术生态系统正在探索应用程序,并就如何准确重新构想产品并通过LLM推动价值提出战术问题。

在Atlas上,Intercom的联合创始人兼首席战略官Des Traynor和机器学习高级总监Fergal Reid分享了他们对其他产品和机器学习(ML)团队的观点。他们一起提炼了他们在构建 AI 产品时学到的五个经验教训,其他 SaaS 领导者可以将其应用于他们未来的产品路线图。

01

选择一个低风险、高潜力的问题

“选择是最艰巨的挑战,”Intercom的联合创始人兼首席战略官Des Traynor表示,“找到一个相对可被生成式人工智能利用的领域,但也有发展空间,这是一个挑战。这就是为什么我们第一次涉足生成式人工智能是在代理辅助方面(智能回复)。

在这种情况下,Intercom 只是通过向支持代理建议答案来增强工作流程,无论是压缩、总结、扩展,还是改变他们已经编写的答案的语气。“如果它不起作用,则没有缺点。如果它确实有效,就会有很大的上升空间,“德斯分享道。

“无论案例如何,我们最初都应该关注不对称的机会。无论您选择什么,请记住,需要有一个定期和活跃的案例。使用低频率,你永远不会感觉到它是否有效。”

然而,有了这个建议,Des警告道,必须在构建之前评估和预测下游成本。最坏的情况是将昂贵的生成AI添加到极高的频率和合理的低价值功能中。这项实验拥有数百万用户,可能会在不推动真正客户价值的情况下使企业破产。

02

从一个小型“臭鼬工厂”团队开始以获得牵引力

尽管 Intercom 长期以来一直认为客户支持的未来有一天会是与人类一起工作的自动化,但在构建之前仍有许多需要评估的内容。团队必须定义明确的目标,确定方向并确定功能的优先级。

最初,Intercom使这个早期团队保持小规模,以便他们可以尽可能保持敏捷;换句话说,他们聚集了一个臭鼬工厂团队——一群敬业的人,在他们的思考和协作中发展。

“主要由ML团队推动,我们故意运行一个非常小的操作,有一些来自外部的产品和beta支持,”机器学习领导者Fergal Reid表示,他在Intercom工作了七年多。“这减少了在如此紧迫的时间范围内内部沟通的开销。由于技术是如此之新,我们不想浪费任何宝贵的时间,让一大群人加速并试图达成共识。”

说实话,在尝试运行如此高速的项目时,仍然存在许多内部障碍。“然而,我们得到了强有力的执行利益相关者的支持,以帮助减少在获得法律、测试版条款和条件等方面的摩擦,”Fergal 说道。现在两次发布后,围绕AI发布有更多的团队,但早期的成功始于一个紧密的团队。

03

找出一个快速交付和学习框架

“就上下文而言,我们多年来一直在构建(非生成)人工智能产品,”Fergal表示,“自 2020 年以来,我们面向最终用户的机器人 Resolution Bot 一直在自动解决支持查询。我们的团队使用神经网络来检测主题,因此我们已经利用收件箱中的 AI 功能来提高支持代表的效率。

这只是一个早期的例子——随着他们的臭鼬工厂团队继续努力,他们必须创建一个优先级框架。

“对讲机有一种围绕快速运输和学习的文化,这在技术颠覆时期是一项重要资产。最初,我们着手构建一系列需要深度集成的功能,因此我们可以快速部署它们,但这仍然会带来真正的价值,“Fergal 解释道。

该团队认为语言模型只会扩展到让人类支持代表保持循环的功能。因此,他们开始研究“收件箱”功能,构建几个生成功能,以帮助支持代表在收件箱中编写文本,以及在移交前总结对话。

“如果有的话,我们低估了这些人工智能功能的价值,并客户从这些早期功能中获得的价值。

“如前所述,我们这种类型的第一个功能智能回复于 2022 年发布。智能回复功能通过提供基于过去常用问候语的预测文本,使支持代表能够更快、更轻松地与客户联系,客户可以接受、拒绝或更改这些文本,以便快速进行个性化互动。”

该团队正在构建智能回复模型的下一代版本,目的是在 ChatGPT 推出时在内部生成模型上运行。

“ChatGPT 和 text-davinci-003 在质量方面完全让我们大吃一惊,所以我们立即开始关注这些模型,而不是我们的内部模型,”Fergal 分享道。

团队知道这是一个转向的时刻,他们迅速将生产从专有模型转移到使用 OpenAI 的技术,利用 、GPT-4 和插件获得更好、更快的结果。

现在该团队可以将其模型外包给 GPT-4,他们的开发可以进入高速发展阶段。“我们现在可以使用这个基础模型来构建一个与最终用户交谈的机器人。”这是他们最新产品Fin的开始,Fin是市场上首批GPT驱动的客户支持机器人之一。

04

集中机器学习团队

“我们已经进入了四到五个月的机会飓风,现在还处于非常早期的阶段,”Des表示,“但我确实认为每个软件公司都需要在人工智能和机器学习方面拥有丰富的专业知识,以确定每个企业的最佳机会,并知道如何探索和利用。

换句话说,如果你还没有规划出一个ML团队,那么时间已经不远了。

“我不认为科技公司的每个工程师都能在一夜之间成为人工智能和机器学习专家,这是不现实的。他们可能都会非常熟悉现有的各种API,但我认为围绕机会的研究和探索是最具战略意义的机会。

对讲机将确保人工智能实施的最佳实践扩展到产品、技术和战略团队以及执行领导者等作为优先事项。

以下是 Intercom 如何分解 ML 与产品和工程团队:

该框架轻描淡写地概述了不同团队之间的细分,但这并不意味着它在未来不会改变。

尽管如此,所有新兴的ML团队都必须具备一些必备的品质:好奇心,将研究应用于不同环境的能力,以及像客户一样思考的能力。“ML团队必须非常深入的研发文化,这意味着他们习惯于使用新的模糊技术,但也非常关心解决客户问题,以及非常快的移动和输出。这种组合非常强大,”Des表示,“2022 年,我们已经深入解决相关的客户问题,尝试使用其他技术,因此当 出现时,我们确实处于快速行动的有利位置。”

根据Fergal的说法:“在Intercom,我们看到未来人工智能将推动我们的技术进步,这是我们生产力的加速剂。因为所有团队都与公司的愿景保持一致,所以它创造了大量的内部兴奋和动力。”

05

将语言重新构想为软件的新 UI

使用 AI 转变您的产品套件需要第一原则思维,并评估您的业务促进的重复、可预测和可扩展的任务和工作流程。“一旦你了解了你的产品范围,你就能看到人工智能在多大程度上可以改变你的产品,”Des解释道。

“企业软件有笨拙的UI的历史,未来两年,我们将在行业中回答的一个大问题是:文本是新的UI吗?语音是新的用户界面吗?”

“在2015年我们看到的小聊天机器人复兴期间,人们会嘲笑聊天可能是下一个界面的想法,但OpenAI,+和whisper允许自然语言进化人机交互。

举一个简单的例子,Des为Google Analytics等工具提供了文本驱动UI的强大功能。“这将使新用户更容易在Google Analytics中立即提高工作效率,因为他们不需要学习所有的下拉菜单,设置,过滤器和细分等。这将对企业网络分析造成极大的破坏,因为现在每个人都可以使用该产品。对于语言,您需要做的就是提出正确的问题。很快,在今年(2023 年)内,我们将看到许多复杂的工具,这些工具不仅提供书面文本的纯英语 UI(或任何语言),还包含合成语音、实时音频翻译和转录。

“接下来是语音驱动UI。语音驱动的UI是下一个,它将对软件的考虑方式和位置进行长期的转变。”正如 Des 所解释的那样,语音在屏幕访问受限的地方工作。

“我们将看到"place-ona"与角色的复兴,这意味着UI将是真正的多模式,任何人都可以通过文本,语音和其他媒体参与或指导软件。”

Des为SaaS构建者描述的是软件可以从设备中分离出来并变得更加有关联性,这是对话的未来。

本文发自Bessemer,原题为“How Intercom navigated the AI paradigm shift”,作者:ETHAN KURZWEIL 、ATLAS EDITORS,经朋湖网编译整理,供业内参考。

推荐内容