如果你的收件箱(或社交媒体提要)看起来像我们的一样,你可能已经看到了一个又一个供应商与OpenAI的ChatGPT或其他生成式人工智能技术集成的公告。客户服务技术领域尤其充斥着这样的公告;似乎我们每天都能看到另一个。当然,这并不是一个巨大的惊喜——生成式人工智能现在非常热门,许多人都想成为第一个参加派对的人。

现在,我们和其他人一样喜欢好的派对。但朋友不会让朋友部署危险的AI!

所以,这里有一篇来自你友好的邻居Forrester分析师的PSA,关于如何负责任地聚会(或评估生成式AI解决方案)!

不要相信你在网上看到的一切

许多供应商在新闻稿中声称与ChatGPT集成,可能是希望赶上生成式人工智能的热潮。OpenAI还没有将ChatGPT API提供给其他人使用,然而,据我们所知,OpenAI甚至还没有开始完成它长达一英里的等待列表。更有可能的是,供应商已经集成了不同的大型语言模型(LLM),由OpenAI或其他机构提供,并且正在精心制作这些公告,以暗示与ChatGPT的联系(和功能)比实际的更紧密。

客户服务供应商几年来一直在利用llm,尽管通常不是在生成能力方面。LLMs(包括OpenAI的GPT-3)允许更高性能的许多自然语言处理(NLP)任务,如语言建模、情感分析、命名实体识别或文本分类。利用llm来提高对话分析或聊天机器人等解决方案的准确性是一种可行的方法,这并不意味着软件将具有生成文本属性。发布这些公告的供应商很可能依赖于买家不知道其中的区别。

同样重要的是要考虑到许多备受瞩目的llm(如GPT-3)没有接受过呼叫中心用例的培训,并且不太可能准备好开箱即用。然而,一些供应商,在过去的几年里,他们创建了自己的llm,专门针对客户服务场景进行了调整,这些llm将更加高效。

那么这对你意味着什么呢?

  • 问一些难回答的问题。如果你正在接受一个暗示与ChatGPT相同能力的宣传,请向供应商询问详细信息。你是什么模型或API实际上使用(例如,达芬奇-003,BERT, GPT-J)?你的产品是为了处理哪些特定的NLP任务而设计的,LLM是如何适应这个过程的?你利用llm有多长时间了,你的客户看到了什么好处?如果他们声称他们的模型正在生成独特的内容,您可能还会问:您采取了哪些控制措施来确保内容的准确和适当,以及采取了哪些措施来捕捉不适当的内容?您的客户端对输出有多大的控制,还是完全由模型控制?如何对LLM进行微调或自定义以处理特定于领域的用例?
  • 参数越多不一定越好。我们读到的许多llm都是在1000亿个参数上训练的——这是很多的。对于一次性的训练任务(例如训练基础自然语言模型或离线生成训练数据以供较小的模型使用),可以利用超大型llm (elllm ?开个玩笑)非常有道理。然而,对于在线用例,使用这种规模的模型可能是非常昂贵的,坦率地说,是过度的。特定于领域的较小(10- 100亿个参数)LLM可以以更低的成本胜过大型模型。
  • 注意没有区别的螺栓我们一直在阅读的生成式人工智能模型仍然存在非常新虽然我们确实看到了非常快速的实验和创新,但构建有价值的产品需要时间(以及研究、验证和测试)。在接下来的几个月里,我们预计会看到很多骗人的ChatGPT。当评估供应商的解决方案宣称与这些引人注目的生成模型集成时,问自己:供应商所展示的是什么他们的?或者,其他同类厂商是否可以插入相同的API,并立即讲述相同的故事?如果答案是肯定的,我们就放弃。
  • 避免面向消费者的应用程序。至少现在是这样。我们以前写过部署生成式人工智能工具的一些风险,包括它们的生产倾向连贯的废话.我们还不确定是否有足够的企业控制措施来防范面向客户的解决方案产生不正确或不适当的内容所带来的声誉风险。使用生成式AI来支持内部对话设计师或语音分析师?爱死它了。用它在飞行中生成聊天机器人的响应?还没有。

但我们不是总计湿毯子。人工智能领域的这些进步确实是革命性的。我们正在见证人工智能的关键时刻就在我们眼前展开。企业完全可以也应该这样做用这项技术做实验.但你要知道这就是你在做的:试验。

任何想要获得生成式人工智能在其更广泛的客户服务战略中适用的指导(或在评估供应商解决方案方面寻求支持)的Forrester客户,请保持联系