生成AI -使用机器学习或其他模型(如大型语言模型)创建小说文本,图像,声音,等等——坚决在聚光灯下是当今发展最快的技术领域之一,特别是与最近发布的OpenAI ChatGPT。过去一周,我们看到成千上万的人在尝试提示和问题有ChatGPT做任务多样,概括一个故事或检查代码错误。尽管许多结果的有效性和准确性,ChatGPT和其他大型语言模型,生成文本可以很容易地生成连贯的废话代替。企业应该兴奋试验,将生成人工智能集成到工作流的员工——但这兴奋不应该转移需要维护周围的透明度和治理目前存在内容生成过程和人工智能应用程序。

那些使用生成人工智能可以无意中产生相干废话恶意(例如,使用卡拉狄加产生种族主义或反犹太研究论文)或意外(例如,当用户要求内容,他们不是专家,因此无法验证信息的真实性)。既给企业带来危险如果这些内容使其投入生产或生活环境。将是企业采用这种技术的关键适当审查内容和正确区分看起来表面上和在它的意义。提供人类发展类比,我们已经达到了“童年”后期阶段生成的人工智能系统。这些系统能串字,令人信服地创建逻辑参数,但是你不能确定他们是否只是使事情或者只告诉你什么你想要听的。

生成人工智能具有巨大的潜力,但管理它像任何其他企业应用程序

重要的是要记住,如果生成AI使事情更容易,这也使得更容易做不好的事情。连贯的无稽之谈意味着我们需要创建的挑战,比以往任何时候都保持适当的企业工作流和治理围绕AI-generated内容,以确保它的准确性和完整性,期望从其他企业软件。而策划企业流程生成AI可能觉得繁重的——尤其是考虑到生成人工智能文本和图像的速度能有多快,它将帮助球队避免手指被释放到生产,可能会有大规模的意想不到的后果(例如,元最近的业绩的有争议的搅拌机的人工智能机器人)。超越了声誉风险——一个可以很容易地看到一个用户要求ChatGPT健康咨询和建议,让他们安全的如果没有控制或护栏模型的使用。

考虑这些问题当你开始试验,采用生成人工智能应用程序

当企业开始探索这个新宇宙的可能性,有许多问题仍然对其应用程序。首先考虑这些核心问题:

  • 训练数据来自可靠的来源吗?它可能是正确的吗?
  • 如果外部伙伴训练模型,您将如何审计数据来源,以确保您已经确定可能的偏见和混杂因素的数据?
  • 解决方案理解上下文吗?它能理解新问题在参考以前的问题吗?不同的答案可以通过理解给定一个用户是谁吗?
  • 的解决方案包括一个审计跟踪、保管、链或其他指标生成内容?

生成人工智能的未来是光明的,但不要被蒙蔽的种种可能性

宇宙生成人工智能的未来不断扩大的用例。每一个部分的企业可以获得受益于这项技术——从呼叫中心到市场营销、产品开发、内容生成,人力资源,员工的支持,和客户体验。我们只有开始的表面划痕可能今天与这些模型,模型发展的步伐提供更丰富的功能。企业必须今天开始探索这些功能,应该构建一个策略生成AI将如何影响他们公司的自顶向下和自底向上。