AIOps可观察性可以在关键业务用例提供重要的价值。成功地构建了机器学习模型驱动这些用例,您需要一个强大的数据基础。AI的应用/毫升事件补救,增强预警建议,和积极的风险缓解不有用如果不新鲜,训练模型的相关数据。如果它花费的时间太长模型学习环境,或如果组织不相信这些模型提供的输出,其价值将会实现。更糟糕的是,他们的表现不佳会导致更多的安全或操作风险。

工具利用毫升模型在动态环境中必须不断美联储新数据为了适应不断变化的环境和目标。他们需要尽可能多地了解新环境之前完全可以和安全提供服务并最终交付价值。连接建立后,然而,他们提供重要信息,可以自动或用于之内完成加强人为纠正或积极的行动

AI / ML模式困境

企业利用AIOps工具今天正在努力确保他们的模型工作部署,而不是等待的时间长度(有时几个月)积累数据和训练模式。这是由一个缺乏现场生产数据在预生产环境中,这意味着模型不能被训练在最近和相关数据。这将创建一个“先有鸡先有蛋”的情况,我们需要一个模型训练数据,但是我们需要把模型转化为生产收集一些数据。

合成数据可以从敏感的生产数据的桥梁安全的测试数据

来缩短培训周期在不违反政策或法规,同时建立信任和透明AI - / ML-driven解决方案如AIOps并利用可观察性生成的人工智能技术——在这种情况下,合成数据生成生成对抗网络和大型语言模型。这些技术可以加快训练产生消除识别信息数据,修改合成数据测试“如果”场景,并扩大和增加较小的数据集,使它们足够大的训练各种类型的模型。这有助于改进模型,使之更准确,但更重要的是,它有助于建立信心的人工智能应用程序,它将更准确、更及时。

建立自信和驾驶

缩短培训周期,同时提高系统的信心将推动更快的了在AI - / ML-driven平台可用功能比如AIOps。关闭AIOps的数据差异问题和可观察性可以使用额外的技术,如自动解决标签,匿名化,或屏蔽。时间价值的问题也可以成为一个更加离散计算通过测试模型与深思熟虑的可变性更紧密地接近一个模型需要多长时间准备生产。采用和实现价值将发生如果这些系统并不信任和安全,然而。

答案是在地平线上的困境

在接下来的几个月,我们将寻求更好地理解这些困境与培训组织面临他们的AI /毫升模型支持它操作。我们将与供应商和企业合作,更好地理解和阐明我们的观点在这些挑战。如果你面对这些挑战和/或克服它们,请联系罗文,因为我们真的想捕捉你的经历作为我们的研究的一部分。你也可以联系我们的研究助理奥黛丽林奇安排一个时间谈话。我们期待着与你说话,作为这项研究的一部分。

加入谈话

我们邀请你去接触通过社交媒体如果你想提供一般的反馈。如果你喜欢更正式的或私人的讨论,电子邮件inquiry@forrester.com建立一个会议!点击卡洛斯卡萨诺瓦罗文伦跟随我们的研究,继续讨论。