我看到惊人的LinkedIn和乳齿象的帖子数量提醒人们不要将公司和消费者数据输入ChatGPT。这是一个重要的提醒,但也强调了需要这篇文章:在那里不知道发生了什么,数据。不要把它变成一个生成的人工智能模型。

三星的负面新闻后收取员工不是一次,不是两次,而是三个上传数据到ChatGPT自营公司。两个实例涉及要求ChatGPT调试产品代码。第三个实例必须要求ChatGPT转录的记录公司内部会议。福克斯商业慷慨这些事件标题为“事故”,但这些似乎都非常有意的如果不是鲁莽的。

在你成为下一个糟糕的公关标题使用生成AI鲁莽,让我们记住ChatGPT等大型语言模型,谷歌的吟游诗人,微软的Bing AI等等几乎总是学习。任何数据共享成为训练数据,可以将影响未来输出。当涉及到消费者,这是一个特别有问题的真相——特别是在地区的消费者有很强的数据隐私保护和权利。意大利的数据保护机构没有禁止ChatGPT蓝色;这样做,因为意大利人不选择他们的数据被用于火车ChatGPT,平台提供一个法律依据也没有处理数据。(ChatGPT已经恢复服务在意大利后添加免责声明和一个年龄要求。)

免得你说,这不过是一个意大利的问题,加拿大ChatGPT也发起了一项调查。至于三星,它禁止员工使用生成的人工智能。如果你探索生成人工智能,谨慎行事。记住,是你的责任是公司和客户数据的好管家,这意味着不把它变成一个黑盒并没有隐私保护,希望最好的。