我们在做大模型应用开发,把客户的原始数据喂给 API 是常态。
虽然签了隐私协议,但心里还是没底。万一模型训练时“记住”了我们的数据,被竞对套出来怎么办?
想听听大家的做法:
- 你们会对传给 API 的数据做脱敏处理吗?
- 有没有那种“既用了 AI 又绝对安全”的中间层方案?
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
我们在做大模型应用开发,把客户的原始数据喂给 API 是常态。
虽然签了隐私协议,但心里还是没底。万一模型训练时“记住”了我们的数据,被竞对套出来怎么办?
想听听大家的做法:
暂无评论内容