首页 > 资讯 >

计算机行业专题研究:真正的AI安全如何实现?

2023-04-07 20:30:38 来源:国盛证券有限责任公司


(资料图片仅供参考)

OpenAI 发文介绍AI 安全方法。4 月5 日,OpenAI 在官网发布《Ourapproach to AI safety》,介绍其在AI 安全方面做的努力。主要内容包括:

1)严格的安全评估,GPT-4 完成训练后,OpenAI 花了6 个多月来使其在公开发布之前更安全。2)从实际使用中学习并改进安全措施。3)保护儿童,设置年龄限制以及且禁止生成仇恨、骚扰、暴力或成人内容等。4)尊重隐私,数据只用于训练。5)提高事实准确性,GPT-4 产生事实内容的可能性比GPT-3.5 高40%,但还要继续降低错误可能性。6)AI 安全需要持续的研究和参与,AI 安全性的提高和能力提高应该齐头并进,并且还需要所有利益相关方广泛的辩论、实验和参与。

AI 技术供应商需自律肩负安全责任。借鉴OpenAI 的做法,厂商可以通过下列途径来保障AI 安全性:首先要保障数据隐私,包括训练数据来源应公开合法,使用下游应用提供的数据做微调时应协定数据使用范围。通过人类反馈强化学习等手段让AI 与人类价值观对齐,遵循人类意图。还可以向用户提供内容审查工具如OpenAI 的moderation endpoint 等,帮助用户判断内容是否违规。

外部政策监管持续跟进。安全问题不能仅靠AI 厂商自律解决,还需要外部力量监督。全球AI 监管处于探索阶段,欧盟、英国、美国相关法律法规与指导意见逐步推进,2022 年9 月,中国国家网信办也修订网安法,对严重的违法行为按照上限5000 万元,或者上一年度营业额5%罚款。人工智能趋势不可逆转,与科学技术的高速发展相比,现有法律和伦理仍处于不断起步探索的阶段。

技术手段反制AI 滥用,保障数据隐私。监管与审核需要安全技术保障:AIGC的发展可能带来大量恶意生成的虚假信息,需要类似换脸甄别的技术来鉴别图像等信息是否由AI 生成;在数据隐私方面,隐私计算可以在不暴露数据的情况下进行计算和分析,以实现数据隐私的保护。我们认为,在人工智能带来巨大想象空间的同时,安全问题值得进一步关注,看好大模型及AI 安全行业的发展潜力。

建议关注:

大模型:360、科大讯飞、云从科技、昆仑万维。

外部审核:电科网安、人民网、安恒信息、奇安信、深信服、美亚柏科、启明星辰、格尔软件。

风险提示:AI 技术迭代不及预期;经济下行超预期;行业竞争加剧。

关键词

最近更新