人工智能

AIGC爆火的背后,《办法》打造可信AI护城河

2023-07-19

摘要 《办法》的出台,就是打造可信AI的护城河”。

    【CPS中安网 cps.com.cn】 

众所周知,新兴技术的发展是把双刃剑,当人工智能从1.0时代迈入2.0时代,AIGC(生成式人工智能)为千行百业带来市场红利的同时,也催生了不少行业安全隐患。

诸如技术滥用、虚假信息传播、个人信息权益被侵害、数据泄露或偏见歧视等安全问题,已然成为AIGC产业持续发展的阻碍。因而,基于实际国情,适合我国社会环境、产业发展和技术创新等监管政策的出炉成为当务之急。

一、风险凸显

众所周知,AI发展的三驾马车“算法、算力、数据”,数据尤为重要,其安全性则是重中之重。而作为AI下一个风口的AIGC,更需要海量优质数据为训练模型提供支撑,其训练参数量从亿级飙升到万亿级。

数据显示,2018年GPT预训练模型参数量突破1亿,2020年的CPT-3模型参数量达到1750亿,GPT-4的参数量高达1.8万亿,GPT-4的参数量规模是GPT-3的10倍以上。

可见,动辄千亿、上万亿参数的模型训练,不仅试错成本高昂,而且很难在训练过程中进行修正。AIGC的训练模型数据需求量大,如若喂给大模型的样本数据存在虚假、不准确性或涉及到用户个人隐私安全,其生成内容归属难定,或将涉及到安全或隐私纠纷。

当前,AIGC持续大热,其应用场景不断拓展,覆盖千行百业多个领域。当通用大模型向行业大模型转型升级,对细分行业的数据需求更多,数据质量要求更高,也对海量数据的真实性、准确性、安全性提出更高要求。

二、可信AI的挑战

聚焦国内市场,伴随着AI技术的快速迭代和应用场景商业化落地,AIGC的发展也亟待解决可释性、公平性、鲁棒性等核心挑战。

通俗来讲,可释性就是“知其然不知其所以然”。例如当购物网站为用户推荐了一个商品,我们不仅希望用户看到推荐的结果,还要告诉用户为什么推荐这个商品。就是从“知道这个结果”到“为什么是这个结果”的溯源,但在人工智能的不断深度学习中,越来越缺少系统的可解释性。

公平性缺失意味着,在同样的商品推荐中,基于图神经网络结构隐藏在数据中的偏见,对性别、年龄、种族等产生不同的推荐效果,从而降低了对用户和对推荐物的公平性。

鲁棒性的挑战则指系统、算法或模型在存在异常输入、算法错误或深度伪造数据时,容易被欺骗犯错,从而造成AI系统的不可控和不准确。

综上来看,要做到可信AI,需要从可释性、公平性、鲁棒性、伦理性、正确性、安全性等多维度进行考量,才会更好地驱动AIGC的未来发展。

由此可见,AIGC的“超能力”将逐步赋能千行百业,有必要提前预防可能产生的安全风险。因而,为了规避新技术带来的陷阱,对AIGC或将产生的不良影响,亟待政策层面的保障。

三、多国监管政策出炉

在AIGC技术逐步向细分行业商业化的落地过程中,其引发的安全问题已受到全球关注,并引发监管层面的关注和行动。

今年4月,AI早期创始人马斯克联合业内千名高管和专家发布公开信,倡议所有人工智能实验室应立即暂停训练至少6个月,以应对AI脱离人类掌控的威胁。

5月,美国政府机构强调对ChatGPT在伦理道德方面的监管,研究和制定针对ChatGPT的监管政策和指南,以确保ChatGPT的发展和应用符合法律法规和伦理标准。

6月,欧盟议会宣布《人工智能法案》进入最终讨论阶段,对AIGC生成图像和文本的智能模型制定限制性规则。意大利、爱尔兰、德国、法国等或将停用ChatGPT,并调查它是否符合通用数据保护条例。

7月,联合国安理会也在开展AI风险问题研讨。这是该机构第一次举行类型会议,各国政府积极探讨如何降低新兴AI技术在全球经济和国际安全方面带来的风险。

同是7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局发布《生成式人工智能服务管理暂行办法》(以下简称《办法》),自8月15日正式施行。

从上述各国对待AIGC技术带来的风险挑战和应对措施来看,在AIGC带来“超能力”之时,也需要对其引发的多重风险“立规矩”,助力AIGC更好地落地应用。

四、《办法》打造护城河

历时3个月,伴随着AIGC产业发展的高歌猛进,其监管政策也从征求意见阶段进阶到正式落地阶段,助力AIGC成为真正的“可信AI”。正如业内人士所言:“《办法》的出台,就是打造可信AI的护城河”。

《办法》的出台,可谓顺势而为。其中,第七条提到生成式人工智能服务提供者需“使用具有合法来源的数据和基础模型;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

具体规定包括:1)使用具有合法来源的数据和基础模型;2)涉及知识产权的,不得侵害他人依法享受的知识产权;3)涉及个人信息的,应用取得个人同意或符合法律、行政法规规定的其他情形;4)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;5)《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。

可以说,《办法》的出台,即是在政策认可前提下的风险管控,可以为大数据确权、云计算自主性、网络安全等AI配套产业打造增量需求和服务,更好地实现“技术向善”。

随着AIGC技术端的突破,将能更好地解决“安防+AI”遇到的个性化需求少、交付速度慢、长尾需求的算法精度差、定制化算法成本高等壁垒,助推“安防+AI”的二次变革,也助力安防产业收获第一波AIGC应用市场的红利。

而安防产业在享受大数据、云计算、物联网、AIGC算法生成等带来的红利时,也必须更高效地应对数据安全带来的安全挑战。特别是安防设备对图片、视频等数据的真实性和防伪性要求级别更高,《办法》的出台,为AIGC在安防行业的落地应用提供了监管保障。

国家互联网信息办公室有关负责人也表示,出台《办法》,旨在促进AIGC健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。

总结:

纵观AIGC的发展轨迹,当前其应用领域侧重于to-C领域,涵盖对话、图片、音频、视频等内容生成,而未来涉及to-B领域的更多落地化应用场景对行业大模型的需求也不少,但苦于资金、技术和算力的掣肘,还需要“通用大模型+应用场景+训练调优”进行迭代,从而提升行业大模型能力,深化技术和应用场景。

可预见的是,基于AIGC应用场景的普及和商业化落地,保护隐私和数据安全已刻不容缓。在此时间点,《办法》的出台则及时也很必要,可以降低AIGC发展引发的多重风险,以促进行业整体健康发展。

活动预告

以“连接世界·感知未来”为主题的2023第十九届中国国际社会公共安全博览会暨全球数字城市产业博览会将于10月25-28日在深圳会展中心(福田)盛大开幕,想获取博览会最新动态,欢迎关注下方“CPSE安博会”官方抖音号~

WechatIMG24.jpg

责任编辑:lssw