生成式AI快速发展带来更多潜在安全威胁
继CHATGPT发布以来,百度“文心一言”、谷歌Bard、阿里“通义千问”陆续面世。CHATGPT从根据要求生成文本、图片、视频,优化到能根据任务自主提出计划并实施的AUTOGPT。亚马逊推出Amazon Bedrock,意味着通过API(应用程序编程接口)即可访问来自AI21Labs、Anthropic、Stability AI和亚马逊的基础模型,并由此构建生成式AI驱动的应用程序。生成式AI技术不断进步,可以适配行业细分应用场景,赋能更多行业及企业降本增效,市场应用前景广阔。
神经网络训练时使用的算法经常涉及到隐私数据,许多情况下,来自公共监控、人脸识别和指纹生物识别、以及财务和医疗应用的大量训练数据集都是隐私的,包含个人可识别信息。攻击者,无论是有组织的犯罪集团还是商业竞争对手,很可能出于经济原因或其他利益原因来利用这些信息。此外,AI系统还面临着被注入恶意发送的伪造数据、以破坏神经网络功能的风险(例如,因面部识别图像的分类错误而导致攻击者逃脱检测)。生成式AI的潜在安全风险应引起重视,安全保护需从概念生成阶段即融入到产品之中,并贯穿产品的整个生命周期。
(资料图片仅供参考)
全球多个国家开始对生成式AI加强监管
生成式AI持续快速发展的同时,在信息安全、数据合规、版权保护等方面也引发了社会的关注与热议。美国商务部4月11日就人工智能问责措施正式公开征求意见,包括有潜在风险的新人工智能模型在发布前是否应该通过认证程序。英国政府于3月发布了第一份人工智能白皮书,概述了人工智能治理的5项原则。此外,3月底,意大利政府宣布禁止使用一款人工智能聊天机器人,并限制相关公司处理意大利用户信息数据,同时对其隐私安全问题立案调查。加拿大广播公司4月4日报道称,加拿大联邦隐私监管机构宣布,已对美国人工智能研究公司OpenAI展开调查,因该公司涉嫌“未经同意收集、使用和披露个人信息”。生成式AI潜在安全威胁较多,如信息恶意获取、篡改、伪造和乱用、数据泄漏等。安全保护在AI流程中不可或缺,强化AI监管是大势所趋。
生成式AI监管意见稿发布,强监管趋势下网络安全迎市场发展新契机
4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。该意见稿聚焦生成式人工智能,在算法设计、训练数据选择、模型生成和优化、提供服务、生成内容、个人信息和隐私保护方面均做出了限制。意见稿第五条指出“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务”,对人工智能产品使用过程中可能出现的问题的责任归属进行了确定。新的监管政策面对发展势头迅猛的生成式AI,在生成内容、隐私保护、知识产权保护等方面都做出了限制。
意见稿指出“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”,“利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估”,为生成式人工智能的产品推出设立了门槛。《征求意见稿》强调了安全评估和算法备案的前提性和必要性;强调了确保数据安全和个人信息保护合规,尤其是隐私保护;夯实了违规责任的处罚措施,包含追究刑事责任。
投资建议:生成式AI快速发展带来更多潜在安全威胁,加强监管是大势所趋。网信办发布生成式AI监管意见稿,网络安全市场迎来发展新契机。建议关注:奇安信、天融信、绿盟科技、启明星辰、安恒信息、美亚柏科、三未信安。
风险提示:需求释放不及预期;竞争加剧;技术进展不及预期。
(来源:中航证券)