大模型时代来了!数安风险如何应对?小蛮腰AI峰会专家支招

大模型时代来了!数安风险如何应对?小蛮腰AI峰会专家支招
2023-05-29 10:25 南方都市报 编辑:王优

专题图.jpg

ChatGPT等大语言模型爆火背后原因是什么?给哪些行业产业带来福音?潜在泡沫风险在哪里?5月25日至26日,在2023小蛮腰科技大会分论坛——“迈向智能时代,实现文明跃迁”AIGC专场峰会上,20余位AI领域的研究者、实践者,共同探讨AIGC应用与商业新范式、各行业领域发展新路径,以及潜在数据安全风险、伦理问题。

在26日峰会现场的新书发布仪式上,《大模型时代》作者、曾任阿里巴巴资深产品专家兼事业部副总经理、硅谷AI创业公司联合创始人兼首席运营官龙志勇接受南都采访时坦言,生成式AI要走先规范、后发展模式,应对大模型潜在泡沫风险既有技术手段,如大模型自我评估、合规算法审核等,又有人工流程,更重要的是产业要对问题的解决难度、周期有合理的预期,才能避免过度乐观带来的风险。

大模型掀起新一轮智力革命与产业重构

ChatGPT等生成式人工智能幕后真正的智能“大脑”,正是大语言模型!基于生成式预训练大模型的技术突破,带来面向个人、深入行业的多重应用,引发新一轮智力革命与产业重构,构建全新的脑机协作关系。

大模型时代已经到来!龙志勇透露,《大模型时代》对技术、应用和产业变化进行深入分析、阐述,生动形象解释ChatGPT大模型背后的原理,描绘大模型将如何驱动社会进入智能革命和脑机协作时代,并总结企业在自身业务中应用大模型的注意事项和方法论,为个人、企业应对变革提出建议。据其称,大模型在知识工作、商业企业、创意娱乐等领域已经具体应用,主要带来两种创新:渐进式创新、颠覆性创新。

在峰会现场主题演讲中,人工智能科学家刘志毅也提到,人工智能赋能经济社会发展各领域,下游各领域的产业升级对大模型需求持续走高。据测算2022年中国人工智能行业市场规模为3.7亿元,预计2027年将达15.37亿元,有望在下游制造、交通、金融、医疗等多领域不断渗透,实现大规模落地应用。

微信图片_20230526175544.jpg

《大模型时代》在5月26日“迈向智能时代,实现文明跃迁”2023AIGC专场峰会上发布。

生成式人工智能带来信任侵蚀等风险

不过,随着大模型的广泛应用,潜在泡沫也随之涌现。三星引入ChatGPT不到20天,就被曝机密数据泄露。AI变脸、AI绘画等带来的法律风险及伦理、数据安全问题引发关注。

谈及“大模型时代的AI科技创新与伦理治理”时,刘志毅表示,生成式人工智能确实存在一定风险,如果在扩展规模时没有考虑、缓解这些风险,可能会减缓转型速度。模型持续进行训练以提高性能,会引起有关敏感数据、隐私和安全的担忧。参与生成式人工智能的开发、消费、讨论和监管的所有人都应努力管理信任侵蚀、长期的员工失业风险、偏见和歧视、数据隐私和知识产权的保护等风险。

刘志毅接受南都采访时分享自己三点看法。他说,一是AI技术会自然进入国民经济、社会系统各领域,所在风险就会扩大,因为技术本身是黑盒的,如深度神经网络,通过技术、算法的计算,没人知道它每一步怎么达到,是不透明、不可解释的,就存在风险。二是AI技术很多时候与数字世界创造有关。比如深度伪造,包括伪造声音、图像,就是把实体身份变成数字身份,数字经济越发达的国家,越需要这些技术支撑,依赖性越强,但带来的风险也越大。三是我国非常强调应用场景与生态,这些应用场景落地必然是创新的,必然会带来风险,而这些风险随着场景创新而扩大,因此会前置性做监管,比如国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》、科技部发布的《关于加强科技伦理治理的意见》等,都是前置性去考量一些风险。

微信图片_20230526170458.jpg

《大模型时代》作者、曾任阿里巴巴资深产品专家兼事业部副总经理、硅谷AI创业公司联合创始人兼首席运营官龙志勇在新书发布仪式上发言。

对大模型算法可靠性、透明度提出要求

“数据隐私确实是GPT大模型的重要问题”,龙志勇接受南都采访时表示,最近OpenAI在美国应对质询时提前做了这方面准备工作,例如在ChatGPT中提供了关闭聊天记录的个人选项,用户可以拒绝大模型使用自己的隐私数据进行训练;针对企业客户,OpenAI将提供企业私有部署的模型,避免企业担忧自家的微调训练数据被大模型共享给了竞争对手,这些措施大概率会被国内大模型所采纳。

对于如何应对大模型潜在泡沫风险,如何平衡生成式人工智能的强规范、促发展的关系,龙志勇坦言,生成式AI要走先规范、后发展的模式。大模型的服务提供者作为AI生成物的法律责任的主要承担者,要对AIGC内容的正确性、价值取向负责,其合规压力还是相当大的,这属于强规范,“在《北京市促进通用人工智能创新发展的若干措施》文件中,提到鼓励生成式AI在科研等非面向公众服务领域实现向上向善应用,在中关村核心区先行先试,进行包容审慎的监管试点,我认为就属于一种积极的、在规范和发展之间求得平衡的信号”。

他提到,根据监管思路,实际上对大模型算法的可靠性、透明度提出了要求。《大模型时代》中预警了潜在的产业泡沫风险,其中一个重要因素就是大模型的可靠性、透明度问题。OpenAI首席科学家Ilya认为大模型的幻觉或信息造假是GPT应用于各行业的最大障碍。而幻觉问题之所以难以根除,首先是因为大模型的训练目标、方法导致,其次是AI自深度学习年代就开始具备的黑箱属性,不透明,无法在模型中定位具体问题所在。考虑到大模型新能力的涌现机制也不透明、不可预测,大模型产业需要在失控中追求可控,在规范中求得发展,这是最大的挑战。


相关阅读