AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

元宇宙之心
+ 关注
2023-06-09 15:01
584次阅读
关于人工智能安全风险及监管问题

你敢相信吗,一个普通的视频聊天,竟然让一位福州市民损失了430万元!这就是最近发生的一起利用AI技术实施电信诈骗的惊人案例,它引发了全国网友的热议和关注。 

而在国外,有关AI造假的问题也是层出不穷。有人用AI技术制造了美国前总统特朗普“被捕”的假新闻,也有人用AI技术模仿了欧盟委员会主席的声音,向德国总理打了个骗局电话。 

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

这些新闻表明, AI技术的滥用和误用已经成为一个全球性的问题 ,在这种情况下,人们越来越担心 ChatGPT 等人工智能的发展可能对社会带来严重的威胁。对此,包括“ChatGPT之父”Sam Altman在内的350位AI权威自发签署了一封联名公开信,警告AI可能会对人类构成灭绝性风险。 

此前,深度学习之父Hinton也曾为了警告AI的风险,不惜从谷歌离职。的确,AI技术的发展和应用不仅给人们带来了便利和福祉,也带来了巨大的挑战和危机。

如何识别和应对AI的潜在风险,已经成为当下亟待解决的问题,而我们将在以下内容中针对这些问题做详细的阐述。

◉ 伦理和道德风险

想象一下,如果有一天,AI技术发展到了超越人类智慧的水平,它会怎么对待我们?它会尊重我们的价值观和利益吗?它会保护我们的主体地位和自由吗?科幻小说中人类的机器大战的场面是否会成为现实? 

这是我们需要认真思考的一个非常重要的问题, 因为在AI技术的发展和应用中,伦理和道德风险已经悄然出现 。 

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

一方面,AI系统可能成为人类偏见的镜子或放大器,导致不公平的决策或行为;另一方面,AI系统可能区别对待不同的个人或群体,比如有些招聘系统可能会针对某些性别或种族,从而影响他们的就业前景。 

◉ 经济风险

AI技术所引发的经济风险也与我们的生活息息相关。诈骗分子通过“换脸”和“拟声”等技术模仿受害人的朋友或亲戚的声音和外貌,让受害人完全分不清真假,这便是利用AI技术进行诈骗的典型方式。 

据报道,这种诈骗的成功率高达100%,已经造成了多起重大财产损失,给人们带来了严重的经济风险。

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

目前,AI诈骗包括以下几种常用手法: 

声音合成:诈骗者通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

AI程序筛选受害人和换脸技术 :诈骗分子首先分析公众发布在网上的各类信息,然后根据所要实施的骗术,通过AI技术筛选目标人群,最后在视频通话中利用AI换脸骗取信任。在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

转发微信语音:诈骗分子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会通过提取语音文件来实现语音转发,进而实施诈骗。

◉ 技术风险

作为一种改变人们生活方式和工作方式的技术,AI的广泛应用为人们带来了极大的便利,但同时AI技术的发展也给人类带来了一系列的技术危害和技术风险。 

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

首先是数据隐私和安全问题 。AI技术需要处理的数据通常涉及到用户的个人信息,如果这些数据处理不当或泄露,将给用户带来巨大的损失和安全隐患。 

其次,AI技术往往采用黑箱技术,以获得更高的预测能力和效率,这使得AI系统不能向人类提供足够的可解释性,使得AI系统无法“解释”其行为或决策的标准,可能产生误导性和歪曲性。

除了以上技术问题以外,清华大学教授陶建华曾表示,大模型的安全漏洞威胁大模型的应用生态和国家安全,如数据投毒攻击、对抗样本攻击,以及模型窃取攻击国家、企业、个人信息窃取等。

◉ 社会风险

AI技术的不断发展还导致了越来越多的工作被自动化取代,部分人失去了工作机会,从而使得富人和穷人之间的差距越来越大。 

在某些行业中,AI可能会取代人类工作岗位,如制造业、商业、金融和法律,这会导致失业、职业转移和社会经济的重大变化,进一步造成失业率上升,并对整个社会产生负面影响。

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

除此之外,AI可能对人类的社交和人际交往能力产生影响。在未来,人类可能会倾向于与机器对话,而不是与真正的人进行交流,这将对我们的社会联系和人类身份认同带来重要的改变。 

如果AI技术变得足够智能,可能会超出人类的控制范围,从而导致不可预测的人类控制丧失。最后,由于人工智能技术的发展需要大量投资和技术资源,可能会导致一些国家或组织比其他国家或组织更具竞争力,从而加剧社会不平等。

◉ 国家层面

尽管人工智能技术具有跨国性质,并且围绕它的担忧程度很高。在AI监管方面,自2017年以来,69个国家共通过了800多项人工智能法规。 

但在人工智能监管或数据使用方面仍然没有统一的政策方法,那么,世界各地的政府机构是如何处理这个问题的呢? 

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

世界各地的政府机构正在努力制定人工智能监管和数据使用方面的政策。例如,英国宣布将举办世界首个人工智能峰会,呼吁加强AI管制。美国国家标准与技术研究院也已经制定了负责任地使用人工智能的方法框架,并试图在政府的AI监管工作方面扮演突出角色。 

欧盟委员会提出了一项旨在加强人工智能(AI)技术监管的法规草案,拟创建一个所谓“AI高风险应用场景”的清单,并对AI技术在关键基础设施、大学招生、申请贷款等被认定为“高风险”应用领域的开发和使用制定新的标准,并进行有针对性的监管。 

此外,中国政府也在积极推进人工智能监管和数据使用方面的政策,中国国家互联网信息办公室发布了《人工智能安全评估规范》等文件,以加强对人工智能安全性的监管。

在近日国务院办公厅印发的《国务院2023年度立法工作计划》中,人工智能法草案等也将预备提请全国人大常委会审议。

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

由此可见, 国家政府机构在处理人工智能监管或数据使用方面问题时,通常会制定一些法规或指南来规范相关行为 。这些法规或指南通常会涉及到人工智能技术的安全性、隐私保护、公平性、透明度等方方面面。 

◉ 企业层面

为了更好地应对AI所带来的风险,不只是国家层面,还需要使用AI技术的相关企业也做出努力。 

如今,AI已在许多企业内外纳入应用层面,其中的一个重要布局是与大数据相结合,能够实现智能营销、分析需求、提升服务、改进供应链等。

但应用该技术也暴露出不少弊端,即使是ChatGPT也存在不知道实时信息的局限性,更多依赖AI可能会招致黑客攻击。最优的选择便是用最新的算法更新系统,实现“技术为王”。

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

此外,针对AI技术衍生的部分道德伦理问题,比如自动筛选与分类容易导致歧视与偏见,以及面部识别技术可能会暴露人的隐私等,企业在其中往往扮演主要角色。 

不可否认,逐利是企业的天性,但作为社会的一员,企业还应承担相应的社会责任,合法使用用户数据并保障知情权,主动建立企业内部监管机制,主动接受国家与社会的监督。竭泽而渔,显然不是市场竞争的长远选择。

◉ 个人层面

目前AI诈骗的新闻大多集中于个人案例, 因此每个人都应当提高防范能力,包括反诈意识与技术知识 。 

我们不仅要对陌生网址、短信、电话、好友保持警惕,更要对熟人在网络上突如其来的汇款请求与提供个人隐私信息的要求提高警觉。

当无法见面核实真实情况时,请拒绝涉及隐私与财产的要求,一旦发现风险,请第一时间寻找有关部门的帮助。

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

(在某社交平台查询到的个人经历分享)

了解AI前沿技术同样能够提高个人反诈能力。一个人很难赚到认知之外的钱,同样,也难以丢掉认知之内的钱。虽然中老年人容易因不熟悉网络而被诈骗,但实际上AI诈骗早已渗透年轻一代里。诈骗者往往利用被诈骗者的自信自负、虚荣爱面子、捡漏捞偏门等心理,从而达到其目的。 

我们必须要意识到,人工智能的发展对人类社会是一把双刃剑。AI到今天已成为不可逆的社会潮流,但现有与潜在的风险需要我们提前预防。 

英国阿斯顿大学学者大卫·科林格里奇曾提出,创新技术如果因为担心后果采取提早控制,那么很可能就不会爆发,如果控制过晚,就很可能会走向失控。AI失控此前只存在于科幻作品中,但近来诸如“AI将会毁灭人类”的言论甚嚣尘上,引发的诈骗、隐私等问题也暴露无遗。 

AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

想要突破AI的科林格里奇困境,需要国际组织、国家机关、企业团体与个人联合努力,携手并进。 

在社会高速公路上急驰AI,急停只会造成难以估量的损失,我们要做的,唯有匀速向前。

声明】:本文为元宇宙之心运营团队原创,未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。

本文来自微信公众号“元宇宙之心MetaverseHub”(ID:MetaverseHub),作者:MetaverseHub,36氪经授权发布。

[免责声明]

原文标题: AI风险堪比核能?诈骗、失控等众多黑暗面,我们该如何应对?

本文由作者原创发布于36氪企服点评;未经许可,禁止转载。

0
消息通知
咨询入驻
商务合作