B体育刚刚过去的2023年似乎要在人工智能的发展历史上留下浓重的一笔。受聊天机器人ChatGPT于2022年11月推出加持,2023年成为了人工智能发展史的一个转折点,甚至有媒体将其称为“人工智能元年”。
迈入2024年不久,推出ChatGPT才一年多的美国开放人工智能研究中心(OpenAI)又在人工智能视频生成领域抛出新花样,被业内视为人工智能技术的又一次进步。
近日,新京报记者对话美国西北大学计算机科学教授克里斯蒂安·哈蒙德(Kristian Hammond)。哈蒙德表示,可以说2023年是人们终于意识到人工智能的一年,而2024年将是人工智能整合之年,人们会想办法把这些新奇的“玩具”运用到生活之中。
谈及外界对人工智能快速发展的担忧,哈蒙德将构建人工智能想象成抚养一个孩子,希望它能比自己更聪明、更成功,同时不伤害任何人B体育,努力打造人类和人工智能的伙伴关系,并肩战斗。
新京报:许多媒体将过去一年称为“人工智能之年”,也有不少词典的年度词语都与人工智能相关。你会如何形容人工智能在2023年取得的进展?
哈蒙德:我认为2023年是人们意识到人工智能的一年,2024年将是人工智能整合的一年,在这一年里,我们会想出办法把这些闪亮、可爱、新奇的“玩具”用到我们的生活、业务之中,利用它们来造福人类。
哈蒙德:人工智能起步的时候,(人们)认为推理就像逻辑,我们必须写下所有的规则,但这点很难做到。后来我们遇到了一个关键转折点,发现机器学习可以帮助人们自动建立这些规则,但我们没有足够的数据,也没有足够的计算能力。
在获得了数据和计算能力后,我们来到了新的转折点,发现人工智能可以进行大量学习,学会如何控制自动驾驶的汽车,如何识别名字、面孔和物体,甚至别人的话语,还学会了如何翻转技术,预测图像可能是什么样子,人们的下一句话可能会说些什么。我们已经看到了这个过程。事实上,归结起来这其中有两种推理系统。一种是非常快速的推理,不断识别人们在说什么内容。另一种是更慢、更留心的推理,试图弄懂他们说话背后的含义,以及自己应该相应做什么。接下来,我们需要弄清楚如何将这两种技术结合起来,它们都很强大,但是都不完善。
哈蒙德:我们在网络上做的任何事情都离不开人工智能B体育。例如,搜索引擎上会有人工智能组件预测你想要寻找的是什么,服务平台在提供信息B体育、产品或进行推荐的时候,背后也都有人工智能的痕迹。所有与语音识别、面部识别有关的内容,也都有人工智能组件发挥作用。
有趣的是,我们开始思考如何把这些组成部分结合起来,看看它们都在做什么,哪些对我们有益,哪些有害。有时候我们可能会做出看上去非常有趣,但实际却产生危害的内容。识别出这些伤害并找出避免或补救它们的方法,这一点非常重要。因为我们希望人工智能与我们合作,我们不想生活在一个一切都已为我们做好的世界中,而是更希望与另一种智能形式共同工作生活。所以需要弄清楚人工智能的缺点与优点,并扬长避短。
哈蒙德:例如,在视频制作之中,使用技术将各部分合并在同一个屏幕之上,这在一定程度上给我们带来了一个深度造假的世界。就制造冒犯性材料而言,可能把某个人放入某段色之中,这可能是非常危险的。或者有人通过某些技术加入一个视频会议,假装是在场人员的上司,试图说服其他人将钱转到另外的账户里。人工智能也可能卷入世界重大事件和政治之中,它创造出的图像并不是真实的,却十分令人信服,这意味着我们将生活在一个我们不再确定什么是真实的世界之中。
还有其他技术虽然吸引人,令人欲罢不能,但也可能产生负面影响。例如,我们生活在一个社交媒体的世界里,但在这里似乎每个人都比我们更加漂亮、更加富有,比我们做得更好,这会在一定程度上导致抑郁。我们已经应用了一系列人工智能相关的技术,现在是我们认真看待它们的时候了,找出我们哪里犯了错误,然后改正它们。我们想要的不是一个无法离线的世界、让我们感到沮丧的世界,更不是一个被谎言包围的世界。
新京报:人工智能公司也意识到其潜在的风险,试图打造工具帮助监测虚假误导内容。然而,有专家担心总会有人找到办法绕过这些屏障。在你看来,能否完全阻止人工智能技术被滥用?
哈蒙德:这不可能做到,我们必须意识到这一点。例如从Photoshop的角度来讲,它的出现意味着我们可以修饰照片,改变过去的记录,以及改变对过去所发生事情的理解。逐渐我们习惯了它的概念,习惯了在看一张图片的时候会评估它是否合乎常理。
对于所有人来说,我们必须培养一种批判的眼光,意识到出现在我们面前的东西可能并不真实,并弄清楚我们如何为自己提供真正的批判的工具、人性的工具、思考的工具来识别这种情况,避免被欺骗。
2023年召开了首届人工智能安全峰会、欧盟通过了全球首部人工智能法。你如何评价目前全球对于人工智能使用的监管水平?接下来还需要做哪些工作?
哈蒙德:我个人认为欧盟的做法很好B体育。他们很少考虑这种技术或那种技术的本质,而是更多地考虑风险,找出风险所在,并建立风险的等级机制。如果涉及有关人类生命的决定,那么这就是一个非常高风险的情况B体育,因此会在算法、数据和使用方面提出更多要求。
例如,我个人并不想让所有的公共摄像头一直追踪自己的位置,我想有自己的隐私,但如果我的孩子失踪了,我希望每一台相机中的每一帧图像都得到使用,看我们能否找到他们。这就是问题所在,技术可以有各种不同的用途,其中一些非常重要,对人类有益,其他则并非如此,需要监管的是其中的差异。随着技术的发展,它会变得更好、更快、更强,将可以在越来越小的机器上运行,我们无法避免这种情况,但我们可以通过规范恶意使用来避免它被滥用。
新京报:谈到人工智能,一个总会被提及的问题是,人工智能是否会在未来取代人类的工作。长期而言,你如何看待人与人工智能之间的关系?
哈蒙德:从长远来看,人类认知的方方面面都可以运用到机器上,也就是说,我们会让机器变得和我们一样聪明、有创造力以及有直觉。我们从不认为身边有聪明人是件坏事,我们喜欢这样,换成智能机器,我们的态度也应该是一样的。
我喜欢把构建人工智能想象成抚养一个孩子,我们当然希望孩子比自己更聪明、更成功,也希望这个孩子不要伤害别人,如果能做到这三点,那就太棒了。打造人工智能时,要意识到它将与我们并肩作战,我们必须思考该如何让人工智能系统与我们保持一致,与我们合作。我无法想象人工智能会在人类没有提前设定计划的情况下,消灭一切工作或试图接管一切,当然我们也不应该给人工智能发出这样的指令。我们应该打造的是人类与人工智能之间的伙伴关系,我们可以建立一个为彼此做更多事情的世界,如果我们花更少的时间劳动,仍然过着美好的生活,关注兄弟姐妹的需要,那将会是一个多么美好的世界,而这正是人工智能可以构建的世界。
哈蒙德:我不能给出一个准确的时间表,我们正在(为人工智能)打造人类水平的认知技能,但这也不是终点。人类也是同样,我们一直在努力变得越来越好,想让下一代更健康、更聪明,这也是人工智能世界的感觉,它将变得越来越智能,人类与人工智能一起工作,共同把事情完成,互相照顾彼此。