NG体育官网app下载近期,2024年世界人工智能大会在上海圆满落幕,大会发表的《人工智能全球治理上海宣言》指出:人工智能正在引领一场科技革命,深刻影响人类生产生活。随着人工智能技术快速发展,我们也面临前所未有的挑战。
不可否认,人工智能已经走到了发展和治理的“十字路口”。我们究竟该如何平衡AI的“智”与“治”?大会期间,世界周刊派出报道组前往上海,与多位国际专家和国际组织负责人对线日,全球最大的私营软件公司之一SAS发布报告称,中国在生成式人工智能应用领域占据全球领先地位,而美国则在人工智能全面实施方面领先。
而在刚刚闭幕的世界人工智能大会上,据组委会统计,展览规模、参展企业数、亮点展品数、首发新品数均创下了历史最高纪录。
加州大学伯克利分校人类兼容人工智能中心执行主任 马克·尼兹伯格:语言模型是我们作为通用技术,开发过的最强大的软件系统。它们是在有史以来最大的,数字互联基础设施上交付的,它们基本上影响着人类的每一项活动。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:我的预测是9个月后,将会出现一些颠覆性的智能体,可供人类当作商品使用。
你或许对Siri、小爱同学、天猫精灵等智能助手很熟悉,它们可以帮助我们完成设置提醒、查找信息或播放音乐等任务。
简单来说,智能体使用传感器与代码感知和理解所处的环境,这样一来,它们可收集丰富的数据,再通过算法或模型对数据进行处理,进而完成任务。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:这更像是汽车和公路的关系,当我们把路修好后,汽车在公路上跑得就更好更舒适。类似的关系也可能会出现在,(新的)智能体上NG体育娱乐。我们可以打造,让人机交互变得简单的系统。当我们说,你能帮我预订机票吗?它就会启动其中一个系统,非常简单地完成任务。
在本届人工智能大会上,人们第一次看到了这款由我国自主研发的全球首款全尺寸通用人形机器人“青龙”。
今年6月,特斯拉CEO马斯克曾大胆预测,擎天柱将推动特斯拉市值达到25万亿美元。
特斯拉CEO 马斯克:它真的将会改变世界,在某种程度上甚至比汽车带来的变革更大。当然,这些机器人是友好的。完全为人类服务,帮助人类承担危险、重复和无聊的任务。
到明年年底,将有上千个擎天柱机器人在特斯拉“上岗”。在2025年年底前,“擎天柱”二代将对外销售,其面向大众市场的最终售价将被控制在2万美元以内。
今年7月,日本启用名为“多功能铁路重机”的人形机器人进行铁路设备的维修工作,宝马则宣布Figure机器人已开始在宝马车间“实习”。
国际机器人协会联盟副主席 田少明:多年来,人工智能技术曾经历两个冬天。如今,当冬天过去,AI技术达到全新水准后,我们使用机器人的方式也会变得多样。从在工厂里给机器人预先设定好程序,以便其在特定位置执行任务,到预测我们在哪里接触机器人,和机器人一起工作是绝对安全的。
据《华尔街日报》预测,这些机器人最终将和手机、汽车一样,成为人类生活的必需品。而除了从事制造业和危险工作,它们还将帮助照顾老人并填补其他相关劳动力缺口。
国际机器人协会联盟副主席 田少明:机器人最终有望成为我们的伙伴,实现我们的信念,增强我们人类的能力。并潜在地扩展我们能做的事情,(做到以前)不能做的事情。
受益于人工智能技术的飞速进步,机器人的训练实现了“质”的飞跃。如今,机器人可以像人类一样接受训练。
SANCTUARY AI公司创始人兼CEO 罗斯:我们有一种叫做远程操作的技术,一个人做某个动作200次,我们记录下所有数据,然后用这些数据来训练这些模型。AI模型与GPT风格的生成式AI模型非常相似,你录入200条轨迹,系统就会学会该任务是如何完成的,然后机器人就会自主执行任务。
投资者非常看好这类人形机器人初创公司,据高盛预计,到2035年,全球人形机器人市场将增长到380亿美元。
“未来人们真的会完全信任出现在家里、学校和疗养院中的机器人吗?成本和安全仍是这类机器人眼下所涉及的最大问题。”——美国全国广播公司。
事实上,这也是AI“热驱动”背后,最值得我们警醒的“冷思考”,同样也是本次人工智能大会的主题之一:“以善治促善智”。
加州大学伯克利分校人类兼容人工智能中心执行主任 马克·尼兹伯格:今天的人工智能系统,很大程度上是在“黑箱”和深度网络基础上的建立的。
就像飞机上的“黑匣子”,“黑箱”描述了AI技术如何在暗处运作的景象:我们提供数据、模型和架构,然后计算机给出答案,同时以一种看似不可能的方式继续学习。而对于这个过程是如何完成的,人类其实并不理解。
英国皇家学会院士 杰弗里·辛顿:我们所做的是设计学习算法,有点像设计进化原理。但是当这个学习算法与数据交互时,会产生复杂的神经网络,这些神经网络很擅长做某些事,但我们并不真正理解,它们是如何做这些事情的。
辛顿曾任谷歌公司副总裁,他在神经网络和深度学习方面的开创性研究为当前的人工智能系统开辟了道路。
而如今,他却表示后悔这曾在AI领域里工作。而他的悔恨更多是源于AI的失控风险。
加州大学伯克利分校人类兼容人工智能中心执行主任 马克·尼兹伯格:一个天真的想法是,我们可以建造一些东西,而我们所建造的东西会知道,它的所作所为是否对人类有益。
2023年5月30日,包括辛顿在内,超过350名人工智能领域的专家、高管签署联合声明,警告称快速发展的人工智能技术对于人类的威胁可以堪比疫情和核战争。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:有一句古谚语说,事情总是会变得更糟,如果你说一件事更糟糕,那就等着吧,因为还会有比这更糟糕的事。我认为这种失控的风险对我们来说很重要,我们应该认真对待,尽管听起来有点像科幻小说。
当真假变得如此难辨,我们又该从哪里寻找线月,微软宣布开发出一款新的AI语音生成器VALL-E 2,仅需几秒钟的音频样本,就能准确、自然地复现人类说话者的声线。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:合成内容可以是任何东西,从数据到算法到图像到视频。这些内容实际上是基于真实或不真实的数据集,然后由机器通过生成式人工智能开发而成。
在AI技术爆发式发展的当下,今年的选举竞争不仅比过去更加激烈,同时也面临着“深度伪造”所带来的巨大威胁。
当地时间7月10日,马斯克的脑机接口技术迎来新进展。在一次直播中,马斯克表示,神经连接将迎来第二名人类植入者。
“当你接入AI时,你就给神经技术注入了类固醇。”—联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼。
负责撰写联合国教科文组织《神经技术伦理问题报告》的主要作者斯奎西亚里尼曾把接入人体的AI设备,比作“类固醇”。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:人工智能可以以一定的规模和速度,处理大量信息,并提供完全不同的信息,以优化神经技术的功能,这就是类固醇一说的来源。好像突然之间,你就变得更强大了,能做一些非同寻常的事情。
世卫组织的数据显示,到2050年,全球60岁以上人口预计将达到21亿,而神经技术在降低癫痫、阿尔茨海默病、帕金森病和中风等神经系统障碍导致的死亡和残障方面拥有巨大潜力。
联合国教科文组织认为NG体育娱乐,如果没有伦理护栏,这些技术可能会带来严重风险,因为大脑信息可以被访问和操纵,威胁到基本权利和自由,而这些是人类身份、思想自由、隐私、记忆等概念的核心。
国际机器人协会联盟副主席 田少明:我们需要的是人类成为编辑者,成为检查者,来检查机器所生产的东西。我们想掌控机器所生产的东西,这样我们就可以确信,我们不会害怕(这项)技术。
2023年7月,联合国教科文组织举办国际会议,探索神经技术在解决神经系统和精神障碍问题上的巨大潜力,并开始着手制定针对神经技术的“通用道德框架”。
今年初,我国也发布了首部《脑机接口研究伦理指引》,给脑机接口划定了发展的“红线”和“底线日,北约发布了经修订的人工智能战略,旨在以安全和负责任的方式加速北约内部人工智能技术的使用。
与此同时,《科学美国人》杂志则再次警告称AI若在军事领域滥用会带来风险:“我们不能把武器的控制权让给人工智能。”
加州大学伯克利分校人类兼容人工智能中心执行主任 马克·尼兹伯格:当我们拥有完全自主的致命武器时,真正的危险就来了。因为它可以脱离人类的控制,如果我们做错了什么,她就会把枪口对准我们。它能摧毁的远比我们预想的要多得多。
相比脑机接口和自主武器,对普通人来说,AI+教育所带来的影响或许更直接。
两个月前,在联合国发起的人工智能造福人类创新工厂评选中,一个与教育有关的AI初创企业获得了冠军。
Stemuli创始人兼CEO 希德:这太令人兴奋了,但更令人兴奋的是,我们可以向世界展示,电子游戏和人工智能对教育可以产生重要影响,并最终可能会影响可持续发展目标的实现。
Stemuli是一家教育初创公司,该公司创建了一个教育AI元宇宙,为学校、企业等核心课堂提供基于3D游戏的学习平台。
该公司创始人兼CEO希德表示,Stemuli是一个生成式游戏平台,通过沉浸式体验和个性化途径,的确改变了传统课堂和学校。
人工智能造福人类创新工厂评委 罗登贝瑞:让我们信服的是,Stemuli用人工智能来激励孩子们,通过游戏平台学习更多东西。我不仅认为该公司会有美好的未来,我也认为孩子们可以用一种,他们可能没有意识到的教育方式来使用新技术,这真的会改变世界。
澳大利亚某学校学生 艾琳娜:这为我们节省了大量时间,尤其是对我们这些12年纪的学生来说,时间非常宝贵。
澳大利亚某学校老师:你只需要两分钟(就能完成教学计划),而不是之前的二三十分钟或一个小时。
在美国的这所学校,AI导师可以带孩子穿越时空,直接和历史人物对话,将书本上的知识亲口讲给学生听。
在联合国教科文组织社会和人类科学执行主任斯奎西亚里尼看来,这种向善的“深度伪造”反而可以成为促进教育公平的一种工具。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:想想那些生活在偏远地区或国家的孩子,他们无法接触到某些专业。而如果你对某个来自其他地方的,非常顶尖的教授做个“深度伪造”视频,这实际上是用少数群体的语音,传播了一些理念。否则这样的教育目的是无法实现的,这是生成式人工智能所展现出的,非常强大的可能性。
在阿联酋,这款政府主导研发的AI导师让请不起家庭教师的孩子有了专属教师。
“AI导师计划”合作企业ASI创始人 帕蒂瓦达:它能确保你在任何时间任何地方学习,而且是免费提供给全国的学生使用的。
为了能覆盖更多贫困学生,该系统的部分产品在没有Wi-Fi甚至2G网络下也能正常工作。
阿联酋教育部长顾问 阿尔吉海姆:这将有助于我们解决,教育质量、教育公平及包容等问题。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:我和一位唐氏综合征患儿的母亲讨论了全球人工智能治理问题,这是一次非常有趣的讨论。跟她的谈话很有趣,对我很有触动,因为我也是一位母亲。她说,想想生成式人工智能有多强大,就拿那些患有唐氏综合征的孩子,无法理解的极其复杂的书来说。如果让人工智能生成一个简化的版本,使这些孩子以更容易的方式,看到历史上最美丽的文学作品。这样他们就能获取知识,能在没那么复杂的情况下感知书的美。这当然得在足够大的范围内来做,并要做成不同语言的版本。如果我们将这个任务交给人类来完成,也许我们很快就将陷入缺钱的境地。这是人工智能的价值之一,即实现教育的个性化定制。
去年3月,美国最佳大学排名网的一份民调发现,其中全美43%的大学生使用过ChatGPT或类似AI工具。其中50%的人则表示他们曾使用过AI工具帮助自己完成作业或考试。
民调还发现,只有25%的学生表示,自己所在学校详细说明了如何以道德或负责任的方式使用AI工具,更多学校则倾向于禁止使用这类工具。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:我老公是工程学教授,他(的确)发现有学生在考试时使用生成式AI工具来编程。但你其实可以追踪到这些行为,是有办法应对的,所以我们不能因噎废食。
联合国粮农组织森林监测项目负责人 福克斯:粮农组织为(各国)提供最新的,关于森林监测的创新产品,使其能够创建自己的数据,以便采取实际行动。
《全球森林资源评估》报告显示,自1990年以来,全球有4.2亿公顷森林遭到破坏。为了解决这个问题,2023年联合国粮农组织参与发起了这项为期5年的森林计划,利用人工智能、机器学习等技术,支持包括巴新在内的20个国家保护森林资源。
国际电信联盟电信标准化局主任 尾上诚藏:通过这些活动,我们可为发展中国家提供(更多机会),以提升其对人工智能发展的参与度。
2023年末,国际电联发布报告称,目前全球三分之一人口,约26亿人仍处于离线状态,对他们来说,尖端技术依然遥不可及。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:这项技术确实很强大,但也(容易)扩大发达国家和发展中国家间的差距。
一个个事实证明,AI技术可以用来造福人类,也可以用来作恶使坏,全球监管和治理已经迫在眉睫。
现在这个“妖怪”已经跳出了瓶子,它可能会带来未知的风险和回报。——《所罗门的密码:AI时代的价值、权力与信任》。
加州大学伯克利分校人类兼容人工智能中心执行主任尼兹伯格曾在书中这样形容AI与人类的关系。
加州大学伯克利分校人类兼容人工智能中心执行主任 马克·尼兹伯格:为什么我们取名为《所罗门的密码》?因为所罗门王制定了他的律法,他被认为是一个有道德的国王,一个好国王NG体育娱乐。而人工智能现在是迫使我们,应对这些哲学及法律问题
尼兹伯格表示,我们不仅要积极研发AI技术,还要抓紧制定与之相关的社会准则。
国际电信联盟电信标准化局主任 尾上诚藏:现在,人工智能技术的变化非常迅速,如何应对这种快速变化的科技很困难。另外,人工智能所带来的负面危害,可能比过去(其他技术)更大。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:过去的一些变革性技术(大多)起源于政府项目,核技术就是其中很好的一个例子NG体育娱乐。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:但就人工智能而言,该技术实际上是从私营部门开始发展起来的,特别是在生成式人工智能革命的早期,与政府的互动并不多。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:例如民航领域,我们有国际民航组织。包括中国、美国在内,绝大多数国家都是该组织成员,它所做的一件事就是制定标准,或者说是帮助(成员国)制定航空标准。它的对象不是某个航空公司,而是不同的司法管辖区。要确保这些管辖区有适当的标准,来管理所管辖的航空公司。
特拉格认为,可借鉴国际民航组织的经验,创建国际人工智能组织。各国应尽快共同制定民用人工智能的最低监管标准,并利用全球峰会启动建立国际监管体系的进程。
英国牛津大学马丁人工智能治理计划联合主任 罗伯特·特拉格:例如,我们需要一套可以评估大语言模型的科学,我们需要明白如何评估大模型,以确保它们具有(好的)属性。但从很多方面看,它们都处于非常早期的阶段。我们需要这些科学,也需要治理框架,使这些标准变为现实。我认为这两点是让(AI治理),从准则变为实践的关键所在。
美国前国务卿基辛格曾指出,在人工智能这样的全球性挑战面前,中美合作显得尤为重要。
事实上,对于同美方开展人工智能合作,中方始终充满善意和诚意。然而美方对此却抱有疑虑,对中方可能取得技术进步更是充满焦虑。在这样的心态主导下,尽管也开展对话,但更多的是“筑墙设垒”,强推“脱钩断链”。
国际电信联盟电信标准化局主任 尾上诚藏:(AI全球治理的)标准化更多是从纯技术角度进行技术讨论,技术讨论应避免政治干扰。而对于AI技术的全球监管,我们(应该)有一个共同的标准,绝对不能创造出两种不同的标准,这是我的坚定信念。
当地时间7月1日,第78届联合国大会协商一致通过中国提出的关于加强人工智能能力建设国际合作的决议,这是联合国通过的首份聚焦人工智能能力建设国际合作的决议,同时也反映了发展中国家的强烈呼声。
国际电信联盟电信标准化局主任 尾上诚藏:中国绝对是人工智能技术先进的国家之一,理应加入关于人工智能全球治理的讨论,我希望这样的讨论包括中国的理念。
联合国教科文组织社会和人类科学执行主任 马里亚格拉兹·斯奎西亚里尼:实际上该(决议)是被鼓掌通过的NG体育娱乐,也就是说他们(联合国成员国)不仅同意该决议,而且非常支持。中国所说的是,尤其是涉及到全球南方时,就像它现在经常说的那样,我们可能想要更多合作,我们可能想要更多资源。否则的话,(南方国家)被(北方国家)落下的风险更大。当然,该方案真的主张不要落下任何一国。
主持人:麻省理工学院物理系教授迈克斯·泰格马克曾在《生命3.0》一书中指出:人工智能的崛起,将使地球进入“生命3.0”时代。
对于未来生命的终极形式,他进行了这样一番大胆想象:生命走过1.0生物阶段和2.0文化阶段后,接下来将进入能自我设计的3.0科技阶段。
如今,面对全球人工智能新热潮,泰格马克再次警告称:世界各地的顶尖思想家和科学家开始意识到超级人工智能可能带来的威胁,面对这一共同威胁,我们要么共同成功,要么会共同走向失败。
的确,人工智能发展与治理事关全人类共同福祉,中国愿同各方一道凝聚共识、共抓机遇、共克挑战,共同走向更加美好的智能未来。