网站首页

b体育产品中心

智能终端处理器 智能云服务器 软件开发环境

b体育新闻中心

关于b体育

公司概况 核心优势 核心团队 发展历程

联系我们b体育

官方微信 官方微博
b体育·(中国)官方入口在线登录网站 > b体育产品中心 > 智能终端处理器

人工智能在现实生活中有哪些有趣的应B体育用?

发布时间:2023-10-16 19:21浏览次数: 来源于:网络

  B体育2001年,斯皮尔伯格在他的电影《人工智能》里,给大家展示了他眼中未来机器人的模样:有着和人一样的外表、神态、情感,能够成为人类的伴侣。

  经过近20年的发展,扫地机器人已经成为家用机器人行业最为成熟的产品。我们第一次尝试在扫地机器人身上应用AIVI™技术(Artificial Intelligence and Visual Interpretation 人工智能与视觉识别),推出了首款AIVI™人工智能扫地机器人DG70。

  聪明的知友们一定发现,DG70比我们常见的LDS激光导航扫地机器人多了只眼睛。

  来自清华大学、南京大学、武汉大学、英国University of Sussex、法国Ecole des Mines等国内外高等院校有着多年研发经验的50多位工程师组成的研发团队,花费了16个月时间,才“初步”完成了这个项目。说它“初步”,是因为AIVI现在只是完成了一个小目标,工程师们对它未来的发展有更大的野心。

  绕住电线——耳机线、数据线、头绳不小心掉到地上,就只能去尘盒翻尸体了……

  由于LDS以及其他传感器识别盲区的制约,扫地机器人无法真正认知家居环境,无法高效准确地识别到不同障碍物的时候,会面临两个局面:要么漏扫,要么被困。

  他们决定在扫地机器人上加入AIVI,给扫地机器人赋予会不断学习“大脑”,让它认知你的家,能分辨拖鞋、电线、袜子这类物体并智能避让,尽最大努力减少漏扫和卡困,真正把人们从扫地家务中解脱出来。

  自从法雷尔·恰佩克第一次提出“机器人”这个词,到现在全球还没有对机器人有一个公认的概念。科沃斯董事长钱东奇的认知是:机器人至少要具备四个特性――――感知、思考、行动和反馈,而“感知”是后面一切的基础。

  当人在观察周围环境时,眼睛先看到目标物,接着大脑处理视觉信息,分析这是什么物体,并通过左右眼视差估算出目标物与自己的距离。

  通过AI摄像头DG70可以识别并标记镜头区域内的障碍物,不断测算自己与障碍物的距离。同时,与LDS激光雷达测距传感器和陀螺仪等传感器组成的SmartNavi系统,超声波传感器SmartEcho地面识别系统和蓝鲸扫拖系统,多传感器协同工作,融合处理信息后,DG70获取到了可视化的家居地图。

  前面说道,为了让扫地机器人认识家里的拖鞋、电线多位研发工程师愁到“脱发”,这并不是一句玩笑话。

  有人可能会质疑,图像识别算法已经相对成熟,且有很多公开数据集,让扫地机器人学会图像识别,能有多难?

  首先是图片库的问题,为什么科沃斯要费时费力自己采集家庭环境图,而不接入现成的公开数据集呢?

  一般人的视角跟扫地机器人的视角完全不同。毕竟,扫地机器人是个“拇指姑娘”。DG70整机只有10.3cm高,考虑到摄像头所在的位置,视角就更低。

  这就造成了现有的公开数据集对于扫地机器人AI学习的可利用率极低,因此需要从0到1采集扫地机器人视角的家庭环境数据。

  并从这些图中标记、提取了几千只形态各异的袜子(气味大概也是各异的)、拖鞋、和粗细、大小、弯折形状不同的数据线、耳机线、电线、充电线的特征。

  扫地机器人在家庭室内环境中运行,不同于大家的认知,家庭环境的复杂性远大于一般的室外环境。

  室外环境中,汽车、行人、道路、道路上的标线、路边的绿植,都有明显的特征,这些特征较为容易提取。

  而家则不同,很多人的家可能一天一个样,每家的装修、家具、光线情况也都不一样,光地面都有千百种不同的材质。

  DG70在工作过程中,需要面临恶劣的光线条件、复杂的环境背景、千奇百怪的地板,摄像头视角的抖动、旋转、模糊……这种种困难,都是对神经网络模型的严酷挑战。

  袜子、电线、拖鞋,容易缠绕住扫地机器人的大多是这些柔性物体,熟悉图像识别技术的朋友们想必都知道,形态各异的柔性物体,它们的模态、特征极为复杂,算法学习起来难度很大。

  大部分的图像识别神经网络模型对小目标的识别率都很差,而困住扫地机器人的很多是袜子、耳机、电线这些小物件。

  想要提高对小目标的识别率势必要提高识别精度,要提高精度势必要增大神经网络模型,增大模型则带来芯片计算量的增加。

  要让有着AIVI技术的扫地机器人实现量产,走进更多家庭,硬件方面只能选择算力极其受限的芯片,而目前市面上的图像识别神经网络模型实在太大,无法直接应用到扫地机器人上。

  为了让AIVI™技术实现从实验室走向家用,DG70选用了高算力低功耗的芯片,运行时散热少,能满足扫地机器人长时间工作的要求。工程师们设计了超轻量级神经网络模型,保证识别精度的同时,也满足了延时使用要求(即模型进行一次识别的反应速度要快,同时延迟要小,以满足使用要求)。

  有了经过训练且不断精进的“神经网络”的加持,再融合多个传感器数据、SLAM算法,扫地机器人不但能看清家,更能看懂家。

  既然是一款人工智能产品,就要能不断学习,越变越智能。DG70的产品经理和研发工程师们,在不断努力让它成为一台会成长的机器。从满足单一的清扫功能,到满足交互性需求,越来越懂你的心意。

  没准在不久的将来,“给在书房的爸爸端杯茶”这种小事儿,DG70就可以代劳。

  AIVI识别利用的是机器经过训练后学的的算法,记录了各类物体的“关键特征”,从而实现准确识别。DG70芯片内部不存储图像数据,仅存储训练过的“神经网络”模型,并在扫地机器人本地完成计算,保证了用户的隐私安全。

  基于AIVI技术特性,不会对用户信息安全造成不良影响。使用AIVI技术的扫地机器人可在设备本地对捕捉的画面中的物体进行识别,而无需借助云端处理技术,即使在离线情况下也能正常工作。设备捕捉到的家庭环境画面仅在设备本地用于识别物体,不会上传服务器,更不会对外公开,能够有效确保用户隐私安全。

  工程师露出了尴尬而不失礼貌的微笑:“平常很乖突然在家里随地便便可能是狗狗生病了,这个时候的粑粑可能不是正常健康的粑粑,而是,emmmm……你懂的。

  这方面的数据采集有一定的难度,我们的样本量还不够,可能需要数据采集师多加努力。”

  提到人工智能,很多人都有种莫名的距离感,其实,AI 普及范围比我们所知道的要广泛得多,只是没有察觉它的存在罢了。比如人工智能小程序「猜画小歌」能够通过简单的几笔画就识别出玩家画的是什么物品,十分有趣。

  而说到人工智能在现实生活中有趣的应用,就不得不提到 2018 年 9 月 Google 在上海龙美术馆举办了一场规模空前的 AI 体验展,2000 平米展区,17 大互动项目,把 AI 和音乐、绘画,甚至皮影戏结合了起来。

  在体验区中,只需通过简单有趣的互动,利用涂鸦、语言、音乐、跳舞等方式,无论大人或小孩,都可以轻松探索看似神秘的 AI。

  其实,AI 就是一个人人都能体验的工具,希望这场展览能带给观众「AI 触手可及」的感受。

  前段时间,Google 开发了一款人工智能猜画小程序「猜画小歌」,用户绘制出一个日常物件,然后 AI 会在限定时间识别用户的涂鸦。

  同样是随手涂鸦,这次的「Draw to Art」又带来了另外一种有趣的展现形式 —— 观众在左侧屏幕上任意画一个图像,AI 会在右侧匹配出相似图像的艺术作品。

  它是怎么做到的呢?我们先回想一下,小时候学画画,有一门基本功 —— 素描(没有学过绘画的朋友,也应该听说过达芬奇画鸡蛋的故事)。我们通过素描来训练自己对线条、形状和透视的感知。

  同样的道理,Google 的工程师们训练了一个深度神经网络,它能识别涂鸦中的视觉特征(也就是刚才说的线条、形状和透视等)。工程师们还训练它来识别绘画或者雕塑中的相同特征。这样,具有相似特征的涂鸦和艺术作品,就能够联系起来,最后程序再把最佳匹配呈现给用户。

  不过,Draw to Art 被设计为每个人都能轻易使用的形式,这样你离艺术大师之间就只差一个 AI 了(误)。

  中国有不少琴童,也有不少学琴的成年人。学琴和练琴的艰辛众所周知,可如果学习音乐让你失去了乐趣,那学习的意义又在哪里呢?

  而AI Duet 的魅力正是在于 —— 你只需要随意弹奏一些音符,它便能根据输入的音符来生成一段保留了原始输入风格的旋律。即使你对弹奏乐器一窍不通B体育,AI 也能根据你弹出的音符来完成一段二重奏。

  我们都知道,艺术创作十分需要灵感,所谓「文章本天成,妙手偶得之」。AI 的行为模式有别于人类,AI Duet 经过大量数据集的训练,能对人们输入的旋律作出「应答」,希望它能帮助音乐家找到灵感,也帮助大家找到欣赏音乐的乐趣。

  皮影戏是濒于失传的中国传统文化艺术。AI 皮影戏这款互动项目旨在弘扬传统民间艺术。

  在一间黑暗房间中,你用手势在墙上打出一些动物的手势,就像小时候我们玩过的手影游戏一样。接下来,AI 会自动识别玩家的手势,并配合动画,你的手影就会化作动物,墙壁上也会据此投射出一张美丽的皮影剪纸。不一会儿,剪纸头像就会「跳」入画布中,在荧幕上化作一段精彩的皮影戏。

  这次体验展上的 AI 皮影戏,是它在上海的全球首秀。我们一直认为,科技不仅能够提升我们的生活品质,它也能让古老的艺术焕发新的生机。

  AI 与传统艺术的结合就是一个很好的实现方式,不仅帮助了传统文化的传承,也给人们更便捷和轻松的渠道去感受传统艺术的魅力。

  现在,AI 在生活中的应用越来越广泛,它不仅是下围棋超厉害的 AlphaGo,是辅助医生进行癌症检测的 AI,它还是能随时随地帮助讲不同语言的人们进行交流的 Google 谷歌翻译。

  不是每一个人都需要知道发动机原理,但我们都能享受到汽车。我们也可以不知道冰箱的制冷原理,但我们依然使用着冰箱。所以说,AI 当然是集结了优秀工程师脑力的人工智能,但同时它也是平易近人的,像一个聪明的小管家一样为我们服务。AI 本就是一个人人都能体验并且受益其中的工具。

  这次体验展上,还有 Giorgio Cam、Art Palette 等等其他好玩有趣的 AI 项目。Giorgio Cam 会通过摄像头捕捉并识别出物品名称等信息,然后即兴创作一段 Rap;而 Art Palette 则是一个 AI 调色板,它会识别图像中的配色,邂逅与你同色系的世界名画。

  即使没有去成现场,也无需感到遗憾,AI 就在每天的生活里,甚至…它就在你的手边!

  现在下载 Google 谷歌翻译或者在微信小程序玩转「猜画小歌」,就能随时随地体验有趣的 AI!

  关于人工智能的应用,集智过去也分享过不少,今天连同一些新发现的趣应用一同汇总在这儿:

  这是一款用机器学习框架 TensorFlow 开发的 App,当宝宝放声大哭的时候,就把手机拿到宝宝身边,打开 App,录下宝宝的哭声,然后 Maggie 就会用 AI 算法理解宝宝的哭声,在屏幕上显示这哭声到底是啥意思,比如“我困啦”“我要喝奶”。哦对了,这个 App 只适用于 12 个月以下的宝宝。

  AI 不仅能“翻译”婴儿的哭声,还能为我们“翻译”鸡叫声。美国佐治亚理工大学就搞了个 AI,帮养鸡户弄明白鸡棚里的鸡叫声是什么意思:

  DeOldify:基于深度学习技术B体育,专门用于修复&上色拍摄于一百余年前的黑白老照片,甚至也能处理几个世纪前的油画和线条画。

  借助这些基于 AI 的图像自动上色应用,即使没有任何绘画功底、没有使用专业图像边界软件的人,也能熟练地为动漫线.AI版 DJ

  这个叫 DeepDJ 的应用是一个基于人工智能技术的音乐合成器,能够实时合成特定的钢琴曲,AI 不仅能学习不同的音乐风格,还能学习曲子的动态变化。

  说起创作曲子的 AI,就不得不提大名鼎鼎的 Avia,这个会作曲的 AI 甚至已经出了专辑,详情可以看看我们以前的分享:

  不知道大家还记不记得去年一件大火的事情:BBC连线釜山国立大学罗伯特·凯利教授讨论时下新闻,直播中途却遭熊孩子乱入。随后这位教授和闯入镜头的两个萌娃成为网络热点。

  而在实际工作中,我们使用视频通话时有时也真的会出现不少意外情况。微软今年10月份宣布在旗下办公应用Microsoft Teams中添加了一项新功能,用AI将用户在视频通话期间的背景自动进行模糊处理,防止背景出现尴尬情况。

  利用深度学习中的 GAN 网络自动生成现实世界中并不存在的人脸,而且非常逼真。

  机器学习中有一种叫做“风格迁移”的技术,就是能把一幅图像的艺术风格转移到另一幅图像上。然而单纯使用“风格迁移”技术,图像内容并没有变动,只是改变了画风。

  利用人脸识别技术打造一个抖音机器人,可以完成颜值检测、人脸检测与识别,自动翻页和自动关注。

  如果你看过科幻剧《黑镜》的线 月上映的圣诞节特别篇《黑镜:白色圣诞》一定给你留下了很深的印象。在这一集中,《黑镜》为我们展示了一项能够屏蔽人的惊人技术:在不远的将来,人们都装上了一种智能眼,如果你不想和某个人再发生任何交集,你可以直接将 TA 从你的视野中屏蔽掉,从此你不会再看到 TA 的样子,TA 在你的眼前就是一团灰白色的人影轮廓。你虽然听得到他的声音,但是并不知道他具体说了什么。

  这种看起来很科幻的技术,现在已经出现了初级版。在 GitHub 上就出现了一个叫 Person Blocker 的项目,字面意思就是“人物屏蔽器”。它可以用预训练的神经网络 Mask R-CNN 自动“屏蔽”画面中的人物,像极了《黑镜:白色圣诞》里的技术。借助这段脚本,你不光能屏蔽人,能屏蔽多达 80 种不同的对象,比如长颈鹿、公共汽车等等。

  猫咪自己是不会开关门的,所以有人就利用人脸识别原理,搞了个“猫脸识别”装置。微软甚至为此还出了软硬件产品和教程。详情见我们的介绍:

  这是一个日本小哥做的应用,因为太爱吃拉面,借助谷歌 AutoML Vision 技术后研发出一款 AI,能识别出上述拉面是来自哪家拉面馆,准确率达到了骇人的 94.5%。

  这个技术是东京大学 Kamitani 实验室去年发布的成果,这个 AI 通过研究大脑中的信号,能准确地计算出一个人正在看的甚至正在想的场景的图像。

  使用 AI 做一个聊天机器人,向给你发送钓鱼邮件的人自动回复消息,直到把这些人搞到崩溃!

  拍照领域有个终极难题,至今无法很好解决——拍照时恰好闭眼。Facebook AI 实验室今年发布了一项新研究,用人工智能可以将照片中闭着的眼睛替换为睁开的眼睛,而且结果非常逼真。

  说到这个很多人应该都有印象,就是直接给消费者配送物流的机器人,在2018年的618活动网购中,有幸体验了一番。

  人在帝都三环,当时在平台上买了一些护肤品(具体什么牌子就不说了,谨防说我打广告)我是像往常一样,等着快递小哥给我送货,可这当日达到点了,快递小哥没来,却给发了一串取货码,说几分钟后到楼下取快递。以前都是快递小哥直接送上门,这次怎么不一样了?

  抱着好奇心的态度走下楼,就看到一个配送机器人走了过来,到楼下停下了。当时心里的确是这样想的:?这种操作有意思...

  之后B体育,我就直接在配送机器人上输入取货密码,配送机器人就将窗口打开,直接取件了,当时也是引来了不少人的驻足。

  包括它当时走的时候,楼下路边有个洒水车,配送机器人远远走来,司机看到这样的配送车,就往窗外望,还把洒水的功能关了,也是挺可爱的:

  当然,看完这些主要人工智能在哪呢?并不是说这样的配送方式,正如视频里所看到的那样,配送机器人有自己智能的点,例如:自动规避路障、自动等红绿灯...这些就是机器人设置很智能化的地方。

  其实,对于我们消费者来说,最注重的就是购物体验,而对于平台来说,急需解决的就是最后一公里的配送问题,配送机器人的出现,也是在智慧化的解决“最后一公里”的配送问题,很多人还在调侃:以后快递员是不是都要失业了?

  失业肯定不会,人工快递员还是有他们自己的好处和优势的。不过,这个配送机器人的出现的确是省了不少事,我就有跟快递小哥聊过,以往的快递小哥配送的时候,需要频繁往返于配送站与服务片区来完成订单补货,现在通过配送机器人的帮助,配送员只需要负责所辖配送地区内的最终订单配送B体育,由配送机器人不断从配送站把货物运输到配送员面前,这样中间就省了很多的时间了...

  这种人工智能化的操作,配送方式新奇,也能给消费者带来不一样的购物体验,最主要的是平台也能吸引不少消费者...据说现在在北京、上海、天津、广州B体育、贵阳、武汉、西安等数十个城市就配送机器人项目的应用开展布局了。

  网站中的这些图,都是用英伟达的StyleGAN做成的。自从它诞生以来,各路“神仙”玩得不亦乐乎,并把它生成的各种图片做成了网站。

  一位名叫“Paul Bricman”的热心小哥,把这些网站收集在一起,放到了GitHub上。

  她说,一天下午没事的时候,一遍一遍刷着这个网站,突然发现,屏幕里的脸和自己一模一样,连脸上的痣都一样。

  在评论中,还有人说自己刷到了自己的表弟,然后有人说他表弟去世五年了,然后表弟在评论区出现了……

  StyleGAN,是英伟达2018年底发布的最新研究成果,前不久正式命名。

  8One more thing如果你想体验下,上面的这些小网站,用手机也能打开。

下一篇:B体育10月12日第四届深圳国际人工智能展盛大开幕
上一篇:B体育世纪天鸿:公司正在制定人工智能+教育的战略规划并将按照规划推进各项业务的实施

咨询我们

输入您的疑问及需求发送邮箱给我们