麻省理工学院计算机科学及人工智能实验室(CSAIL)的研究人员回应,在旋即的将来,机器人将需要通过触觉来感官物体。一篇近期的涉及论文将于下周在加利福尼亚长滩市的计算机视觉与模式识别会议上公开发表,这篇论文叙述了一种人工智能系统,它可以通过触觉信号分解触碰物的视觉形象,还能根据视觉数据来预测物体的触感。“通过观察物体的表面,我们的模型可以预测某个平面或棱角的触感。
通过触碰物体,我们的人工智能模型可以根据触感来建构感官到的环境。将这两种感官数据结合,机器人的性能就不会获得优化,它在运送或捕捉某个物体时所须要的数据就较少,”CSAIL博士生YunzhuLi说,他与他的导师RussTedrake、AntonioTorralba以及另一位博士后Jun-YanZhu一起编写了本篇论文。这支团队的系统使用了生成式对付神经网络(GAN),这种神经网络包括了分解模型和判断模型,前者负责管理分解样本,后者负责管理分辨分解样本和现实样本的有所不同。
该系统能将触觉数据产生的图像拼凑一起。训练时它使用了VisGel的数据,该数据库享有300万组视觉和触觉的设施数据,其中包括1.2万个视频片段,对象多达200种(还包括工具、织物和家具产品等)。它不会预测出形状和接触点的材料,然后与参照图片展开对比。
例如你得出一只鞋子上某个点的触觉数据,这个模型就能确认出有这个接触点究竟在什么地方。这些参照图片能为目标物体或环境的细节展开编码,让机器学习模型大大自我完善。
这些研究人员认为,目前的数据集还十分受限,对于现有的系统而言,物体的颜色、柔软度等细节还很难预测。但很似乎他们的研究会为更好的人机一体化打下基础,特别是在是针对光线明亮甚至黑暗密封空间中的任务。
本文关键词:博鱼·boyu体育,博鱼boyu官网,博鱼体育最新官网入口,博鱼boyu官方平台,博鱼boyu体育sports
本文来源:博鱼·boyu体育-www.tcf43.com