对于人类而言,通过观察物体或通过触摸物体来判断物体的外观,很容易分辨物体的感觉,但这对机器来说可能是 个巨大的挑战。现在,麻省理工学院计算机科学与人工智能实验室(CSAIL)开发的 种新型机器人正试图做到这 点。
该团队采用了KUKA机器人手臂并添加了 个名为GelSight的触觉传感器,该传感器由CSAIL的Ted Adelson小组创建。然后,GelSight收集的信息被输入AI,以便了解视觉和触觉信息之间的关系。
为了教AI如何通过触摸识别物体,该团队记录了12,000个视频,包括200个物体,如织物,工具和被触摸的 用物品。视频被分解为静止图像,AI使用此数据集连接触觉和视觉数据。
“通过观察现场,我们的模型可以想象触摸平坦表面或锋利边缘的感觉”,CSAIL博士学生和主要作者Yunzhu Li在 篇关于该系统的新论文中说。“通过盲目地触摸,我们的模型可以纯粹通过触觉来预测与环境的相互作用。将这两种感官结合在 起可以增强机器人的能力并减少我们在涉及操纵和抓取物体的任务时可能需要的数据。”
目前,机器人只能识别受控环境中的物体。下 步是构建更大的数据集,以便机器人可以在更多样化的环境中工作。
“像这样的方法有可能对机器人技术非常有用,你需要回答诸如'这个物体是硬还是软?'之类的问题,或者'如果我用手柄举起这个杯子,我的握力有多好?' “加州大学伯克利分校的博士后研究员安德鲁欧文斯说。“这是 个非常具有挑战性的问题,因为信号是如此不同,这个模型已经证明了它的巨大能力。”