您的位置:首页 >生活 >

控制变形软机器人的更好方法

导读 想象一个像粘液一样的机器人,它可以无缝地改变其形状以挤过狭窄的空间,它可以部署在人体内以移除不需要的物品。虽然这样的机器人在实验室...

想象一个像粘液一样的机器人,它可以无缝地改变其形状以挤过狭窄的空间,它可以部署在人体内以移除不需要的物品。

虽然这样的机器人在实验室之外尚不存在,但研究人员正在努力开发可重构的软机器人,以应用于医疗保健、可穿戴设备和工业系统。

但是,如何控制一个柔软的机器人,它没有可操纵的关节、四肢或手指,而是可以随意彻底改变其整个形状呢?麻省理工学院的研究人员正在努力回答这个问题。

该研究发表在arXiv预印本服务器上。

他们开发了一种控制算法,可以自主学习如何移动、拉伸和塑造可重构机器人来完成特定任务,即使该任务需要机器人多次改变其形态。该团队还构建了一个模拟器来测试可变形软机器人在一系列具有挑战性、形状变化的任务中的控制算法。

他们的方法完成了他们评估的八项任务中的每一项,同时优于其他算法。该技术对于多方面的任务尤其有效。例如,在一项测试中,机器人必须降低其高度,同时长出两条小腿,以挤过一根狭窄的管道,然后取消这些腿的生长并伸展其躯干以打开管道的盖子。

虽然可重构软机器人仍处于起步阶段,但这种技术有一天可以使通用机器人能够调整其形状来完成不同的任务。

“当人们想到软机器人时,他们往往会想到有弹性的机器人,但会恢复到原来的形状。我们的机器人就像粘液一样,实际上可以改变它的形态。令人惊讶的是,我们的方法如此有效,因为我们电气工程和计算机科学 (EE) 研究生、关于这种方法的论文的合著者 Boyuan Chen 说道。

陈的合著者包括主要作者黄苏宁,他是中国清华大学的本科生,在麻省理工学院做访问生时完成了这项工作;徐华哲,清华大学助理教授;资深作者文森特·西茨曼 (Vincent Sitzmann) 是麻省理工学院 EE 的助理教授,领导计算机科学和人工智能实验室的场景表示小组。该研究将在国际学习表征会议上公布。

控制动态运动

科学家经常使用一种称为强化学习的机器学习方法来教机器人完成任务,这是一种试错过程,机器人会因使其更接近目标的行动而获得奖励。

当机器人的移动部件一致且轮廓明确时(例如带有三个手指的抓手),这可能会很有效。对于机器人抓手,强化学习算法可能会稍微移动一根手指,通过反复试验来学习该动作是否会为其赢得奖励。然后它会移动到下一个手指,依此类推。

但由磁场控制的变形机器人可以动态地挤压、弯曲或拉长整个身体。

“这样的机器人可能有数千块小肌肉需要控制,因此很难以传统方式学习,”陈说。

为了解决这个问题,他和他的合作者必须以不同的方式思考。他们的强化学习算法不是单独移动每块微小的肌肉,而是首先学习控制一起工作的相邻肌肉组。

然后,在算法通过关注肌肉群来探索可能的行动空间后,它会深入了解更精细的细节,以优化它所学到的策略或行动计划。这样,控制算法遵循从粗到细的方法。

“从粗到细意味着当你采取随机动作时,该随机动作可能会产生影响。结果的变化可能非常显着,因为你同时粗略地控制了几块肌肉,”西茨曼说。

为了实现这一点,研究人员将机器人的动作空间,或者它如何在特定区域移动,就像图像一样。

他们的机器学习模型使用机器人环境的图像来生成 2D 动作空间,其中包括机器人及其周围区域。他们使用所谓的材料点方法来模拟机器人运动,其中动作空间由点(如图像像素)覆盖,并覆盖有网格。

就像图像中附近像素的相关性一样(就像照片中形成树的像素一样),他们构建了算法来了解附近的动作点具有更强的相关性。当机器人改变形状时,机器人“肩膀”周围的点将类似地移动,而机器人“腿”上的点也会类似地移动,但以与“肩膀”上的点不同的方式移动。

此外,研究人员使用相同的机器学习模型来观察环境并预测机器人应该采取的动作,这使得它更加高效。

构建模拟器

开发出这种方法后,研究人员需要一种方法来测试它,因此他们创建了一个名为 DittoGym 的模拟环境。

DittoGym 具有八项任务,用于评估可重构机器人动态改变形状的能力。其中之一是,机器人必须拉长并弯曲其身体,以便能够绕过障碍物到达目标点。另一方面,它必须改变其形状以模仿字母表中的字母。

“我们在 DittoGym 中的任务选择既遵循通用强化学习基准设计原则,又遵循可重构机器人的具体需求。每项任务都旨在代表我们认为重要的某些属性,例如进行长期探索的能力、分析环境,并与外部物体交互,”黄说。

“我们相信它们一起可以让用户全面了解可重构机器人的灵活性以及我们强化学习方案的有效性。”

他们的算法优于基线方法,并且是唯一适合完成需要多次形状变化的多阶段任务的技术。

“我们在彼此更接近的行动点之间有更强的相关性,我认为这是使这项工作如此顺利的关键,”陈说。

虽然变形机器人在现实世界中部署可能还需要很多年,但陈和他的合作者希望他们的工作不仅能够激励其他科学家研究可重构软机器人,而且能够思考利用 2D 动作空间解决其他复杂的控制问题。

想象一个像粘液一样的机器人,它可以无缝地改变其形状以挤过狭窄的空间,它可以部署在人体内以移除不需要的物品。

虽然这样的机器人在实验室之外尚不存在,但研究人员正在努力开发可重构的软机器人,以应用于医疗保健、可穿戴设备和工业系统。

但是,如何控制一个柔软的机器人,它没有可操纵的关节、四肢或手指,而是可以随意彻底改变其整个形状呢?麻省理工学院的研究人员正在努力回答这个问题。

该研究发表在arXiv预印本服务器上。

他们开发了一种控制算法,可以自主学习如何移动、拉伸和塑造可重构机器人来完成特定任务,即使该任务需要机器人多次改变其形态。该团队还构建了一个模拟器来测试可变形软机器人在一系列具有挑战性、形状变化的任务中的控制算法。

他们的方法完成了他们评估的八项任务中的每一项,同时优于其他算法。该技术对于多方面的任务尤其有效。例如,在一项测试中,机器人必须降低其高度,同时长出两条小腿,以挤过一根狭窄的管道,然后取消这些腿的生长并伸展其躯干以打开管道的盖子。

虽然可重构软机器人仍处于起步阶段,但这种技术有一天可以使通用机器人能够调整其形状来完成不同的任务。

“当人们想到软机器人时,他们往往会想到有弹性的机器人,但会恢复到原来的形状。我们的机器人就像粘液一样,实际上可以改变它的形态。令人惊讶的是,我们的方法如此有效,因为我们电气工程和计算机科学 (EE) 研究生、关于这种方法的论文的合著者 Boyuan Chen 说道。

陈的合著者包括主要作者黄苏宁,他是中国清华大学的本科生,在麻省理工学院做访问生时完成了这项工作;徐华哲,清华大学助理教授;资深作者文森特·西茨曼 (Vincent Sitzmann) 是麻省理工学院 EE 的助理教授,领导计算机科学和人工智能实验室的场景表示小组。该研究将在国际学习表征会议上公布。

控制动态运动

科学家经常使用一种称为强化学习的机器学习方法来教机器人完成任务,这是一种试错过程,机器人会因使其更接近目标的行动而获得奖励。

当机器人的移动部件一致且轮廓明确时(例如带有三个手指的抓手),这可能会很有效。对于机器人抓手,强化学习算法可能会稍微移动一根手指,通过反复试验来学习该动作是否会为其赢得奖励。然后它会移动到下一个手指,依此类推。

但由磁场控制的变形机器人可以动态地挤压、弯曲或拉长整个身体。

“这样的机器人可能有数千块小肌肉需要控制,因此很难以传统方式学习,”陈说。

为了解决这个问题,他和他的合作者必须以不同的方式思考。他们的强化学习算法不是单独移动每块微小的肌肉,而是首先学习控制一起工作的相邻肌肉组。

然后,在算法通过关注肌肉群来探索可能的行动空间后,它会深入了解更精细的细节,以优化它所学到的策略或行动计划。这样,控制算法遵循从粗到细的方法。

“从粗到细意味着当你采取随机动作时,该随机动作可能会产生影响。结果的变化可能非常显着,因为你同时粗略地控制了几块肌肉,”西茨曼说。

为了实现这一点,研究人员将机器人的动作空间,或者它如何在特定区域移动,就像图像一样。

他们的机器学习模型使用机器人环境的图像来生成 2D 动作空间,其中包括机器人及其周围区域。他们使用所谓的材料点方法来模拟机器人运动,其中动作空间由点(如图像像素)覆盖,并覆盖有网格。

就像图像中附近像素的相关性一样(就像照片中形成树的像素一样),他们构建了算法来了解附近的动作点具有更强的相关性。当机器人改变形状时,机器人“肩膀”周围的点将类似地移动,而机器人“腿”上的点也会类似地移动,但以与“肩膀”上的点不同的方式移动。

此外,研究人员使用相同的机器学习模型来观察环境并预测机器人应该采取的动作,这使得它更加高效。

构建模拟器

开发出这种方法后,研究人员需要一种方法来测试它,因此他们创建了一个名为 DittoGym 的模拟环境。

DittoGym 具有八项任务,用于评估可重构机器人动态改变形状的能力。其中之一是,机器人必须拉长并弯曲其身体,以便能够绕过障碍物到达目标点。另一方面,它必须改变其形状以模仿字母表中的字母。

“我们在 DittoGym 中的任务选择既遵循通用强化学习基准设计原则,又遵循可重构机器人的具体需求。每项任务都旨在代表我们认为重要的某些属性,例如进行长期探索的能力、分析环境,并与外部物体交互,”黄说。

“我们相信它们一起可以让用户全面了解可重构机器人的灵活性以及我们强化学习方案的有效性。”

他们的算法优于基线方法,并且是唯一适合完成需要多次形状变化的多阶段任务的技术。

“我们在彼此更接近的行动点之间有更强的相关性,我认为这是使这项工作如此顺利的关键,”陈说。

虽然变形机器人在现实世界中部署可能还需要很多年,但陈和他的合作者希望他们的工作不仅能够激励其他科学家研究可重构软机器人,而且能够思考利用 2D 动作空间解决其他复杂的控制问题。

想象一个像粘液一样的机器人,它可以无缝地改变其形状以挤过狭窄的空间,它可以部署在人体内以移除不需要的物品。

虽然这样的机器人在实验室之外尚不存在,但研究人员正在努力开发可重构的软机器人,以应用于医疗保健、可穿戴设备和工业系统。

但是,如何控制一个柔软的机器人,它没有可操纵的关节、四肢或手指,而是可以随意彻底改变其整个形状呢?麻省理工学院的研究人员正在努力回答这个问题。

该研究发表在arXiv预印本服务器上。

他们开发了一种控制算法,可以自主学习如何移动、拉伸和塑造可重构机器人来完成特定任务,即使该任务需要机器人多次改变其形态。该团队还构建了一个模拟器来测试可变形软机器人在一系列具有挑战性、形状变化的任务中的控制算法。

他们的方法完成了他们评估的八项任务中的每一项,同时优于其他算法。该技术对于多方面的任务尤其有效。例如,在一项测试中,机器人必须降低其高度,同时长出两条小腿,以挤过一根狭窄的管道,然后取消这些腿的生长并伸展其躯干以打开管道的盖子。

虽然可重构软机器人仍处于起步阶段,但这种技术有一天可以使通用机器人能够调整其形状来完成不同的任务。

“当人们想到软机器人时,他们往往会想到有弹性的机器人,但会恢复到原来的形状。我们的机器人就像粘液一样,实际上可以改变它的形态。令人惊讶的是,我们的方法如此有效,因为我们电气工程和计算机科学 (EE) 研究生、关于这种方法的论文的合著者 Boyuan Chen 说道。

陈的合著者包括主要作者黄苏宁,他是中国清华大学的本科生,在麻省理工学院做访问生时完成了这项工作;徐华哲,清华大学助理教授;资深作者文森特·西茨曼 (Vincent Sitzmann) 是麻省理工学院 EE 的助理教授,领导计算机科学和人工智能实验室的场景表示小组。该研究将在国际学习表征会议上公布。

控制动态运动

科学家经常使用一种称为强化学习的机器学习方法来教机器人完成任务,这是一种试错过程,机器人会因使其更接近目标的行动而获得奖励。

当机器人的移动部件一致且轮廓明确时(例如带有三个手指的抓手),这可能会很有效。对于机器人抓手,强化学习算法可能会稍微移动一根手指,通过反复试验来学习该动作是否会为其赢得奖励。然后它会移动到下一个手指,依此类推。

但由磁场控制的变形机器人可以动态地挤压、弯曲或拉长整个身体。

“这样的机器人可能有数千块小肌肉需要控制,因此很难以传统方式学习,”陈说。

为了解决这个问题,他和他的合作者必须以不同的方式思考。他们的强化学习算法不是单独移动每块微小的肌肉,而是首先学习控制一起工作的相邻肌肉组。

然后,在算法通过关注肌肉群来探索可能的行动空间后,它会深入了解更精细的细节,以优化它所学到的策略或行动计划。这样,控制算法遵循从粗到细的方法。

“从粗到细意味着当你采取随机动作时,该随机动作可能会产生影响。结果的变化可能非常显着,因为你同时粗略地控制了几块肌肉,”西茨曼说。

为了实现这一点,研究人员将机器人的动作空间,或者它如何在特定区域移动,就像图像一样。

他们的机器学习模型使用机器人环境的图像来生成 2D 动作空间,其中包括机器人及其周围区域。他们使用所谓的材料点方法来模拟机器人运动,其中动作空间由点(如图像像素)覆盖,并覆盖有网格。

就像图像中附近像素的相关性一样(就像照片中形成树的像素一样),他们构建了算法来了解附近的动作点具有更强的相关性。当机器人改变形状时,机器人“肩膀”周围的点将类似地移动,而机器人“腿”上的点也会类似地移动,但以与“肩膀”上的点不同的方式移动。

此外,研究人员使用相同的机器学习模型来观察环境并预测机器人应该采取的动作,这使得它更加高效。

构建模拟器

开发出这种方法后,研究人员需要一种方法来测试它,因此他们创建了一个名为 DittoGym 的模拟环境。

DittoGym 具有八项任务,用于评估可重构机器人动态改变形状的能力。其中之一是,机器人必须拉长并弯曲其身体,以便能够绕过障碍物到达目标点。另一方面,它必须改变其形状以模仿字母表中的字母。

“我们在 DittoGym 中的任务选择既遵循通用强化学习基准设计原则,又遵循可重构机器人的具体需求。每项任务都旨在代表我们认为重要的某些属性,例如进行长期探索的能力、分析环境,并与外部物体交互,”黄说。

“我们相信它们一起可以让用户全面了解可重构机器人的灵活性以及我们强化学习方案的有效性。”

他们的算法优于基线方法,并且是唯一适合完成需要多次形状变化的多阶段任务的技术。

“我们在彼此更接近的行动点之间有更强的相关性,我认为这是使这项工作如此顺利的关键,”陈说。

虽然变形机器人在现实世界中部署可能还需要很多年,但陈和他的合作者希望他们的工作不仅能够激励其他科学家研究可重构软机器人,而且能够思考利用 2D 动作空间解决其他复杂的控制问题。

想象一个像粘液一样的机器人,它可以无缝地改变其形状以挤过狭窄的空间,它可以部署在人体内以移除不需要的物品。

虽然这样的机器人在实验室之外尚不存在,但研究人员正在努力开发可重构的软机器人,以应用于医疗保健、可穿戴设备和工业系统。

但是,如何控制一个柔软的机器人,它没有可操纵的关节、四肢或手指,而是可以随意彻底改变其整个形状呢?麻省理工学院的研究人员正在努力回答这个问题。

该研究发表在arXiv预印本服务器上。

他们开发了一种控制算法,可以自主学习如何移动、拉伸和塑造可重构机器人来完成特定任务,即使该任务需要机器人多次改变其形态。该团队还构建了一个模拟器来测试可变形软机器人在一系列具有挑战性、形状变化的任务中的控制算法。

他们的方法完成了他们评估的八项任务中的每一项,同时优于其他算法。该技术对于多方面的任务尤其有效。例如,在一项测试中,机器人必须降低其高度,同时长出两条小腿,以挤过一根狭窄的管道,然后取消这些腿的生长并伸展其躯干以打开管道的盖子。

虽然可重构软机器人仍处于起步阶段,但这种技术有一天可以使通用机器人能够调整其形状来完成不同的任务。

“当人们想到软机器人时,他们往往会想到有弹性的机器人,但会恢复到原来的形状。我们的机器人就像粘液一样,实际上可以改变它的形态。令人惊讶的是,我们的方法如此有效,因为我们电气工程和计算机科学 (EE) 研究生、关于这种方法的论文的合著者 Boyuan Chen 说道。

陈的合著者包括主要作者黄苏宁,他是中国清华大学的本科生,在麻省理工学院做访问生时完成了这项工作;徐华哲,清华大学助理教授;资深作者文森特·西茨曼 (Vincent Sitzmann) 是麻省理工学院 EE 的助理教授,领导计算机科学和人工智能实验室的场景表示小组。该研究将在国际学习表征会议上公布。

控制动态运动

科学家经常使用一种称为强化学习的机器学习方法来教机器人完成任务,这是一种试错过程,机器人会因使其更接近目标的行动而获得奖励。

当机器人的移动部件一致且轮廓明确时(例如带有三个手指的抓手),这可能会很有效。对于机器人抓手,强化学习算法可能会稍微移动一根手指,通过反复试验来学习该动作是否会为其赢得奖励。然后它会移动到下一个手指,依此类推。

但由磁场控制的变形机器人可以动态地挤压、弯曲或拉长整个身体。

“这样的机器人可能有数千块小肌肉需要控制,因此很难以传统方式学习,”陈说。

为了解决这个问题,他和他的合作者必须以不同的方式思考。他们的强化学习算法不是单独移动每块微小的肌肉,而是首先学习控制一起工作的相邻肌肉组。

然后,在算法通过关注肌肉群来探索可能的行动空间后,它会深入了解更精细的细节,以优化它所学到的策略或行动计划。这样,控制算法遵循从粗到细的方法。

“从粗到细意味着当你采取随机动作时,该随机动作可能会产生影响。结果的变化可能非常显着,因为你同时粗略地控制了几块肌肉,”西茨曼说。

为了实现这一点,研究人员将机器人的动作空间,或者它如何在特定区域移动,就像图像一样。

他们的机器学习模型使用机器人环境的图像来生成 2D 动作空间,其中包括机器人及其周围区域。他们使用所谓的材料点方法来模拟机器人运动,其中动作空间由点(如图像像素)覆盖,并覆盖有网格。

就像图像中附近像素的相关性一样(就像照片中形成树的像素一样),他们构建了算法来了解附近的动作点具有更强的相关性。当机器人改变形状时,机器人“肩膀”周围的点将类似地移动,而机器人“腿”上的点也会类似地移动,但以与“肩膀”上的点不同的方式移动。

此外,研究人员使用相同的机器学习模型来观察环境并预测机器人应该采取的动作,这使得它更加高效。

构建模拟器

开发出这种方法后,研究人员需要一种方法来测试它,因此他们创建了一个名为 DittoGym 的模拟环境。

DittoGym 具有八项任务,用于评估可重构机器人动态改变形状的能力。其中之一是,机器人必须拉长并弯曲其身体,以便能够绕过障碍物到达目标点。另一方面,它必须改变其形状以模仿字母表中的字母。

“我们在 DittoGym 中的任务选择既遵循通用强化学习基准设计原则,又遵循可重构机器人的具体需求。每项任务都旨在代表我们认为重要的某些属性,例如进行长期探索的能力、分析环境,并与外部物体交互,”黄说。

“我们相信它们一起可以让用户全面了解可重构机器人的灵活性以及我们强化学习方案的有效性。”

他们的算法优于基线方法,并且是唯一适合完成需要多次形状变化的多阶段任务的技术。

“我们在彼此更接近的行动点之间有更强的相关性,我认为这是使这项工作如此顺利的关键,”陈说。

虽然变形机器人在现实世界中部署可能还需要很多年,但陈和他的合作者希望他们的工作不仅能够激励其他科学家研究可重构软机器人,而且能够思考利用 2D 动作空间解决其他复杂的控制问题。

免责声明:本文由用户上传,如有侵权请联系删除!