JP4671628B2 - Robot apparatus control system and control method - Google Patents

Robot apparatus control system and control method Download PDF

Info

Publication number
JP4671628B2
JP4671628B2 JP2004178894A JP2004178894A JP4671628B2 JP 4671628 B2 JP4671628 B2 JP 4671628B2 JP 2004178894 A JP2004178894 A JP 2004178894A JP 2004178894 A JP2004178894 A JP 2004178894A JP 4671628 B2 JP4671628 B2 JP 4671628B2
Authority
JP
Japan
Prior art keywords
robot
robot apparatus
motion
scenario
plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004178894A
Other languages
Japanese (ja)
Other versions
JP2006000954A (en
Inventor
敦史 宮本
達郎 三上
仁一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004178894A priority Critical patent/JP4671628B2/en
Publication of JP2006000954A publication Critical patent/JP2006000954A/en
Application granted granted Critical
Publication of JP4671628B2 publication Critical patent/JP4671628B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、複数の可動部を備えたロボット装置の動作若しくは行動を制御するロボット装置の制御システム及び制御方法に係り、特に、複数台のロボット装置の動作若しくは行動を同時に並行して制御するロボット装置の制御システム及び制御方法に関する。   The present invention relates to a control system and control method for a robot apparatus that controls the operation or action of a robot apparatus having a plurality of movable parts, and more particularly, a robot that simultaneously controls the operation or action of a plurality of robot apparatuses in parallel. The present invention relates to an apparatus control system and a control method.

さらに詳しくは、本発明は、複数のロボット装置を用いたデモンストレーションやその他の連携的若しくは同期協調的な行動を統括的に制御するロボット装置の制御システム及び制御方法に係り、特に、複数のロボットが特定の空間内で連携的な行動を行なう際のロボット装置間の干渉や転倒、故障に対してロバストな制御を行なうロボット装置の制御システム及び制御方法に関する。   More specifically, the present invention relates to a control system and a control method for a robot apparatus that collectively control a demonstration using a plurality of robot apparatuses and other cooperative or synchronous cooperative actions. The present invention relates to a control system and a control method for a robot apparatus that perform robust control against interference, falling, and failure between robot apparatuses when performing cooperative actions in a specific space.

電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の“ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。   A mechanical device that uses an electrical or magnetic action to perform a movement resembling human movement is called a “robot”. It is said that the word “robot” comes from the Slavic word “ROBOTA (slave machine)”. In Japan, robots started to spread from the end of the 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production operations in factories. Met.

近年では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模したペット型ロボット、あるいは、ヒトやサルなどの2足直立歩行を行う動物の身体メカニズムや動作を模した「人間形」若しくは「人間型」のロボット(humanoid robot)など、脚式移動ロボットの構造やその安定歩行制御に関する研究開発が進展し、実用化への期待も高まってきている。これら脚式移動ロボットは、クローラ式ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。   In recent years, we have modeled the body mechanism and movement of a four-legged animal, such as a dog or cat, that mimics the body mechanism and movement of a four-legged animal, or the biped upright walking movement of a human or monkey. Research and development related to the structure of legged mobile robots such as “humanoid” or “humanoid robots” and stable walking control thereof have progressed, and expectations for practical use are also increasing. These legged mobile robots are unstable compared to crawler robots, making posture control and walking control difficult, but they are superior in that they can realize flexible walking and running operations such as climbing stairs and climbing obstacles. Yes.

また、ヒトの生体メカニズムや動作を再現した脚式移動ロボットのことを、特に、「人間形」、若しくは「人間型」のロボット(humanoid robot)と呼ぶ。人間型ロボットは、例えば、生活支援、すなわち住環境その他の日常生活上のさまざまな場面における人的活動の支援などを行なうことができる。   A legged mobile robot that reproduces a human biological mechanism and operation is particularly called a “humanoid” or “humanoid robot”. The humanoid robot can provide, for example, life support, that is, support for human activities in various situations in daily life such as a living environment.

脚式移動ロボットは高い情報処理能力を備えており、ロボットそのものを一種の計算機システムとして捉えることができる。言い換えれば、ロボット上で実現される動作パターン、あるいは、複数の基本的な動作パターンの組合せによって構成される高度且つ複雑な一連の動作シーケンスすなわちモーションは、コンピュータ・プログラミングと同様の作業によって作成若しくは編集される。   A legged mobile robot has a high information processing capability, and the robot itself can be regarded as a kind of computer system. In other words, a sophisticated and complex series of motions or motions composed of motion patterns realized on a robot or a combination of a plurality of basic motion patterns, that is, created or edited by operations similar to computer programming. Is done.

実機を動作するためのモーション・データが数多く普及されることが、ロボット本体が普及していくためには必須である。したがって、ロボット用のモーション編集を行なうための開発環境の構築が強く望まれている。   It is indispensable for the robot body to spread that a lot of motion data for operating the actual machine is spread. Therefore, it is strongly desired to establish a development environment for performing motion editing for robots.

また、今後、産業界のみならず一般家庭や日常生活にもロボットが深く浸透していくことが予想される。とりわけ、エンターティンメント性を追求する製品に関しては、コンピュータやコンピュータ・プログラミングに加え、運動制御に関する高度な知識を持たなくとも、振付師やデザイナーがモーション・コンテンツを作成できることが強く望まれる。また、一般消費者層がロボットを購入して使用するケースも多いと予想される。このような一般ユーザにとっても、ロボットの動作シーケンスを対話的な処理により比較的容易且つ効率的に作成・編集することを支援するためのツール、すなわちモーション編集システムを提供することが好ましい。   In the future, it is expected that the robot will deeply penetrate not only the industry but also general households and daily life. In particular, for products pursuing entertainment, it is highly desirable that choreographers and designers can create motion content without having advanced knowledge of motion control in addition to computers and computer programming. In addition, it is expected that there are many cases where general consumers purchase and use robots. For such general users, it is preferable to provide a tool for supporting creation and editing of a robot motion sequence relatively easily and efficiently by interactive processing, that is, a motion editing system.

例えば、オペレータから入力された機体のポーズに従って、ポーズ間の動きの補間などを行ない、モーションを編集する動作編集装置について提案がなされている(例えば、特許文献1を参照のこと)。この動作編集装置によれば、モーションを編集した後、モーションが実機上で姿勢を安定させながら動作可能であるか否かを、ZMP安定度判別規範に基づいて検証するとともに、姿勢安定化が可能な動作パターンへの修正を行なうことができる。   For example, a motion editing apparatus that edits motion by interpolating motion between poses in accordance with the pose of the machine body input from an operator has been proposed (see, for example, Patent Document 1). According to this motion editing device, after editing a motion, whether or not the motion can be operated while stabilizing the posture on the actual machine is verified based on the ZMP stability determination criterion, and the posture can be stabilized. It is possible to make corrections to various operation patterns.

また、ロボット装置の自律化が進展し、身の回りには人間と同様に多数のロボットが比較的高い密度で存在するという時代が到来することも予想される。このような場合、複数台のロボット装置の動作若しくは行動を統括的にコントロールできるシステムが必要となってくる。   In addition, with the advancement of autonomy of robotic devices, it is expected that there will be an era in which a large number of robots exist around us at a relatively high density, like humans. In such a case, a system capable of comprehensively controlling the operations or actions of a plurality of robot apparatuses is required.

例えば、操作したいロボットの台数の増大に伴う操作の煩雑さを解消するために、複数のロボットを群としてまとめて制御する群ロボット・システムについて提案がなされている(例えば、非特許文献1を参照のこと)。群ロボット・システムは、複数のエージェント全体をまとめて制御することが可能である。エージェント固体間の相互作用力により群を形成することができ、さらに、エージェントの視界の半径を変更することにより、相互作用力のバランスを意図的に崩しエージェントが群内を移動する行動が可能である。   For example, a group robot system that controls a plurality of robots collectively as a group has been proposed in order to eliminate the complexity of operations associated with an increase in the number of robots to be operated (see Non-Patent Document 1, for example). ) The group robot system can control a plurality of agents collectively. A group can be formed by the interaction force between agent solids, and further, by changing the radius of the field of view of the agent, the balance of the interaction force can be intentionally disrupted and the agent can move in the group. is there.

また、群れを成す生物の各個体それぞれが局所的情報のみに基づいて行動し、その相互作用から全体の協調を生み出すという現象を利用して、大域的な情報交換をせずに必要最低限の機能だけで複数台のロボットによる集団行動を行なうことができる(例えば、非特許文献2を参照のこと)。すなわち、群行動をなす生物の群形成をシミュレートするとともに、習性をアルゴリズムにより再現することで、すべてのロボットを同一のプログラムで制御し、集団で同方向へ移動させ、リーダが存在しないにも拘らず秩序ある行動を行なうができる。   Moreover, each individual of the organisms that make up the group acts based on only local information, and uses the phenomenon that the overall coordination is generated from the interaction, and the minimum necessary without global information exchange. A group action by a plurality of robots can be performed only by the function (for example, see Non-Patent Document 2). In other words, by simulating the group formation of organisms that make group behaviors, and by reproducing the habits by algorithms, all robots are controlled by the same program, moved in the same direction as a group, and there is no leader Regardless, you can take orderly action.

また、複数ロボットによる協調搬送の代表的な手法として、1台のロボットが要求を持つリーダとなり、他のロボットがこれに従うフォロワとなるリーダ・フォロワ・アルゴリズムが知られている。この手法を未知環境での障害物回避に適用した場合、障害物を発見したロボットが障害物から遠ざかる点に目標位置を設定することで回避を実現することができる(例えば、非特許文献3を参照のこと)。   Also, as a representative method of cooperative transport by a plurality of robots, a leader-follower algorithm is known in which one robot serves as a demanded leader, and other robots follow it. When this technique is applied to obstacle avoidance in an unknown environment, avoidance can be realized by setting a target position at a point where the robot that has found the obstacle moves away from the obstacle (see Non-Patent Document 3, for example). See

ここで、複数のヒューマノイドロボットが協調して対象物を持ちながら移動する場合、歩行時に胴体の振動のために協調動作が乱れるという問題がある。この動作の乱れによるお互いの位置のずれを修正する行動を獲得する学習を行なうことが考えられる(例えば、非特許文献4を参照のこと)。例えば、強化学習の1つであるQ学習や、遺伝的アルゴリズムを利用したクラシファイシステムなどの方法を用いることができる。   Here, when a plurality of humanoid robots move in cooperation with holding an object, there is a problem that the cooperative operation is disturbed due to vibration of the trunk during walking. It is conceivable to perform learning to acquire an action for correcting a positional shift due to the disturbance of the movement (for example, see Non-Patent Document 4). For example, methods such as Q learning, which is one of reinforcement learning, and a classification system using a genetic algorithm can be used.

しかしながら、複数台のロボットが協調的に動作し、全体としてある特定の目的を実現する、というマルチロボット・システムに関する研究開発はいまだ不十分である、と本発明者らは思料する。例えば、演目のある舞台やデモンストレーションなど、複数台のロボットが限定された作業空間上で、それぞれ役割を分担しながら、1つの目的若しくはパフォーマンスを実現しなければならない。この場合、個々のロボットはそれぞれ配役に応じた行動(動作指令若しくは制御プログラム)を実行しながら、周囲のロボットとの調和を図りながら、複数のロボット全体としてストーリー性のあるパフォーマンスを観衆に提供しなければならない。   However, the present inventors consider that research and development related to a multi-robot system in which a plurality of robots operate cooperatively to achieve a specific purpose as a whole is still insufficient. For example, a single purpose or performance must be realized while sharing a role on a work space where a plurality of robots are limited, such as a stage with a performance or a demonstration. In this case, each robot provides a performance with story characteristics as a whole for multiple robots while executing harmony with surrounding robots while executing actions (operation commands or control programs) according to the respective casts. There must be.

このようなマルチロボット環境下では、ロボット装置間で十分に同期が確保されていなければ、人の目から見て同期協調しているとは映らない。また、狭い作業空間で比較的高い密度で複数のロボット装置が動作する場合、実演中にロボット装置間で干渉を生じたり、互いの位置関係が計画から外れてきたり、転倒や故障といったことも起こり得る。このような不測の事態に対してロバストな制御を実現したマルチロボット・システムに関する技術の成果は、本出願時において希少である。   Under such a multi-robot environment, if sufficient synchronization is not ensured between the robot apparatuses, it does not appear to be synchronized and coordinated from the human eye. In addition, when multiple robot devices operate at a relatively high density in a narrow work space, interference may occur between the robot devices during the demonstration, the mutual positional relationship may deviate from the plan, or a fall or failure may occur. obtain. The results of the technology related to the multi-robot system that realizes robust control against such unexpected situations are rare at the time of this application.

特開2003−266347号公報JP 2003-266347 A 高嶋淳、牧野浩二、松尾芳樹共著「全方位視覚センサを用いた自律移動ロボット群の群内挙動の生成」(第21回ロボット学会学術講演会(2003年9月20日〜22日)2B26)Co-authored by Takashima Satoshi, Makino Koji and Matsuo Yoshiki “Generation of Intra-Group Behavior of Autonomous Mobile Robots Using Omnidirectional Vision Sensors” (21st Robotics Society Conference (September 20-22, 2003) 2B26) 高信英明、愛甲哲弘、後藤寛勝、水越陽一、三浦宏文共著「小型移動ロボットによる群知能の研究」(第21回ロボット学会学術講演会(2003年9月20日〜22日)2B22)Co-authored by Hideaki Takanobu, Tetsuhiro Aiko, Hirokatsu Goto, Yoichi Mizukoshi, and Hirofumi Miura “Study on swarm intelligence with small mobile robots” (21st Robotics Society Conference (September 20-22, 2003) 2B22) 加藤健太郎、井上健司、新井健生、前泰志共著「異なる目標位置を持った複数ロボットによる単一物体の協調搬送―障害物回避を伴う搬送―」(第19回ロボット学会学術講演会(2001年9月18日〜20日)3C34)Joint work by Kentaro Kato, Kenji Inoue, Takeo Arai and Yasushi Mae “Coordinated transport of single objects by multiple robots with different target positions-transport with obstacle avoidance” (The 19th Annual Conference of the Robotics Society of Japan (2001) 9 Monday 18th-20th) 3C34) 井上豊、峰隆広、伊庭斉志共著「ヒューマノイドロボットによる協調的な荷物搬送―位置修正のための学習―」(第21回ロボット学会学術講演会(2003年9月20日〜22日)3B18)Co-authored by Yutaka Inoue, Takahiro Mine, and Masashi Iba “Collaborative Luggage Transfer with Humanoid Robots—Learning for Position Correction” (21st Robotics Society Conference (September 20-22, 2003) 3B18)

本発明の目的は、複数台のロボット装置の動作若しくは行動を同時に並行して制御することができる、優れたロボット装置の制御システム及び制御方法を提供することにある。   An object of the present invention is to provide an excellent control system and control method for a robot apparatus capable of simultaneously controlling operations or actions of a plurality of robot apparatuses in parallel.

本発明のさらなる目的は、複数のロボット装置を用いたデモンストレーションやその他の連携的若しくは同期協調的な行動を統括的に制御することができる、優れたロボット装置の制御システム及び制御方法を提供することにある。   It is a further object of the present invention to provide an excellent control system and control method for a robot apparatus capable of comprehensively controlling a demonstration using a plurality of robot apparatuses and other cooperative or synchronous cooperative actions. It is in.

本発明のさらなる目的は、複数のロボットが特定の空間内で連携的な行動を行なう際のロボット装置間の干渉や転倒、故障に対してロバストな制御を行なうことができる、優れたロボット装置の制御システム及び制御方法を提供することにある。   A further object of the present invention is to provide an excellent robot apparatus capable of performing robust control against interference, fall, and failure between robot apparatuses when a plurality of robots perform cooperative actions in a specific space. A control system and a control method are provided.

本発明は、上記課題を参酌してなされたものであり、その第1の側面は、特定の動作フィールド上で動作する1以上のロボット装置の制御システムにおいて、
前記動作フィールド上の各ロボット装置の位置及び方向を監視する監視手段と、
各ロボット装置との通信手段を備え、前記監視手段による監視結果並びに各ロボット装置から取得されるロボット装置の状態情報に基づいて、各ロボット装置による同期協調的な動作を制御する統括制御手段と、
を具備することを特徴とするロボット装置の制御システムである。
The present invention has been made in consideration of the above problems, and a first aspect of the present invention is a control system for one or more robot apparatuses that operate on a specific operation field.
Monitoring means for monitoring the position and direction of each robot device on the motion field;
An overall control means for controlling the synchronous and cooperative operation of each robot apparatus based on the monitoring result of the monitoring means and the status information of the robot apparatus acquired from each robot apparatus, comprising communication means with each robot apparatus;
A control system for a robot apparatus, comprising:

但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。   However, “system” here refers to a logical collection of a plurality of devices (or functional modules that realize specific functions), and each device or functional module is in a single housing. It does not matter whether or not.

ロボット装置の自律化が進展し、身の回りには人間と同様に多数のロボットが比較的高い密度で存在するという時代が到来することも予想される。このような場合、複数台のロボット装置の動作若しくは行動を統括的にコントロールできるシステムが必要である。   As robotic devices become more autonomous, it is anticipated that there will be an era in which a large number of robots will exist at a relatively high density, similar to humans. In such a case, a system capable of comprehensively controlling the operations or actions of a plurality of robot devices is required.

本発明に係るロボット装置の制御システムによれば、複数台のロボットが協調的に動作するというマルチロボット環境下において、全体としてある特定の目的を実現することができる。例えば、演目のある舞台やデモンストレーションなど、複数台のロボットが限定された作業空間上で、それぞれ役割を分担しながら、1つの目的若しくはパフォーマンスを実現することができる。すなわち、個々のロボット装置がそれぞれ配役に応じた行動(指令動作若しくは制御プログラム)を実行しながら、周囲のロボットとの調和を図りながら、複数のロボット全体としてストーリー性のあるパフォーマンスを観衆に提供することができる。   According to the control system for a robot apparatus according to the present invention, it is possible to realize a specific purpose as a whole in a multi-robot environment in which a plurality of robots operate cooperatively. For example, a single purpose or performance can be realized while sharing a role on a work space where a plurality of robots are limited, such as a stage with a performance or a demonstration. In other words, each robot device performs a behavior (command operation or control program) according to each cast, and provides the audience with performance with story characteristics as a whole, while harmonizing with surrounding robots. be able to.

本発明に係るロボット装置の制御システムでは、前記監視手段は、前記動作フィールドを撮影する画像入力手段と、前記入力画像を処理して各ロボット装置の位置及び方向に関する情報を取得する画像処理手段を備えている。そして、前記統括制御手段は、画像処理結果に基づいて得られる各ロボット装置の位置及び方向、並びにロボット装置からリアルタイム通信により得られる状態情報に基づいて、動作フィールド(舞台など)上で行なわれる複数のロボット装置によるパフォーマンスの実現を統括的にコントロールすることができる。   In the control system for a robot apparatus according to the present invention, the monitoring means includes an image input means for capturing the motion field, and an image processing means for processing the input image to acquire information on the position and direction of each robot apparatus. I have. The overall control means performs a plurality of operations performed on the operation field (stage, etc.) based on the position and direction of each robot apparatus obtained based on the image processing result and the state information obtained from the robot apparatus by real-time communication. It is possible to control the realization of the performance by the robot device in a centralized manner.

このようなマルチロボットによるパフォーマンス上では、各ロボット装置の配役が決められている。配役毎のロボット装置の動作計画は、該当するロボット装置に対する1以上の指示動作を時間軸上に配置して構成されている。そして、前記統括制御手段は、配役毎に決められているロボット装置の動作計画の実行を同じ時間軸上で管理し、各配役の動作計画の集合をシナリオとして管理する。   In such multi-robot performance, the role of each robot apparatus is determined. The operation plan of the robot apparatus for each casting is configured by arranging one or more instruction operations for the corresponding robot apparatus on the time axis. The overall control means manages execution of the operation plan of the robot apparatus determined for each casting on the same time axis, and manages a set of operation plans for each casting as a scenario.

また、前記統括制御手段は、2以上のシナリオを時間軸上に連結し、マルチロボットによる1つのパフォーマンスとして管理することができる。さらに、各シナリオにおいて異常事態の発生により続行が困難又は不可能となった場合に備えて、代替的に実行される予備シナリオを用意するようにしてもよい。   The overall control unit can manage two or more scenarios on a time axis and manage them as one performance by the multi-robot. Furthermore, a preliminary scenario that is executed as an alternative may be prepared in case it is difficult or impossible to continue due to the occurrence of an abnormal situation in each scenario.

ここで、前記統括制御手段は、実行不能となった後続の1以上のシナリオをスキップし、元のシナリオ連結に復帰するために、予備シナリオを利用することができる。あるいは、パフォーマンスを完結できない異常事態が発生したときに、実行不能となった後続のすべてのシナリオに代えて、パフォーマンスを完結させるために、予備シナリオを利用することができる。あるいは、ある1つのシナリオにおいて異常事態が発生した場面に応じた予備シナリオを利用することができる。   Here, the overall control unit can use a preliminary scenario in order to skip one or more subsequent scenarios that have become unexecutable and return to the original scenario connection. Alternatively, in the event of an abnormal situation where the performance cannot be completed, a preliminary scenario can be used to complete the performance instead of all subsequent scenarios that become unexecutable. Alternatively, a preliminary scenario corresponding to a scene where an abnormal situation has occurred in one scenario can be used.

このようなマルチロボット環境下では、ロボット装置間で十分に同期が確保されていなければ、人の目から見て同期協調しているとは映らない。そこで、前記統括制御手段は、前記動作フィールド上の各ロボット装置との時刻同期を獲得する同期獲得手段を備え、各配役のロボット装置がそれぞれの動作計画を該時刻に合わせて同期協調的に実行するように制御するようにしている。   Under such a multi-robot environment, if sufficient synchronization is not ensured between the robot apparatuses, it does not appear to be synchronized and coordinated from the human eye. Therefore, the overall control means includes synchronization acquisition means for acquiring time synchronization with each robot apparatus on the operation field, and each casting robot apparatus executes each operation plan synchronously and coordinated according to the time. I try to control it.

また、狭い作業空間で比較的高い密度で複数のロボット装置が動作する場合、実演中にロボット装置間で干渉を生じたり、互いの位置関係が計画から外れてきたり、転倒や故障といったことも起こり得る。そこで、統括制御手段は、動作フィールド上でパフォーマンスを実演している各ロボット装置の位置や方向、状態を画面表示し、オペレータがパフォーマンスの実行状況を視覚的に容易に確認できるようにしている。   In addition, when multiple robot devices operate at a relatively high density in a narrow work space, interference may occur between the robot devices during the demonstration, the mutual positional relationship may deviate from the plan, or a fall or failure may occur. obtain. Therefore, the overall control means displays the position, direction, and state of each robot apparatus demonstrating performance on the operation field so that the operator can easily visually confirm the performance execution status.

例えば、前記統括制御手段は、前記監視手段により得られた各ロボット装置の位置及び方向に関する情報を基に、前記動作フィールド上での各ロボット装置の位置及び方向を画面表示する現在状態表示手段を備えている。前記現在状態表示手段は、各ロボット装置の動作計画上の目標位置及び方向と前記監視手段により得られた現実の位置及び方向の偏差を提示する。各ロボットの目標位置と現実の位置及び方向のそれぞれを提示することにより、オペレータは、画面を介して目標位置と現在位置姿勢を視覚的に確認し、現在のマルチロボットの状態を的確に判断することができる。   For example, the overall control means includes current state display means for displaying the position and direction of each robot apparatus on the operation field on the screen based on information on the position and direction of each robot apparatus obtained by the monitoring means. I have. The current state display means presents a deviation between an actual position and direction obtained by the monitoring means and a target position and direction on the operation plan of each robot apparatus. By presenting each target position and actual position and direction of each robot, the operator visually confirms the target position and current position and orientation via the screen, and accurately determines the current multi-robot state. be able to.

また、前記統括制御手段は、前記動作フィールド上の各ロボット装置の転倒領域を算出する転倒領域算出手段と、各ロボット装置の最大可動範囲を算出する最大可動範囲算出手段と、該算出された各ロボット装置の転倒領域又は最大可動範囲の重なりをロボット装置間の干渉領域として画面表示する干渉領域表示手段とを備えている。   Further, the overall control means includes a fall area calculation means for calculating a fall area of each robot apparatus on the motion field, a maximum movable range calculation means for calculating a maximum movable range of each robot apparatus, and each of the calculated Interference area display means for displaying on the screen the overlapping area of the robot apparatus or the overlap of the maximum movable range as an interference area between the robot apparatuses is provided.

このように、ロボット間の干渉領域は、それぞれの最大可動範囲の重なり具合という形で視覚的に表示されるので、オペレータは、パフォーマンス実演上の問題を理解し易くなる。また、このような干渉領域の情報を利用して、周囲のロボットの可動範囲に進入しないように、転倒方向の制限を課すこともできる。   In this way, the interference area between the robots is visually displayed in the form of overlapping states of the respective maximum movable ranges, so that the operator can easily understand the performance demonstration problem. Moreover, it is also possible to impose a limit on the fall direction so as not to enter the movable range of the surrounding robot using such information on the interference area.

例えば、各ロボット装置は1以上の転倒動作を備えている場合に、前記統括制御手段は、前記干渉領域を転倒領域に持つ若しくは前記干渉領域を転倒方向とする転倒動作の使用を禁止するようにしてもよい。   For example, when each robot apparatus has one or more overturning operations, the overall control unit prohibits the use of the overturning operation having the interference region in the overturning region or having the interference region in the overturning direction. May be.

また、前記統括制御手段は、過去に行なったロボット装置の動作に基づいて当該ロボットの運動特性を算出し、将来行なう動作計画を実行したときの計画値との偏差を当該ロボット装置の運動特性に基づいて予測する偏差予測手段と、前記予測された偏差を画面表示する偏差予測表示手段を備えている。例えば、ある「動作計画」の中にマイクが置かれている場所へ正確に移動しなければいけない場面がある場合や、動作フィールドの端で落下の可能性がある場所へ移動しなければいけない場面がある場合に、オペレータは偏差推定を利用することで、重大なトラブルが発生する前に処置すべき内容を判断することができる。   Further, the overall control means calculates the motion characteristics of the robot based on the motion of the robot apparatus performed in the past, and the deviation from the planned value when the future motion plan is executed is used as the motion characteristics of the robot apparatus. Deviation prediction means for predicting based on, and deviation prediction display means for displaying the predicted deviation on the screen. For example, when there is a scene that must move to the place where the microphone is placed in a certain motion plan, or a scene that must move to the place where the microphone may fall at the end of the motion field In such a case, the operator can use the deviation estimation to determine the content to be treated before a serious trouble occurs.

ここで、前記偏差予測手段は、過去一定期間ts〜tm1にモーションを実行したときに生じた誤差を観測するとともに、過去一定期間ts〜tm1に実行したモーションを要素運動毎に分割し要素運動毎に生じる誤差を推定し、さらに以後tm2〜teに至るまでの期間に実行するモーションを要素運動に分割して、これらの要素運動が持つ推定誤差を合計することにより、時刻teにおける位置及び方向の目標値との偏差を推定することができる。 Dividing Here, the deviation prediction means is configured to observe the error caused when running the motion in the past predetermined period t s ~t m1, motion executed in the past predetermined period t s ~t m1 per element movement Then, by estimating the error that occurs for each element motion, and further dividing the motion to be executed during the period from t m2 to t e into element motions, and summing the estimation errors of these element motions, Deviations from the target values of the position and direction at t e can be estimated.

また、前記統括制御手段は、ロボット装置の前記動作フィールド上での軌道を表示する軌道表示手段を備えている。前記軌道表示手段は、Z軸を時間軸においた歩の軌道表示を行なうようにしてもよい。ロボットの作業領域は、一般に平面すなわちZ軸方向に変化する頻度が低く、歩を空間的に表示する上でZ軸の重要性は低い。そこで、Z軸を時間軸に指定してロボットの軌跡を描画することにより、XY軸への移動と姿勢(ロール,ピッチ,ヨー)の軌道が時刻の経過に沿って視覚的に確認し易くしている。   The overall control means includes a trajectory display means for displaying a trajectory on the operation field of the robot apparatus. The trajectory display means may display a trajectory of a step with the Z axis as a time axis. In general, the work area of the robot does not change frequently in the plane, that is, in the Z-axis direction, and the Z-axis is less important for spatially displaying the steps. Therefore, by drawing the robot trajectory by designating the Z axis as the time axis, the movement to the XY axis and the trajectory of the posture (roll, pitch, yaw) can be easily visually confirmed over time. ing.

前記現在状態表示手段は、各ロボット装置の動作計画上の目標位置及び方向と前記監視手段により得られた現実の位置及び方向の偏差を補正する位置方向補正手段を備えている。ロボット装置の目標値との位置及び方向のずれは観衆に与える見栄えに影響するとともに、ロボット装置間の干渉などパフォーマンス自体へも影響する。何故なら、本来いるはずのない場所にロボットが立つことになり、本来同じ場所にいるべき他のロボットと干渉又は衝突してしまうことになる。そこで、本発明では、いずれかのロボットの現在位置と目標位置との位置方向偏差が大きいとき、あるいは将来推定される位置と目標位置との位置方向偏差が大きいときには、位置及び方向の修正処理を起動するようにした。   The current state display means includes position / direction correction means for correcting a deviation between a target position and direction in an operation plan of each robot apparatus and an actual position and direction obtained by the monitoring means. The deviation of the position and direction from the target value of the robot apparatus affects the appearance given to the audience and also affects the performance itself such as interference between the robot apparatuses. This is because the robot will stand in a place where it should not be, and will interfere or collide with other robots that should be in the same place. Therefore, in the present invention, when the positional deviation between the current position and the target position of any robot is large, or when the positional deviation between the position estimated in the future and the target position is large, the position and direction correction processing is performed. It started up.

前記位置方向補正手段は、動作計画を実行中のロボット装置の位置又は方向の誤差を当該動作計画内の既存の歩を用いて補正するという「補正計画」、あるいは、ロボット装置が動作計画を実行していない場面を利用して、新たな1つ以上の歩を生成して位置方向の偏差を修正するという「移動計画」を立てることができる。   The position / direction correction means is a “correction plan” in which an error in the position or direction of the robot device that is executing the motion plan is corrected using an existing step in the motion plan, or the robot device executes the motion plan. Using a scene that has not been made, it is possible to create a “movement plan” in which one or more new steps are generated to correct the positional deviation.

また、前記統括制御手段は、複数のロボットが前記動作フィールドでシナリオを実行するマルチロボット環境下において、異常の程度に応じた異常状態を定義し、各異常状態に陥ったときに適当な修復処理を行なう異常処理手段を備えている。すなわち、本発明によれば、異常状態になったロボットが復帰できるかどうか、他のロボットの動作が復帰動作に干渉しないかなど、全体の構成を考慮して適切な処理を行なう手段が確立されている。統括制御手段は、このような異常状態を位置方向情報やロボット状態などから検知することができ、異常状態が検知されると、その状況に応じた処理を実行することができる。   Further, the overall control means defines an abnormal state according to the degree of abnormality in a multi-robot environment in which a plurality of robots execute a scenario in the operation field, and performs appropriate repair processing when falling into each abnormal state An abnormality processing means is provided. That is, according to the present invention, means for performing appropriate processing in consideration of the overall configuration, such as whether or not a robot in an abnormal state can be restored, and whether or not other robot operations interfere with the restoration operation, is established. ing. The overall control unit can detect such an abnormal state from the position / direction information, the robot state, and the like, and when the abnormal state is detected, can execute processing corresponding to the state.

前記異常処理手段は、1体のロボット装置だけで異常処理が完結する第1の異常状態において、当該ロボット装置についての異常処理を実行する。   The abnormality processing means executes abnormality processing for the robot apparatus in a first abnormality state where the abnormality processing is completed with only one robot apparatus.

また、前記異常処理手段は、前記マルチロボット全体に対して異常処理が必要な第2の状態において、前記動作フィールド内で動作するロボット装置間で配役の交代、前記動作フィールド内又は外で待機する予備ロボットの前記動作フィールドへの投入、又は前記マルチロボットにおけるフォーメーションの修正を行なう。   In addition, the abnormality processing means waits in or out of the operation field, in the second state where the abnormality processing is required for the entire multi-robot, in the casting state change between the robot devices operating in the operation field. A spare robot is introduced into the operation field, or the formation in the multi-robot is corrected.

また、前記異常処理手段は、シナリオの一部が続行不可能となる第3の異常状態において、前記マルチロボットにおける全体フォーメーションの修正を行なう。   The abnormality processing means corrects the entire formation in the multi-robot in a third abnormal state where a part of the scenario cannot be continued.

また、前記異常処理手段は、シナリオ全体が続行不可能な第4の異常状態において、シナリオの続行を停止する。   In addition, the abnormality processing unit stops the continuation of the scenario in a fourth abnormal state where the entire scenario cannot be continued.

本発明によれば、複数台のロボット装置の動作若しくは行動を同時に並行して制御することができる、優れたロボット装置の制御システム及び制御方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the control system and control method of the outstanding robot apparatus which can control simultaneously the operation | movement or action of a several robot apparatus simultaneously can be provided.

また、本発明によれば、複数のロボット装置を用いたデモンストレーションやその他の連携的若しくは同期協調的な行動を統括的に制御することができる、優れたロボット装置の制御システム及び制御方法を提供することができる。   In addition, according to the present invention, there is provided an excellent control system and control method for a robot apparatus capable of comprehensively controlling a demonstration using a plurality of robot apparatuses and other cooperative or synchronous cooperative actions. be able to.

また、本発明によれば、複数のロボットが特定の空間内で連携的な行動を行なう際のロボット装置間の干渉や転倒、故障に対してロバストな制御を行なうことができる、優れたロボット装置の制御システム及び制御方法を提供することができる。   Further, according to the present invention, an excellent robot apparatus capable of performing robust control against interference, fall, and failure between the robot apparatuses when a plurality of robots perform cooperative actions in a specific space. The control system and the control method can be provided.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the present invention will become apparent from more detailed description based on embodiments of the present invention described later and the accompanying drawings.

以下、図面を参照しながら本発明の実施形態について詳解する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明は、複数台のロボットが協調的に動作し、全体としてある特定の目的を実現するマルチロボット・システムに関する。本発明に係るマルチロボット・システムは、とりわけ左右の可動脚を備え歩行運動を行なう脚式移動ロボットを対象とし、1台以上の脚式移動ロボットを舞台やその他の作業領域からなる動作フィールドでのデモンストレーションの運用などを実現する。   The present invention relates to a multi-robot system in which a plurality of robots operate cooperatively to realize a specific purpose as a whole. The multi-robot system according to the present invention is particularly intended for legged mobile robots that have left and right movable legs and perform walking motions. One or more legged mobile robots are used in an operation field composed of a stage and other work areas. Realize demonstration operation.

従来の群ロボット・システムにおいては、運用中に路面の滑りや個々のロボット装置の状態により、所定時刻に目標位置に到達していない、転倒又は故障するといったトラブルに対し、自動で対処することはできず、ロボットを操作するオペレータ若しくはテクニカル・サポータの知識や経験、手作業に頼らざるを得なかった。これに対し、本発明によれば、人手に頼る運用に変わって、運用中のトラブルに対し、自動で適切且つ適応的な処理を行なうとともに、トラブルを事前に回避し又はオペレータに回避方法を促すことができる。   In conventional group robot systems, it is not possible to automatically deal with troubles such as slipping on the road surface or the state of individual robot devices during operation, such as not reaching the target position at a predetermined time, falling over, or malfunctioning. I could not but rely on the knowledge, experience, and manual work of the operator or technical supporter who operates the robot. On the other hand, according to the present invention, instead of relying on manual operation, appropriate and adaptive processing is automatically performed for trouble during operation, and trouble is avoided in advance or an operator is prompted to avoid the trouble. be able to.

A.マルチロボット・システムの構成
図1には、本発明の一実施形態に係るマルチロボット・システムの概要を示している。図示の通り、マルチロボット・システムは、舞台や作業領域などの動作フィールド上で活動可能な1台以上のロボットと、これらのロボットの動作フィールド上での動作を監視するモニタ・システムと、これらロボットの動作を統括的に管理及び制御し、マルチロボットによる演劇若しくはデモンストレーションの運用を行なう統括コントローラで構成される。
A. Configuration of Multi-Robot System FIG. 1 shows an outline of a multi-robot system according to an embodiment of the present invention. As shown in the figure, the multi-robot system includes one or more robots that can be active on a motion field such as a stage or a work area, a monitor system that monitors the motion of these robots on the motion field, and these robots. It is composed of a general controller that centrally manages and controls the operation of the robot, and performs theater or demonstration operations using multi-robots.

本実施形態で対象とするロボット装置は、左右の可動脚を備え歩行運動を行なう脚式移動ロボットであるが、その構成については後述に譲る。   The target robot apparatus in this embodiment is a legged mobile robot that includes left and right movable legs and performs a walking motion, and the configuration thereof will be described later.

個々のロボットにはあらかじめ役が決められており、主役や脇役などの配役に応じた区々の動作計画が与えられる。動作計画は、再生モーションなどからなる指示動作を時間軸上で組み合わせて構成される。そして、舞台上のすべてのロボット装置が行なう動作計画の集合により、演劇やデモンストレーションといった1つのシナリオが構成される。動作計画やシナリオの詳細については後述に譲る。舞台に上がる各ロボットに対し配役に応じた動作計画をあらかじめインストールしておいてもよいし、演技やデモンストレーションなどパフォーマンスが進行する毎に、指示動作をリアルタイムで転送するようにしてもよい。   Each robot has a predetermined role in advance, and is given a motion plan according to the role of the leading role or the supporting role. The operation plan is configured by combining instruction operations including reproduction motions on the time axis. A set of motion plans performed by all robot devices on the stage constitutes one scenario such as a play or demonstration. Details of the operation plan and scenario will be described later. An operation plan corresponding to the cast may be installed in advance for each robot on the stage, or the instruction operation may be transferred in real time each time performance such as performance or demonstration progresses.

配役に応じて定まる動作計画を実行する上で、ロボット装置に求められる運動性能若しくは運動特性は区々である(例えば、下肢の運動中心の役柄や、上肢の運動中心の役柄、特定の静止姿勢中心の役柄など)。一方、ロボット装置にも個体差があり、持ち合わせている運動性能や運動特性は装置毎に相違がある。そこで、配役毎に要求される運動性能と、利用可能な各ロボット装置が備えている運動性能とをすり合せして機体に役を割り当てていくという、配役取り決めシステムも必要である。   When executing the motion plan determined according to the casting, the motion performance or motion characteristics required of the robot device varies (for example, the role of the lower limb, the role of the upper limb, the role of the upper limb, or a specific stationary posture). Center role). On the other hand, there are individual differences in the robot apparatus, and the movement performance and movement characteristics possessed are different for each apparatus. Therefore, there is also a need for a casting arrangement system that assigns roles to the aircraft by combining the motion performance required for each casting with the motion performance of each available robot apparatus.

なお、マルチロボットを構成する複数台のロボットのうち1台以上は、舞台上で配役が与えられたロボット装置の故障に備えて待機するスペアとしての「予備ロボット」(図示)に割り当ててもよい。   One or more of the plurality of robots constituting the multi-robot may be assigned to “reserved robots” (shown) as spares that stand by in preparation for a failure of a robot apparatus that has been cast on the stage. .

モニタ・システムは、例えば、舞台などの動作フィールドを一望できるカメラが捉えた映像を画像処理することにより、各ロボットの位置及び方向を取得し、これを統括コントローラに通知する。図2には、舞台上のマルチロボットをその上方からカメラが捕らえている様子を側面から示している。また、図3には、舞台上方のカメラから捉えたマルチロボット環境下の舞台の鳥瞰図を示している。勿論、モニタ・システムは、カメラ以外のセンサ・システムを用いてロボットの位置及び方向を計測するようにしてもよい。   The monitor system acquires the position and direction of each robot by, for example, performing image processing on a video captured by a camera having a panoramic view of an operation field such as a stage, and notifies this to the overall controller. FIG. 2 shows a side view of the camera capturing the multi-robot on the stage from above. FIG. 3 shows a bird's-eye view of the stage under a multi-robot environment captured from a camera above the stage. Of course, the monitor system may measure the position and direction of the robot using a sensor system other than the camera.

統括コントローラは、モニタ・システムから得られた各ロボットの位置及び方向などの情報に基づいて、ロボットの動作を統括的に管理しながらシナリオの実行を制御することにより、マルチロボットによる演劇若しくはデモンストレーションの運用を実現する。   Based on information such as the position and direction of each robot obtained from the monitor system, the overall controller controls the execution of the scenario while comprehensively managing the robot's operation, thereby enabling the performance or demonstration of multi-robots. Realize operation.

また、統括コントローラとの各ロボット間は、IEEE802.11などの無線LAN(Local Area Network)などの無線通信により接続されており、統括コントローラは、シナリオ実行中のロボットの状態をリアルタイムで取得することができる。そして、統括コントローラは、モニタ・システムから得られたロボットの位置及び方向と、ロボットから得られた状態などに基づいて、ロボットに対する動作指示や、ロボットに対する位置及び方向の補正指示、異常発生(若しくは予測)時におけるロボットへの動作指示などを、無線LAN経由でリアルタイムに行なう。   In addition, each robot with the general controller is connected by wireless communication such as a wireless LAN (Local Area Network) such as IEEE 802.11, and the general controller acquires the state of the robot executing the scenario in real time. Can do. Then, the general controller, based on the position and direction of the robot obtained from the monitor system and the state obtained from the robot, etc., instructs the robot to operate, instructs the robot to correct the position and direction, and generates an abnormality (or The operation instruction to the robot at the time of prediction is performed in real time via the wireless LAN.

なお、図示の例では、統括コントローラとモニタ・システムは別個の装置として描かれているが、勿論単一の計算機システムで動作する個々のアプリケーションとして実装することも可能である。   In the illustrated example, the overall controller and the monitor system are depicted as separate devices, but it is of course possible to implement them as individual applications that operate on a single computer system.

B.ロボットに対する指示動作
マルチロボット・システムでは、個々のロボットにはあらかじめ役が決められており、主役や脇役などの配役に応じた区々の動作計画が与えられる。動作計画は、再生モーションなどからなる指示動作を時間軸上で組み合わせて構成される。そして、舞台上のすべてのロボット装置が行なう動作計画の集合により、演劇やデモンストレーションといった1つのシナリオが構成される。
B. In the multi-robot system for instructing the robot, each robot is assigned a role in advance, and a motion plan according to the cast such as the main role or the side role is given. The operation plan is configured by combining instruction operations including reproduction motions on the time axis. A set of motion plans performed by all robot devices on the stage constitutes one scenario such as a play or demonstration.

ロボットに与えられる指示動作は、発声、発光、機体動作(歩行やダンス、姿勢遷移、情動表出など機体の動きで実現される外部出力)などに大別される。また、歩行をしながら発声するなどといった複数の指示動作が組み合わさり、1つの指示動作になることもある(図4を参照のこと)。   The instruction motion given to the robot is roughly classified into voice, light emission, and body motion (external output realized by motion of the body such as walking, dancing, posture transition, and emotion expression). In addition, a plurality of instruction operations such as uttering while walking may be combined to form one instruction operation (see FIG. 4).

機体動作に関しては、例えば、本出願人に既に譲渡されている特開2003−266347号公報に記載の動作編集装置を用いて編集することができる。この動作編集装置によれば、モーションを編集した後、モーションが実機上で姿勢を安定させながら動作可能であるか否かを、ZMP安定度判別規範に基づいて検証するとともに、姿勢安定化が可能な動作パターンへの修正を行なうことができる。   The machine operation can be edited using, for example, the motion editing apparatus described in Japanese Patent Laid-Open No. 2003-266347 already assigned to the present applicant. According to this motion editing device, after editing a motion, whether or not the motion can be operated while stabilizing the posture on the actual machine is verified based on the ZMP stability determination criterion, and the posture can be stabilized. It is possible to make corrections to various operation patterns.

これらの指示動作を時間軸上で組み合わせることにより、1つの動作計画が構成される(図5を参照のこと)。複数台のロボットが協調的に動作し、全体としてある特定の目的を実現するというマルチロボット・システムでは、各ロボットには主役や脇役などの役が割り振られており、配役に応じた区々の動作計画が与えられる。すなわち、動作計画を構成する指示動作の集合は配役毎に異なる。   By combining these instruction operations on the time axis, one operation plan is constructed (see FIG. 5). In a multi-robot system in which multiple robots operate cooperatively to achieve a specific purpose as a whole, each robot is assigned a role such as a leading role or a supporting role. An action plan is given. That is, the set of instruction actions constituting the action plan is different for each casting.

マルチロボット・システムでは、配役が与えられた各ロボットがそれぞれの動作計画を同じ時間軸上で同期協調的に実行することにより、演劇やデモンストレーションといった1つのパフォーマンスをシナリオ通りに実現する。このため、動作計画は、ロボット単体での指示動作以外に、動作計画の開始タイミングに相当する「シナリオ内での開始時刻」と、動作フィールド上でのロボットの開始位置及び方向(立ち位置)に相当する「シナリオ内での開始位置方向」を添付したフォーマット(図6を参照のこと)がシナリオに使用される。   In a multi-robot system, each robot to which a role is assigned executes each motion plan synchronously and cooperatively on the same time axis, thereby realizing one performance such as a play or demonstration according to a scenario. For this reason, the motion plan includes the “start time in the scenario” corresponding to the start timing of the motion plan, and the start position and direction (standing position) of the robot on the motion field, in addition to the instruction motion of the robot alone. A corresponding format (see FIG. 6) with a corresponding “starting position direction in the scenario” is used for the scenario.

シナリオは、演劇やデモンストレーションといった、マルチロボット・システムによるパフォーマンスの実体を記述したものであり、役が与えられたすべてのロボットの動作計画の集合により構成される。図7には、シナリオの構造を模式的に示している。個々のロボットの役割は、役を演じるための複数の動作計画を時間軸上で組み合わせることで決定する。図示のように、シナリオ内では、それぞれの役割毎の動作計画の組み合わせが記述されている。また、各動作計画には、役割の重要度(主役、脇役など)が記述されている。   A scenario is a description of the performance of a multi-robot system, such as a play or demonstration, and consists of a set of action plans for all robots that have been given roles. FIG. 7 schematically shows the scenario structure. The role of each robot is determined by combining a plurality of motion plans for performing a role on the time axis. As illustrated, in the scenario, combinations of operation plans for each role are described. Each action plan describes the importance of the role (main role, supporting role, etc.).

マルチロボット・システムでは、単一のシナリオのみでパフォーマンスを行なう以外に、複数のシナリオを連結して運用するということも可能である。図8には、複数シナリオの連結した構成例を示している。この場合、複数のシナリオを時間軸上で直列的に連結することを基本形とする。   In a multi-robot system, in addition to performing only with a single scenario, it is also possible to connect and operate multiple scenarios. FIG. 8 shows a configuration example in which a plurality of scenarios are connected. In this case, the basic form is to connect a plurality of scenarios in series on the time axis.

また、各シナリオにおいて異常事態の発生により続行が困難又は不可能となった場合に備えて、代替的に実行される予備シナリオを用意することができる。予備シナリオは、実行不能となった後続の1以上のシナリオをスキップし、元のシナリオ連結に復帰するために利用することができる。図示の例では、予備シナリオ1は、シナリオ1の実行中に異常が発生したときに、実行不能となったシナリオ2をスキップし、シナリオ3に合流するための動作計画群で構成されている。   In addition, it is possible to prepare a preliminary scenario that is executed as an alternative in preparation for cases where it is difficult or impossible to continue due to the occurrence of an abnormal situation in each scenario. The preliminary scenario can be used to skip one or more subsequent scenarios that have become unexecutable and return to the original scenario connection. In the illustrated example, the preliminary scenario 1 includes an operation plan group for skipping the scenario 2 that has become unexecutable and joining the scenario 3 when an abnormality occurs during the execution of the scenario 1.

あるいは、予備シナリオは、パフォーマンスを完結できない異常事態が発生したときに、実行不能となった後続のすべてのシナリオに代えて、パフォーマンスを完結させるために利用することができる。図示の例では、予備シナリオ2及び予備シナリオ3は、シナリオ3の実行中にパフォーマンスを完結できない異常事態が発生したときに、後続のシナリオ4を完全にキャンセルし、見かけ上パフォーマンスが無事に終了したかのように装う、又は当初の動作目的達成のために利用される。   Alternatively, the preliminary scenario can be used to complete the performance in place of all subsequent scenarios that become unexecutable when an abnormal situation occurs where the performance cannot be completed. In the example shown in the figure, in the case of the preliminary scenario 2 and the preliminary scenario 3, when an abnormal situation in which the performance cannot be completed during the execution of the scenario 3, the subsequent scenario 4 is completely cancelled, and the performance is finished safely. It can be used to achieve the initial operational purpose.

また、ある1つのシナリオにおいて異常事態の発生により続行が困難又は不可能となった場合に備えて、代替的な予備シナリオを複数用意しておいてもよい。さらに、異常状態が発生した時刻に応じて、代替的な予備シナリオを複数用意しておいてもよい。図示の例では、シナリオ4は、予備シナリオ4及び予備シナリオ5を用意しており、当該シナリオの前半で異常が発生したときには予備シナリオ4を利用し、後半で異常が発生したときには予備シナリオ5を利用することで、それぞれ見かけ上パフォーマンスが無事に終了したかのように装う、又は当初の動作目的達成のために利用される。   Also, a plurality of alternative preliminary scenarios may be prepared in case a continuation is difficult or impossible due to an abnormal situation in a certain scenario. Furthermore, a plurality of alternative preliminary scenarios may be prepared according to the time when the abnormal state occurs. In the example shown in the figure, scenario 4 is prepared as spare scenario 4 and spare scenario 5. When an abnormality occurs in the first half of the scenario, spare scenario 4 is used, and when an abnormality occurs in the latter half, spare scenario 5 is used. By using each, it looks as if the performance seemed to have finished successfully, or it is used to achieve the initial operation purpose.

C.マルチロボット・システムにおける各ロボットの時刻管理
上述したようにマルチロボット・システムでは、役が割り当てられた各ロボットがそれぞれ与えられた動作計画を同期的に実行することにより、舞台などの動作フィールド上で連携した協調的な行動を振る舞い、シナリオ通りのパフォーマンスを提示することができる。
C. Time management of each robot in the multi-robot system As described above, in the multi-robot system, each robot to which a role is assigned executes an assigned motion plan on the motion field such as the stage. It is possible to behave in a coordinated and coordinated manner and present performance according to the scenario.

ここで、マルチロボット環境下では、ロボット装置間で十分に同期が確保されていなければ、人の目から見て同期協調しているとは映らない、という時刻同期の問題がある。ロボット同士を同期して動作させ、特に同じ動作をさせる場合、早い動きになればなるほど見た目の動作の違いが顕著になる。   Here, under the multi-robot environment, there is a problem of time synchronization that, if the synchronization between the robot apparatuses is not sufficiently ensured, it does not appear to be synchronized and coordinated from the human eyes. When the robots are operated in synchronism with each other, and in particular, the same operation is performed, the faster the movement, the more noticeable the difference in the apparent operation.

また、ロボットの音声や音楽を、ロボットに内蔵されているスピーカーからではなく、ロボット外の装置からのライン出力から出力することがある。これは会場が広く、ロボットの音声や音楽が会場の視聴者に届かない場合や、高音質な音を使用したい場合があるためである。ロボットの動作と外部機器からの音響を同期させるためには、これらの装置で計時される時刻が上記の精度で同期している必要がある。   In addition, the voice and music of the robot may be output from a line output from a device outside the robot instead of from a speaker built in the robot. This is because the venue is large and there are cases where the voice and music of the robot does not reach the audience of the venue, or there is a case where it is desired to use high-quality sound. In order to synchronize the operation of the robot and the sound from the external device, the time counted by these devices needs to be synchronized with the above accuracy.

時刻同期の問題は、見栄えの効果だけでなく、ロボット装置間の干渉などパフォーマンス事態へも影響する。何故なら、同期を十分に確保していないため、本来いるはずのない場所にロボットが立つことになり、本来同じ場所にいるべき他のロボットと干渉又は衝突してしまうことになる。   The problem of time synchronization affects not only the appearance effect but also performance situations such as interference between robot devices. This is because the synchronization is not sufficiently ensured, so that the robot stands in a place where it should not be, and interferes or collides with other robots that should originally be in the same place.

統括コントローラが動作計画の実行タイミングに合わせて指示動作に関するコマンドを転送することで同期をとる、という方法も考えられる。すなわち、PC内の時計やタイマーを用いて、任意の時刻又は経過時間後に、ロボットに対してコマンドを無線LAN経由で送出する。この場合、ロボット間、あるいはロボットとPC間では時刻を共有しておらず、ロボットはコマンドを受け取ると同時に直ちにそれを実行する。例えば、複数体のロボットを用いてミュージカルや劇といったシナリオをベースにしたロボットのモーション再生や音楽再生を行おうとした場合、動作させたい時刻に統括コントローラから各ロボットへコマンドを同時並行して送出して同期をとる。しかし、この場合、使用する無線の電波状況の良し悪しによりコマンドの到達遅延が生じ、ロボット同士が同期して動作しないという問題がある。   A method is also conceivable in which the general controller synchronizes by transferring a command related to the instruction operation in accordance with the execution timing of the operation plan. That is, a command is sent to the robot via a wireless LAN after an arbitrary time or elapsed time using a clock or timer in the PC. In this case, the time is not shared between the robots or between the robot and the PC, and the robot executes it immediately upon receiving the command. For example, when attempting to perform robot motion playback and music playback based on scenarios such as musicals and plays using multiple robots, commands are sent from the general controller to each robot in parallel at the time at which they want to operate. To synchronize. However, in this case, there is a problem that the arrival delay of the command occurs due to the radio wave condition of the radio used, and the robots do not operate synchronously.

そこで、本実施形態では、ロボット間で、あるいはロボットと統括コントローラ(若しくは時刻を管理するその他の装置)間で時刻同期をあらかじめ行ない、その時刻になったらロボットが動作するようにしている。   Therefore, in this embodiment, time synchronization is performed in advance between the robots or between the robot and the general controller (or other device that manages time), and the robot is operated when the time comes.

図9には、ロボット間、並びにロボットと統括コントローラ間で時刻同期をとるための仕組みを図解している。図示の例では、当該時刻管理システムを動作させているシステム(統括コントローラ)と有線ケーブルとケーブル出力をコントロールするアプリケーション・ソフトウェアを用い、統括コントローラのオペレーティング・システム上の時刻を、各ロボットと通信を行ない設定している。   FIG. 9 illustrates a mechanism for synchronizing time between robots and between a robot and a general controller. In the example shown in the figure, the system running the time management system (general controller) and the application software that controls the wired cable and cable output are used to communicate the time on the operating system of the general controller with each robot. Set.

また、図10には、ロボット間、並びにロボットと統括コントローラ間で時刻同期をとるための仕組みについての他の例を図解している。図示の例では、当該時刻管理システムを動作させているシステム(統括コントローラ)と同システムに接続された無線通信装置と、それをコントロールするアプリケーション・ソフトウェアを用い、統括コントローラのオペレーティング・システム上の時刻を無線送信し、各ロボットがこの無線信号を受信することにより時刻を設定している。   FIG. 10 illustrates another example of a mechanism for synchronizing time between robots and between a robot and a general controller. In the example shown in the figure, the time on the operating system of the general controller using the system (overall controller) operating the time management system, the wireless communication device connected to the system, and the application software for controlling the wireless communication device. Is transmitted wirelessly, and the time is set by each robot receiving this wireless signal.

D.コントローラ・アプリケーション
統括コントローラは、モニタ・システムから得られた各ロボットの位置及び方向などの情報に基づいて、ロボットの動作を統括的に管理することにより、シナリオが円滑に進行するようにマルチロボットを運用する。さらに、統括コントローラのGUI画面を介して、動作フィールド上の各ロボットの位置確認、各ロボットの最大可動範囲並びに転倒範囲、ロボット間の干渉領域を表示し、オペレータはこれらを視覚的に確認することができる。
D. The controller / application controller controls the multi-robots so that the scenario progresses smoothly by comprehensively managing the robot operations based on information such as the position and direction of each robot obtained from the monitor system. operate. In addition, the position of each robot on the operation field, the maximum movable range and fall range of each robot, and the interference area between the robots are displayed via the GUI screen of the general controller, and the operator can visually confirm these. Can do.

図11には、統括コントローラが提供する、マルチロボット運用GUI画面の構成例を示している。   FIG. 11 shows a configuration example of a multi-robot operation GUI screen provided by the overall controller.

図示のGUI画面のメインビューは、動作フィールド上でのマルチロボットの現在状態の表示と、ロボット間の干渉領域の表示と、偏差予測の表示と、軌道表示とを、タブの選択により切り替えられるようになっている。   The main view of the GUI screen shown in the figure can be switched by selecting a tab between the display of the current state of the multi-robot on the operation field, the display of the interference area between the robots, the display of the deviation prediction, and the trajectory display. It has become.

図11に示す例では、メインビューは、マルチロボットの現在状態の表示がなされている。図示の例では、Chalie、Audrey、Ken、Marcoとそれぞれ名付けられた4台のロボットが動作フィールドで動作計画上にある。現在状態表示は、例えば、鳥瞰図による2次元表示と斜視3次元表示の2通りで提示されるが、その他の視野での表示を行なうようにしてもよい。図示の例では、鳥瞰図において、各ロボットの目標位置と現実の位置及び方向のそれぞれをこれらのフットプリントにより提示しているので、オペレータは、画面を介して目標位置と現在位置姿勢を視覚的に確認し、現在のマルチロボットの状態を的確に判断することができる。   In the example shown in FIG. 11, the main view displays the current state of the multi-robot. In the illustrated example, there are four robots named Chalie, Audrey, Ken, and Marco on the motion plan in the motion field. The current state display is presented in two ways, for example, a two-dimensional display by a bird's eye view and a perspective three-dimensional display, but may be displayed in other fields of view. In the illustrated example, in the bird's eye view, the target position and the actual position and direction of each robot are presented by these footprints, so the operator visually indicates the target position and current position and orientation via the screen. It is possible to confirm and accurately determine the current multi-robot state.

また、メインビューの下方では、マルチロボットに関する位置情報の2次元並びに3次元表示に併せて、各ロボットの位置情報を数値で提示している。位置情報の数値表示の形態として、図11に示す例では、位置偏差、目標位置、現在位置、状態、動作計画の表示をタブの選択により切り替えるようになっている。図示の例では、位置偏差が選択されており、4台の各ロボットのX、Y、Z、並びにロール、ピッチ、ヨーの6軸についての目標位置と現在位置及び方向との偏差が数値表示されている。   Further, below the main view, the position information of each robot is presented numerically together with the two-dimensional and three-dimensional display of the position information regarding the multi-robot. In the example shown in FIG. 11, as a form of numerical display of position information, display of position deviation, target position, current position, state, and operation plan is switched by selecting a tab. In the example shown in the figure, the position deviation is selected, and the deviations between the target position and the current position and direction for the six axes X, Y, Z and roll, pitch, and yaw of each of the four robots are displayed numerically. ing.

各ロボットの現在位置及び方向は、モニタ・システムがカメラの撮像画像を画像処理して得ることができる。位置偏差が大きいときには、位置及び方向の修正処理を起動することができるが、この点については後述に譲る。   The current position and direction of each robot can be obtained by the monitor system processing the captured image of the camera. When the position deviation is large, the position and direction correction processing can be started, but this point will be described later.

干渉領域:
メインビューで干渉領域タブを選択すると、図12に示すような干渉領域の確認画面に切り替わり、オペレータは、ロボット同士の安全距離を視覚的に確認することができる。図中で4つの大きな円は、各ロボットが転倒に使用されうる場所を表している。また、各円に含まれる楕円は、動作中のロボットの最大可動範囲を表している。
Interference area:
When the interference area tab is selected in the main view, the screen is switched to an interference area confirmation screen as shown in FIG. 12, and the operator can visually confirm the safe distance between the robots. In the figure, four large circles represent places where each robot can be used for falling. An ellipse included in each circle represents the maximum movable range of the robot in operation.

最大可動範囲は、より詳細な情報として、ロボットに割り当てられた動作計画から当該ロボットが使用する領域をあらかじめ導入しておいたものを使用することができる。   As the maximum movable range, as a more detailed information, a range in which an area used by the robot is previously introduced from an operation plan assigned to the robot can be used.

このように、ロボット間の干渉領域は、それぞれの最大可動範囲の重なり具合という形で視覚的に表示される。また、このような干渉領域の情報を利用して、周囲のロボットの可動範囲に進入しないように、転倒方向の制限を課すこともできる。   In this way, the interference area between the robots is visually displayed in the form of the overlapping state of the respective maximum movable ranges. Moreover, it is also possible to impose a limit on the fall direction so as not to enter the movable range of the surrounding robot using such information on the interference area.

図13には、ロボットの転倒方向に制限を課する処理手順をフローチャートの形式で示している。   FIG. 13 shows a processing procedure for imposing a restriction on the direction in which the robot falls over in the form of a flowchart.

まず、ロボット装置間の干渉領域を算出するとともに(ステップS1)、各ロボットの転倒動作に対応した転倒領域を算出する(ステップS2)。例えば、転倒方向が前でも強制的に後ろに転倒する転倒動作の転倒領域は、ロボットの後方に生じる。   First, an interference area between the robot devices is calculated (step S1), and a fall area corresponding to the fall operation of each robot is calculated (step S2). For example, a fall region of a fall operation that forcibly falls backward even when the fall direction is in front occurs behind the robot.

次いで、ロボット装置間で、干渉領域や転倒領域の重複領域を算出し(ステップS3)、重複領域があるかどうかを判別する(ステップS4)。   Next, the overlapping area of the interference area and the falling area is calculated between the robot devices (step S3), and it is determined whether there is an overlapping area (step S4).

ここで、重複領域がある場合には、重複領域を含む転倒領域群を算出し(ステップS5)、各ロボットが備えている転倒領域群のうち、重複領域を含む転倒領域群に対応する転倒動作を使用禁止にする(ステップS6)。   Here, if there is an overlap area, a fall area group including the overlap area is calculated (step S5), and among the fall area groups included in each robot, the fall operation corresponding to the fall area group including the overlap area is performed. Is disabled (step S6).

一方、ロボット装置間で重複領域がない場合には(ステップS4)、各ロボット装置において使用禁止に設定されていた転倒動作群を使用可能にする(ステップS7)。   On the other hand, when there is no overlapping area between the robot devices (step S4), the overturning operation group that has been set to be prohibited for use in each robot device is enabled (step S7).

そして、処理を継続する場合には(ステップS8)、当該処理ルーチンの先頭に戻り、処理を終了することができる場合には本処理ルーチン全体を終了する。
上記の例はロボット装置間の転倒時における転倒重複領域を考慮した転倒方向の制限に関する内容であるが、転倒方向の制限はロボット装置が動作フィールド端にいる場合やロボット装置以外の障害物がある場合などでも考慮される。
When the process is continued (step S8), the process returns to the top of the process routine, and when the process can be completed, the entire process routine is terminated.
The above example is about the restriction of the fall direction in consideration of the fall overlap area when the fall between the robot devices, but the fall direction restriction is when the robot device is at the end of the operation field or there are obstacles other than the robot device Cases are also considered.

偏差予測:
メインビューで偏差予測タブを選択すると、図14に示すような、特定時刻での各ロボットの目標位置との偏差を示した偏差推定画面に切り替わる。オペレータは、シナリオを運用中に、特定時刻における位置方向偏差を推定し、画面上でその推定偏差を確認することができる。例えば、ある「動作計画」の中にマイクが置かれている場所へ正確に移動しなければいけない場面がある場合や、動作フィールドの端で落下の可能性がある場所へ移動しなければいけない場面がある場合に、オペレータは偏差推定を利用することで、重大なトラブルが発生する前に処置すべき内容を判断することができる。
Deviation prediction:
When the deviation prediction tab is selected in the main view, the screen is switched to a deviation estimation screen showing the deviation from the target position of each robot at a specific time as shown in FIG. While operating the scenario, the operator can estimate the positional deviation at a specific time and confirm the estimated deviation on the screen. For example, when there is a scene that must move to the place where the microphone is placed in a certain motion plan, or a scene that must move to the place where the microphone may fall at the end of the motion field In such a case, the operator can use the deviation estimation to determine the content to be treated before a serious trouble occurs.

本実施形態では、ロボットの位置方向の偏差を、過去実行したモーションの結果に基づいて予測する。過去に行なったロボットの動作に基づいて当該ロボットの運動特性を算出することができる。そして、将来行なう動作計画を実行したときの計画値との誤差を、ロボットの運動特性に基づいて予測する。   In this embodiment, the deviation in the position direction of the robot is predicted based on the result of the motion executed in the past. Based on the movement of the robot performed in the past, the motion characteristic of the robot can be calculated. Then, an error from a planned value when a motion plan to be performed in the future is executed is predicted based on the motion characteristics of the robot.

より具体的に言えば、過去一定期間ts〜tm1にモーションを実行したときに生じた誤差を観測するとともに、過去一定期間ts〜tm1に実行したモーションを要素運動毎に分割し、要素運動毎に生じる誤差を推定する。ここで言う要素運動とは、モーションを時間軸又は部位運動毎に分割したものを言う。そして、以後tm2〜teに至るまでの期間に実行するモーションを要素運動に分割し、これらの要素運動が持つ推定誤差を合計することにより、時刻teにおける位置及び方向の誤差を推定することができる。 More specifically, while observing the error that occurred when the motion was executed in the past fixed period t s to t m1 , the motion executed in the past fixed period t s to t m1 is divided for each element motion, Estimate the error that occurs for each element motion. The element motion here refers to a motion divided for each time axis or part motion. Then, the motion to be executed in the period from t m2 to t e is divided into element motions, and the error of position and direction at time t e is estimated by summing the estimation errors of these element motions. be able to.

図15には、位置方向の偏差を推定するための処理手順をフローチャートの形式で示している。   FIG. 15 shows a processing procedure for estimating the deviation in the position direction in the form of a flowchart.

まず、時刻ts、tm1、tm2、teを設定する(ステップS11)。通常はtm1=tm2である。 First, it sets the time t s, t m1, t m2 , t e ( step S11). Usually, t m1 = t m2 .

そして、時刻ts〜tm1間に実行されたl番目のロボットの要素運動jによって生じた移動誤差と方向誤差の算出する(ステップS12)。移動誤差と方向誤差は下式のように表される。 Then, the movement error and the direction error caused by the element motion j of the l-th robot executed between times t s and t m1 are calculated (step S12). The movement error and the direction error are expressed as follows.

Figure 0004671628
Figure 0004671628

また、時刻tm2〜te間に実行予定の目標運動列を要素運動jの数njに分解する(ステップS13)。 Further, the target motion sequence scheduled to be executed between times t m2 and t e is decomposed into the number n j of element motions j (step S13).

また、時刻tm2における移動誤差と方向誤差(初期誤差)を取得する(ステップS14)。移動誤差及び方向誤差は下式のように表される。 Further, a movement error and a direction error (initial error) at time t m2 are acquired (step S14). The movement error and the direction error are expressed as follows.

Figure 0004671628
Figure 0004671628

次いで、時刻tm2〜te間に実行予定の目標運動列をl番目のロボットを用いて実行した場合に生じる移動誤差と方向誤差の推定値を算出する(ステップS15)。移動誤差と方向誤差は下式のように表される。 Next, an estimated value of a movement error and a direction error generated when the target motion sequence scheduled to be executed between times t m2 and t e is executed using the l-th robot is calculated (step S15). The movement error and the direction error are expressed as follows.

Figure 0004671628
Figure 0004671628

そして、時刻teにおけるl番目のロボットの移動誤差と方向誤差の推定値を算出する(ステップS16)。移動誤差と方向誤差は下式のように表される。 Then, to calculate the estimated value of the movement error and the direction error of the l-th robot at time t e (step S16). The movement error and the direction error are expressed as follows.

Figure 0004671628
Figure 0004671628

位置方向の偏差が大きいときには、位置及び方向の修正処理を起動することができるが、この点については後述に譲る。   When the deviation in the position direction is large, the position and direction correction processing can be started, but this point will be described later.

軌道表示:
メインビューで軌道表示タブを選択すると、各ロボットの軌道を表示する画面に切り替わる。軌道表示の簡単な例は、鳥瞰図又は斜視した動作フィールド路面に、各ロボットの過去、現在、未来に渡る歩すなわち足跡(フットプリント)を該当する場所に配置していくというものである。脚式移動ロボットにおいては、歩を基本に動作計画が立てられるので、このように歩を利用した軌道の表示は極めて有効である。このとき、時間軸に応じて(例えば過去か未来かに応じて)色分け表示してもよいし、ロボット毎に別の色で足跡を表示するようにしてもよい。
Orbit display:
Selecting the trajectory display tab in the main view switches to a screen that displays the trajectory of each robot. A simple example of the trajectory display is that the robot's past, present, and future steps, that is, footprints (footprints) are arranged at corresponding locations on a bird's eye view or a perspective motion field road surface. In a legged mobile robot, since an action plan can be made based on walking, the display of the trajectory using the walking in this way is extremely effective. At this time, color-coded display may be performed according to the time axis (for example, according to past or future), or footprints may be displayed in different colors for each robot.

ここで、3D画面で歩の軌道を表示する場合、足踏みが非常に多かったり、ダンスのように同じ場所を何度も行き来したりするような場面では、特定の場所に歩の表示が密集するため、時刻の経過に伴う歩の軌道を画面表示で確認することが困難になる、という問題がある。   Here, when displaying the trajectory of a step on a 3D screen, the display of the step is concentrated in a specific place in a scene where there are many steps or the same place is visited many times like dance. Therefore, there is a problem that it becomes difficult to confirm the trajectory of the step with the passage of time on the screen display.

そこで、本実施形態では、Z軸を時間軸においた歩の軌道表示を行なうようにした。脚式移動ロボットの作業領域は、一般に平面すなわちZ軸方向に変化する頻度が低く、歩を空間的に表示する上でZ軸の重要性は低い。そこで、Z軸を時間軸に指定し、XY軸への移動と姿勢(ロール,ピッチ,ヨー)の軌道が時刻の経過に沿って視覚的に確認できるようにした。   Therefore, in this embodiment, the trajectory display of the step with the Z axis as the time axis is performed. The work area of a legged mobile robot generally has a low frequency of change in the plane, that is, in the Z-axis direction, and the Z-axis is less important for spatially displaying steps. Therefore, the Z axis is designated as the time axis, and the movement to the XY axis and the trajectory of the posture (roll, pitch, yaw) can be visually confirmed as time passes.

図16には、Z軸を時間軸においた歩の軌道を3D表示の例を示している。同図に示す例では、Z軸正方向を時間軸に設定しており、足踏みを行なった場所では複数の歩がZ軸方向に積み重ねられて表示されている。勿論、時間軸をZ軸正方向ではなく負方向に割り当ててもよい。   FIG. 16 shows an example of 3D display of the trajectory of a step with the Z axis as the time axis. In the example shown in the figure, the Z-axis positive direction is set as the time axis, and a plurality of steps are stacked and displayed in the Z-axis direction at the place where the step is performed. Of course, the time axis may be assigned to the negative direction instead of the Z-axis positive direction.

脚式移動ロボットの作業領域がZ軸方向に変化する頻度が低いとはいえ、全くない訳ではない。例えば、階段の昇降などである。図17には、ロボットが階段を昇降したときの通常の歩の3D表示例を示している。これに対し、図18には、Z軸負方向に時間軸を設定して、階段の昇降したときの歩を表示した前額面、矢状面、並びに斜視図を示している。   Although the frequency of the work area of the legged mobile robot changing in the Z-axis direction is low, it is not completely absent. For example, raising and lowering stairs. FIG. 17 shows a 3D display example of a normal step when the robot moves up and down the stairs. On the other hand, FIG. 18 shows a frontal plane, a sagittal plane, and a perspective view in which the time axis is set in the negative direction of the Z axis and the steps when the stairs are raised and lowered are displayed.

上述したような歩の軌道表示は、シナリオの運用では、時刻の経過に伴う各ロボットの位置を把握することは非常に重要であり、オペレータは干渉領域確認や偏差表示との組み合わせで状況判断がより的確に行なえるようになる。   In the operation of scenarios, it is very important to grasp the position of each robot as time passes, and the operator can judge the situation by combining interference area confirmation and deviation display. You will be able to do it more accurately.

E.マルチロボット・システムにおける各ロボットの位置及び方向の監視、状態監視
上述したようにマルチロボット・システムでは、役が割り当てられた各ロボットがそれぞれ与えられた動作計画を同期的に実行することにより、舞台などの動作フィールド上で連携した協調的な行動を振る舞うことにより、シナリオ通りのパフォーマンスを提示することができる。
E. Monitoring of the position and direction of each robot in the multi-robot system, state monitoring As described above, in the multi-robot system, each robot to which a role is assigned executes its assigned motion plan in a synchronized manner. It is possible to present the performance according to the scenario by behaving in a coordinated action on the operation field.

各ロボットにはそれぞれの役が割り振られており、役に応じた開始時刻や開始位置方向がシナリオ内で記述されている(前述並びに図6を参照のこと)。ところが、シナリオの運用中には、滑りや傾斜などの路面状態といった外的要因、個々のロボット装置の状態などの内的要因により、所定時刻に目標位置に到達していない、あるいは目標方向に向いていない、という事態が発生し得る。こういった現状が一連の動作中に蓄積すると、計画した動作を遂行することができなくなり、マルチロボットの位置及び方向のずれとして顕在化する。   Each robot is assigned with each combination, and the start time and the start position direction corresponding to the combination are described in the scenario (see the above and FIG. 6). However, during the operation of the scenario, the target position has not been reached at the predetermined time or the target direction has been reached due to external factors such as road surface conditions such as slipping and tilting, and internal factors such as the state of individual robot devices. It can happen. If such a current state is accumulated during a series of operations, the planned operation cannot be performed, and this becomes manifest as a shift in the position and direction of the multi-robot.

そこで、本実施形態では、モニタ・システムが動作フィールドを一望できるカメラが捉えた映像を画像処理して各ロボットの位置及び方向を取得し、統括コントローラは、モニタ・システムから得られた各ロボットの位置及び方向などの情報に基づいて、動作フィールド内で時々刻々と変化する各ロボットの位置、方向、状態を把握するようになっている。   Therefore, in this embodiment, the monitor system obtains the position and direction of each robot by performing image processing on the video captured by the camera that can overlook the operation field, and the overall controller obtains each robot obtained from the monitor system. Based on information such as position and direction, the position, direction, and state of each robot that changes every moment within the motion field are grasped.

舞台などの動作フィールドの上方には天井カメラが設置されており、シナリオを実行するマルチロボットの様子を鳥瞰図として得ることができる。モニタ・システムは、天井カメラによる撮影画像を画像認識して、時々刻々変わる各ロボットの位置と方向を特定することができる(図19を参照のこと)。そして、統括コントローラは、モニタ・システムから、各ロボットのある時刻における位置と方向に関する情報を取得することができる(図20を参照のこと)。   A ceiling camera is installed above the operation field such as the stage, and the state of the multi-robot executing the scenario can be obtained as a bird's eye view. The monitor system can recognize the image captured by the ceiling camera and identify the position and direction of each robot that changes from time to time (see FIG. 19). Then, the overall controller can acquire information on the position and direction of each robot at a certain time from the monitor system (see FIG. 20).

図21には、統括コントローラがモニタ・システムから、ある時刻におけるロボットの位置及び方向に関する情報を取得するための処理手順をフローチャートの形式で示している。図示の例では、位置情報の取得は、統括コントローラからの要求ベースで行なわれる。すなわち、統括コントローラが、モニタシステムーデータの取得要求を発行すると、モニタ・システムは、時刻、位置、方向データを取得し、統括コントローラへ転送する。   FIG. 21 shows, in the form of a flowchart, a processing procedure for the general controller to acquire information on the position and direction of the robot at a certain time from the monitor system. In the illustrated example, the acquisition of the position information is performed on a request basis from the overall controller. That is, when the general controller issues a monitor system data acquisition request, the monitor system acquires time, position, and direction data and transfers them to the general controller.

また、図22には、モニタ・システムが天井カメラの撮影画像を基に、ロボットの位置及び方向を取得し、統括コントローラへ転送するための処理手順をフローチャートの形式で示している。   FIG. 22 is a flowchart showing a processing procedure for the monitor system to acquire the position and direction of the robot based on the image taken by the ceiling camera and transfer it to the general controller.

モニタ・システムは、天井カメラから画像データを取得すると、所定の画像処理を施すことにより、視野内又は動作フィールド上の各ロボットの位置及び方向データを作成する。そして、統括コントローラからデータ要求があると、この作成データを転送する。   When the monitor system acquires image data from the ceiling camera, it performs predetermined image processing to create position and direction data of each robot within the visual field or on the operation field. When there is a data request from the general controller, the created data is transferred.

ロボットの状態検出については、ロボット内蔵のセンサによりロボット自身が認識することができる。ここで言うロボットの状態には、現在の姿勢情報(立ち姿勢、寝姿勢)、動作が正常又は異常か、バッテリの残量などが含まれる。また、統括コントローラは各ロボットと無線LAN経由で接続されており、ロボットの状態をリアルタイムに取得することができる。   Regarding the detection of the robot state, the robot itself can be recognized by a sensor built in the robot. The state of the robot mentioned here includes current posture information (standing posture, sleeping posture), whether the operation is normal or abnormal, the remaining battery level, and the like. The overall controller is connected to each robot via a wireless LAN, and can acquire the state of the robot in real time.

F.マルチロボット・システムにおける各ロボットの位置及び方向の修正計画
マルチロボット・システムでは、役が割り当てられた各ロボットがそれぞれ与えられた動作計画を同期的に実行することにより、舞台などの動作フィールド上で連携した協調的な行動を振る舞うことにより、シナリオ通りのパフォーマンスを提示することができる。
F. Revision plan of each robot's position and direction in the multi-robot system In the multi-robot system, each robot to which a role is assigned executes the given motion plan on the motion field such as the stage. By performing coordinated and coordinated actions, it is possible to present performance according to the scenario.

各ロボットにはそれぞれの役が割り振られており、役に応じた開始時刻や開始位置方向がシナリオ内で記述されている(前述並びに図6を参照のこと)。ところが、シナリオの運用中には、滑りや傾斜などの路面状態といった外的要因、個々のロボット装置の状態などの内的要因により、所定時刻に目標位置に到達していない、あるいは目標方向に向いていない、という事態が発生し得る。こういった現状が一連の動作中に蓄積すると、計画した動作を遂行することができなくなり、マルチロボットの位置及び方向のずれとして顕在化する。   Each robot is assigned with each combination, and the start time and the start position direction corresponding to the combination are described in the scenario (see the above and FIG. 6). However, during the operation of the scenario, the target position has not been reached at the predetermined time or the target direction has been reached due to external factors such as road surface conditions such as slipping and tilting, and internal factors such as the state of individual robot devices. It can happen. If such a current state is accumulated during a series of operations, the planned operation cannot be performed, and this becomes manifest as a shift in the position and direction of the multi-robot.

このような位置及び方向のずれは観衆に与える見栄えに影響するとともに、ロボット装置間の干渉などパフォーマンス自体へも影響する。何故なら、本来いるはずのない場所にロボットが立つことになり、本来同じ場所にいるべき他のロボットと干渉又は衝突してしまうことになる。   Such a shift in position and direction affects the appearance given to the audience and also affects the performance itself, such as interference between robot devices. This is because the robot will stand in a place where it should not be, and will interfere or collide with other robots that should be in the same place.

そこで、本実施形態では、モニタ・システムが動作フィールドを一望できるカメラが捉えた映像を画像処理して各ロボットの位置及び方向を取得し、統括コントローラは、モニタ・システムから得られた各ロボットの位置及び方向などの情報に基づいて、ロボットの動作を統括的に管理することで、シナリオが円滑に進行するようにマルチロボットを運用する。   Therefore, in this embodiment, the monitor system obtains the position and direction of each robot by performing image processing on the video captured by the camera that can overlook the operation field, and the overall controller obtains each robot obtained from the monitor system. The multi-robot is operated so that the scenario proceeds smoothly by comprehensively managing the operation of the robot based on information such as the position and direction.

統括コントローラは、上述したコントローラ・アプリケーションにより、ロボットの目標とする位置方向と現在の位置方向の偏差を随時確認することができる(図11を参照のこと)。さらに、いずれかのロボットの現在位置と目標位置との位置方向偏差が大きいとき、あるいは将来推定される位置と目標位置との位置方向偏差が大きいときには、位置及び方向の修正処理を起動することができる。   The general controller can check the deviation between the target position direction of the robot and the current position direction at any time by the controller application described above (see FIG. 11). Furthermore, when the position / direction deviation between the current position and the target position of any robot is large, or when the position / direction deviation between the position estimated in the future and the target position is large, the position and direction correction processing may be started. it can.

本実施形態に係る位置及び方向の修正計画では、状況に応じて、2種類の位置方向の修正方法を用意している。1つは、「補正計画」であり、これはロボットが動作計画を実行中に動作計画内の既存の歩を補正することで位置方向の偏差を修正するというものである。もう1つは、「移動計画」であり、これはロボットが動作計画を実行していない場面を利用して、新たな1つ以上の歩を生成して位置方向の偏差を修正するものである。   In the position and direction correction plan according to the present embodiment, two types of position direction correction methods are prepared depending on the situation. One is a “correction plan”, in which a positional deviation is corrected by correcting an existing step in the motion plan while the robot is executing the motion plan. The other is a “movement plan”, which uses a scene where the robot is not executing a motion plan to generate one or more new steps and correct the positional deviation. .

図23には、位置及び方向の修正計画の手順をフローチャートの形式で示している。   FIG. 23 shows the procedure of the position and direction correction plan in the form of a flowchart.

統括コントローラは、モニタ・システムから取得したデータに基づいて、動作フィールドで活動しているいずれかのロボットについて、位置及び方向を補正する必要があるかどうかを判別する(ステップS21)。   Based on the data acquired from the monitor system, the general controller determines whether or not it is necessary to correct the position and direction of any robot active in the operation field (step S21).

いずれかのロボットにおいて、位置及び方向を補正する必要があると判断したときには、続いて、当該ロボットが現在シナリオを実行中であるかどうかを判別する(ステップS22)。ここで、シナリオを実行中でなければ、移動計画を立てることに決定する(ステップS25)。移動計画を立てるための処理手順の詳細については、後述に譲る。   If it is determined that any of the robots needs to be corrected in position and direction, it is determined whether or not the robot is currently executing a scenario (step S22). Here, if the scenario is not being executed, it is determined to make a movement plan (step S25). Details of the processing procedure for making a movement plan will be described later.

また、ロボットがシナリオを実行中であれば、さらに当該ロボットがシナリオ内で動作計画を実行中又は動作計画間の途切れであるか、あるいは移動計画を実行中であるかを判別する(ステップS23)。ここで、ロボットが動作計画及び移動計画のいずれも実行していないときには、移動計画を立てることに決定する(ステップS25)。   If the robot is executing a scenario, it is further determined whether the robot is executing an operation plan within the scenario, an interruption between operation plans, or a movement plan (step S23). . Here, when the robot is not executing either the motion plan or the movement plan, it is decided to make a movement plan (step S25).

一方、当該ロボットが動作計画又は移動計画のいずれかを実行していることには、補正計画を立てることに決定する(ステップS24)。補正計画は、現在実行中の計画が成功裏に終了するよう、当該計画内の既存の歩を補正する補正計画を立てることに決定する。   On the other hand, when the robot is executing either the motion plan or the movement plan, it is decided to make a correction plan (step S24). The correction plan is determined to make a correction plan that corrects the existing steps in the plan so that the currently executing plan ends successfully.

ロボットへ通知する計画がある場合には(ステップS26)、当該計画をロボットへ通知する(ステップS27)。そして、当該処理ルーチンを終了可能であれば終了し、そうでなければステップS21に戻り、上述と同じ処理を繰り返し行なう。   When there is a plan to notify the robot (step S26), the robot is notified of the plan (step S27). If the processing routine can be ended, the processing routine ends. Otherwise, the processing routine returns to step S21 and the same processing as described above is repeated.

F−1.補正計画
動作計画の中で、脚の軌道は、ロボットの足底軌道となる「歩」を1単位として管理されている。図24には、脚の軌道を歩で管理している様子を示している。ある時刻での歩は(x,y,z,roll,pitch,yaw)のパラメータで表され、その座標原点は通常、動作計画の開始点となる。なお、空間を表す単位であれば、オイラー角空間でなくてもよい。図24に示した歩のパラメータは例えば下表のように表される。
F-1. In the correction plan operation plan, the trajectory of the leg is managed with a “step” serving as the sole trajectory of the robot as one unit. FIG. 24 shows how the leg trajectory is managed by walking. A step at a certain time is represented by parameters (x, y, z, roll, pitch, yaw), and the coordinate origin is usually the start point of the motion plan. As long as the unit represents a space, the Euler angle space may not be used. The walking parameters shown in FIG. 24 are expressed as shown in the table below, for example.

Figure 0004671628
単位
x,y,x:[m]
roll.pitch.yaw:[deg]
Figure 0004671628
Unit x, y, x: [m]
roll. pitch. yaw: [deg]

この例では、座標の原点を初期位置、時間は開始時刻を0とした相対値を用いているが、座標・時刻それぞれについて絶対値を用いても良い。   In this example, the relative value with the origin of coordinates as the initial position and the start time as 0 is used, but an absolute value may be used for each coordinate and time.

続いて、歩の偏差について説明する。動作計画の運用時に発生する位置方向偏差の蓄積量を(x1,y1,z1,roll1,pitch1,yaw1)と表す。位置補正は、基本的にある時刻における位置方向偏差の各成分を0にすることが目的であり、偏差から算出された補正量(x2,y2,z2,roll2,pitch2,yaw2)を計画した歩に付加し、それをロボットが実行することでこの目的を達成する。計画した歩に補正量を付加したものを「補正歩」とここでは呼ぶことにする。補正歩(X,Y,Z,ROLL,PITCH,YAW)は次式のように表すことができる。 Next, the step deviation will be described. The accumulated amount of positional direction deviation that occurs during the operation plan operation is expressed as (x 1 , y 1 , z 1 , roll 1 , pitch 1 , yaw 1 ). The purpose of position correction is basically to set each component of the position direction deviation at a certain time to 0, and correction amounts (x 2 , y 2 , z 2 , roll 2 , pitch 2 , yaw calculated from the deviation). 2 ) is added to the planned steps, and this is achieved by the robot executing it. Here, what is obtained by adding a correction amount to a planned step is referred to as a “correction step”. The corrected steps (X, Y, Z, ROLL, PITCH, YAW) can be expressed as follows:

Figure 0004671628
Figure 0004671628

本明細書では、動作計画の中で偏差が無くなるように補正歩を組み合わせた軌道計画のことを「補正計画」と呼ぶ。   In this specification, a trajectory plan in which correction steps are combined so that there is no deviation in the motion plan is referred to as a “correction plan”.

図25には、図24に示した計画軌道に対して、動作計画の運用時に発生した偏差を示している。また、図示の歩の偏差を下表に示している。   FIG. 25 shows deviations generated during operation plan operation with respect to the planned trajectory shown in FIG. In addition, the deviation of the illustrated steps is shown in the table below.

Figure 0004671628
単位
x,y,x:[m]
roll.pitch.yaw:[deg]
Figure 0004671628
Unit x, y, x: [m]
roll. pitch. yaw: [deg]

補正量(x2,y2,z2,roll2,pitch2,yaw2)は、偏差量から求まるので、基本的には下式のように表すことかできる。 The correction amount (x 2 , y 2 , z 2 , roll 2 , pitch 2 , yaw 2 ) is obtained from the deviation amount, and can be basically expressed as the following equation.

Figure 0004671628
Figure 0004671628

しかしながら、実際には、補正量は、実際に使用しているロボットの特性や舞台(動作フィールド)の状態、脚関節角やアクチュエータ速度、加速度、自己干渉によるロボットに課される運用上の制限を考慮して算出する必要がある。このため、実際の補正量は、一般に、下式に示すように、動作計画の運用時に発生する時間や位置方向偏差の蓄積量の関数として表される。   However, in practice, the amount of correction is not limited to the operational restrictions imposed on the robot due to the characteristics of the robot actually used, the state of the stage (motion field), the leg joint angle, actuator speed, acceleration, and self-interference. It is necessary to calculate in consideration. For this reason, the actual correction amount is generally expressed as a function of the accumulated amount of time and position direction deviation occurring during operation of the motion plan, as shown in the following equation.

Figure 0004671628
Figure 0004671628

ここで、ロボットの特性は、事前に基準環境下で調査されている。1歩毎の平均的な偏差量が、他のパラメータと同様(x3,y3,z3,roll3,pitch3,yaw3)で数値化されているため、偏差量からこの値を差し引いた値が補正量となる。 Here, the characteristics of the robot are investigated in advance under a reference environment. Since the average deviation amount for each step is quantified in the same way as other parameters (x 3 , y 3 , z 3 , roll 3 , pitch 3 , yaw 3 ), this value is subtracted from the deviation amount. The corrected value is the correction amount.

また、動作フィールドの状態によってロボットの挙動が左右される。特に、動作フィールドの路面環境で歩の偏差量は大きく影響を受ける。動作計画を運用する際、開始時からの歩の偏差統計を取り1歩毎の平均偏差量(x4,y4,z4,roll4,pitch4,yaw4)を算出する。この値はこの先発生する偏差の予測量であり、修正量は予めこの値を考慮して算出する。 Also, the behavior of the robot depends on the state of the motion field. In particular, the deviation amount of the step is greatly influenced by the road surface environment in the operation field. When the operation plan is used, the deviation statistics of the steps from the start are taken and the average deviation amount (x 4 , y 4 , z 4 , roll 4 , pitch 4 , yaw 4 ) for each step is calculated. This value is the predicted amount of the deviation that will occur in the future, and the correction amount is calculated in consideration of this value in advance.

ロボットに課される制約には、機体に課される制約と運用上の制約がある。上式[数5]並び[数7]により得られた歩の軌道に対して、逆運動学などを用いて脚関節の軌道を算出する。さらに、(時間的に可能であれば)個々の関節に対する速度・加速度や自己干渉についても調べ、それぞれの制限事項を満足しているか判断する。制限事項を満たしていない場合は、一定の基準で補正量を減らす。また、ロボット機体が持つ制約に関しては、見栄えの面や安全な運用を考えて、より強い制約を課すことがある。   The restrictions imposed on the robot include the restrictions imposed on the aircraft and operational restrictions. The trajectory of the leg joint is calculated using inverse kinematics or the like with respect to the trajectory of the step obtained by the above [Formula 5] and [Formula 7]. Furthermore, the speed / acceleration and self-interference for each joint are also examined (if possible in time) to determine whether the respective restrictions are satisfied. If the restrictions are not met, the correction amount is reduced according to a certain standard. In addition, with respect to the constraints of the robot body, stronger constraints may be imposed in consideration of appearance and safe operation.

図26には、補正計画を立てるための処理手順をフローチャートの形式で示している。   FIG. 26 shows a processing procedure for making a correction plan in the form of a flowchart.

まず、統括コントローラは、シナリオから得られる該当するロボットの位置方向の計画値と、モニタ・システムから取得された現在値から、補正用の偏差(x1,y1,z1,roll1,pitch1,yaw1)を算出する(ステップS31)。 First, the overall controller determines a correction deviation (x 1 , y 1 , z 1 , roll 1 , pitch) from the planned value in the direction of the position of the corresponding robot obtained from the scenario and the current value acquired from the monitor system. 1 , yaw 1 ) is calculated (step S31).

次いで、現在時刻以降で、動作計画内の既存の歩のうち補正する歩を選択し、補正の暫定量を導出する(ステップS32)。   Next, after the current time, a step to be corrected is selected from existing steps in the motion plan, and a provisional amount of correction is derived (step S32).

次いで、暫定的に得られた補正量に対し、ロボットの特性や動作フィールドの状態を考慮した補正量へ修正を行なう(ステップS33)。   Next, the provisional correction amount is corrected to a correction amount that takes into account the characteristics of the robot and the state of the motion field (step S33).

さらに、このようにして得られた補正量から、現在のロボットの姿勢やロボットの制約(関節角制限、角速度制限、角加速度制限、自己干渉など)を考慮した厳密な補正量へ更新する(ステップS34)。   Furthermore, the correction amount obtained in this way is updated to a strict correction amount considering the current robot posture and robot constraints (joint angle limitation, angular velocity limitation, angular acceleration limitation, self-interference, etc.) (step S34).

そして、ロボットの制約を考慮した補正量に対して、見栄えや安全性を考慮した制約を基に補正量を更新する(ステップS35)。   Then, the correction amount is updated with respect to the correction amount considering the constraints of the robot based on the constraints considering appearance and safety (step S35).

統括コントローラは、得られた補正量(x2,y2,z2,roll2,pitch2,yaw2)を該当するロボットの補正歩(X,Y,Z,ROLL,PITCH,YAW)に反映させる(ステップS36)。 The overall controller reflects the obtained correction amounts (x 2 , y 2 , z 2 , roll 2 , pitch 2 , yaw 2 ) on the correction steps (X, Y, Z, ROLL, PITCH, YAW) of the corresponding robot. (Step S36).

図27には、上記のステップS32における、補正計画の対象となる歩について補正の暫定量を導出するための詳細な処理手順をフローチャートの形式で示している。   FIG. 27 shows a detailed processing procedure in the form of a flowchart for deriving a provisional correction amount for the step to be corrected in step S32 described above.

統括コントローラは、シナリオの中から、位置方向修正の処理対象となっているロボットの動作計画を参照し、現在時刻以降で補正のために使用することができる歩数を得る(ステップS41)。   The overall controller refers to the operation plan of the robot subject to the position / direction correction processing from the scenario, and obtains the number of steps that can be used for correction after the current time (step S41).

次いで、この歩数から、補正計画で使用する1又はそれ以上の歩を選択する(ステップS42)。   Next, one or more steps used in the correction plan are selected from the number of steps (step S42).

次いで、選択した歩に対して、歩が持つパラメータ(歩幅、旋回角、速度など)から推測できる補正の近似的な上限値を得る(ステップS43)。   Next, an approximate upper limit value of correction that can be estimated from the parameters (step length, turning angle, speed, etc.) of the step is obtained for the selected step (step S43).

そして、得られた情報を基に、次に修正する歩の補正量を決定する(ステップS44)。   Then, based on the obtained information, the correction amount of the next step to be corrected is determined (step S44).

F−2.移動計画
位置方向を修正しなければならないロボットが、現在動作計画又は移動計画を実行中のときには、上述したように補正歩を組み合わせた補正計画により修正を行なう。これに対し、位置方向を修正しなければならないロボットがいずれの動作計画も行なっていないときには、新たな歩を生成し、次の動作計画を実施するまでの間に位置方向を修正する移動計画を立てる(前述)。図28には、移動計画を立てるための処理手順をフローチャートの形式で示している。
F-2. When the robot whose movement plan position direction is to be corrected is currently executing the motion plan or the movement plan, the correction is performed by the correction plan combining the correction steps as described above. On the other hand, when the robot that has to correct the position and direction has not made any motion plan, it creates a new step and creates a movement plan that corrects the position and direction before executing the next motion plan. Stand up (mentioned above). FIG. 28 shows a processing procedure for making a movement plan in the form of a flowchart.

まず、その場において、例えば異なる足運びの集合から成る歩容ライブラリから選択するといった方法によって、印象のよい(見栄え若しくはその場に適した印象を与えられる)歩容を使用し(ステップS51)、役の優先順位に従い軌道計画を行なう(ステップS52)。   First, on the spot, a gait having a good impression (giving a good appearance or an impression suitable for the spot) is used, for example, by selecting from a gait library consisting of a set of different footsteps (step S51). Trajectory planning is performed according to the priority order of the winning combination (step S52).

ここで、ロボット装置駆動用バッテリの残エネルギの推定を行なう(ステップS53)。   Here, the remaining energy of the battery for driving the robot apparatus is estimated (step S53).

残エネルギが尽きると推定された場合には(ステップS54)、印象のよさではなく、より効率の高い他の歩容があるかどうかを検索する(ステップS58)。より効率の高い歩がある場合には、それに変更し(ステップS59)、ステップS52に復帰する。一方、より効率のよい歩容がない場合には、移動計画を終了する。   If it is estimated that the remaining energy is exhausted (step S54), it is searched whether there is another gait with higher efficiency rather than a good impression (step S58). If there is a step with higher efficiency, it is changed to that (step S59), and the process returns to step S52. On the other hand, if there is no more efficient gait, the movement plan is terminated.

残エネルギがあると推定された場合には(ステップS54)、さらにその残時間を推定する(ステップS55)。   If it is estimated that there is remaining energy (step S54), the remaining time is further estimated (step S55).

次いで、より効率の高い歩容に変更されたかどうかを判別する(ステップS56)。   Next, it is determined whether or not the gait has been changed to a more efficient gait (step S56).

より効率の高い歩容に変更されている場合には、次の動作計画が開始するまでの残時間が一定時間以上かどうかをさらに判別する(ステップS57)。そして、残時間が一定時間以上であれば移動計画を終了する。また、残時間が一定時間以下であれば、移動計画を中止、すなわち次の動作計画が開始するまでの位置方向の修正を諦める。   If the gait has been changed to a more efficient gait, it is further determined whether or not the remaining time until the next motion plan starts is a certain time or more (step S57). If the remaining time is equal to or longer than a certain time, the movement plan is terminated. If the remaining time is less than a certain time, the movement plan is canceled, that is, the correction of the position direction until the next operation plan starts is given up.

また、より効率の高い歩容に変更されていない場合には、次の動作計画が開始するまでの残時間が一定時間以上かどうかをさらに判別する(ステップS60)。そして、残時間が一定時間以上であれば移動計画を終了する。これに対し、残時間が一定時間以下であれば、より高速な歩容がある場合には(ステップS61)、より高速の歩容に変更し(ステップS62)、ステップS52に戻る。   If the gait has not been changed to a more efficient gait, it is further determined whether or not the remaining time until the next motion plan starts is a certain time or more (step S60). If the remaining time is equal to or longer than a certain time, the movement plan is terminated. On the other hand, if the remaining time is equal to or shorter than the predetermined time, if there is a faster gait (step S61), the gait is changed to a faster gait (step S62), and the process returns to step S52.

G.マルチロボット・システムにおける異常処理
シナリオを運用する際、路面状態・傾斜といった外的要因やロボット自身の内的要因、あるいはロボット同士の接触などによって、転倒回避動作が発動したり転倒したりすることがある。また、バッテリ残量の低下などのエネルギ不足による動作停止といったさまざまな異常状態が想定される。
G. When operating an abnormal processing scenario in a multi-robot system , a fall avoidance action may be triggered or fall down due to external factors such as road surface conditions / tilt, internal factors of the robot itself, or contact between robots. is there. Also, various abnormal states such as operation stop due to lack of energy such as a decrease in the remaining battery capacity are assumed.

従来、異常状態の処理は操作人の技能が求められ、他のロボットの動作を予測しながら異常からの復帰を図ることは非常に困難であった。   Conventionally, processing of an abnormal state requires the skill of an operator, and it has been very difficult to recover from the abnormality while predicting the operation of another robot.

これに対し、本実施形態に係るマルチロボット・システムでは、異常状態になったロボットが復帰できるかどうか、他のロボットの動作が復帰動作に干渉しないかなど、全体の構成を考慮して適切な処理を行なう手段が確立されている。すなわち、統括コントローラは、このような異常状態を位置方向情報やロボット状態などから検知することができる。異常状態が検知されると、その状況に応じた処理が実行される。   On the other hand, in the multi-robot system according to the present embodiment, it is appropriate to consider the entire configuration, such as whether or not the robot in an abnormal state can be restored, and whether or not other robot operations interfere with the return operation. Means for performing processing have been established. That is, the overall controller can detect such an abnormal state from position / direction information, a robot state, and the like. When an abnormal state is detected, processing corresponding to the situation is executed.

本実施形態に係るマルチロボット・システムでは、異常の程度に応じて以下の4つのレベルの異常状態を定義している。   In the multi-robot system according to the present embodiment, the following four levels of abnormal states are defined according to the degree of abnormality.

異常レベル1:1体のロボットだけで異常処理が完結する状態
異常レベル2:マルチロボット・システム全体に対して異常処理が必要な状態
異常レベル3:シナリオの一部が続行不可能となる状態
異常レベル4:シナリオ全体が続行不可能な状態
Abnormal level 1: State where abnormality processing is completed with only one robot Abnormal level 2: State where abnormality processing is necessary for the entire multi-robot system Abnormal level 3: State abnormality where part of the scenario cannot be continued Level 4: The entire scenario cannot be continued

以下、各異常レベルについて説明する。   Hereinafter, each abnormality level will be described.

異常レベル1:
>異常状態であるロボットの「動作計画」続行を判断
異常状態が発生したことにより、そのロボットの「動作計画」が持つ目的が達成できるかどうかを、所定の評価式を用いて判断する。ここで、ロボットの動作計画の続行可能性の判断方法とその評価式について説明しておく。
Abnormal level 1:
> Determine whether or not to continue the “motion plan” of a robot that is in an abnormal state Using a predetermined evaluation formula, determine whether or not the purpose of the “motion plan” of the robot can be achieved due to the occurrence of an abnormal state. Here, a method for determining the possibility of continuing the robot motion plan and its evaluation formula will be described.

シナリオ上で役を与えられている各ロボット装置は、実行すべきモーションなどの動作計画がシナリオ内で規定されている。モーションは要素運動(前述)に分割することができる。要素運動とは、右旋回、左旋回、前進、後退、右横、左横、前進跳躍、後退跳躍、右旋回跳躍、左旋回跳躍、前進走行、後退走行、右旋回走行、左旋回走行、右横走行、左横走行など、例えば動作命令の最小単位となるものである。   Each robot device that is given a role in the scenario has an operation plan such as a motion to be executed defined in the scenario. Motion can be divided into elemental motions (described above). Element movements are right turn, left turn, forward, backward, right side, left side, forward jump, reverse jump, right turn jump, left turn jump, forward drive, reverse drive, right turn, left turn. For example, traveling, right lateral traveling, left lateral traveling, etc. are the minimum units of the operation command.

各要素運動は単位運動に分解することができる。ここで、要素運動についての動作の遂行可能性を判断するために、パフォーマンス・ベクトルという概念を導入する。j番目の要素運動の単位運動数njとし、k番目の役が与えられたロボットの時刻t以降の計画パフォーマンスを単位要素運動数分解すると、そのパフォーマンス・ベクトルPk(t)は下式のように表される。 Each elemental motion can be broken down into unit motions. Here, the concept of a performance vector is introduced in order to determine the feasibility of the motion for the element motion. the j-th element exercise unit exercise number n j of, and the k-th role to plan performance unit element exercise the number of decomposed after time t of the robot that has been given, the performance vector P k (t) is of the following formula It is expressed as follows.

Figure 0004671628
Figure 0004671628

一方、l番目のロボットの要素運動jの単位運動当たりの達成度をajlとすると、ロボットlの時刻tにおける1単位パフォーマンス・ベクトルSlは下式のように表される。 On the other hand, assuming that the achievement degree per unit motion of the element motion j of the l-th robot is a jl , the 1-unit performance vector S l at the time t of the robot l is expressed by the following equation.

Figure 0004671628
Figure 0004671628

再パスプラニング時に、許容値を満たさない要素運動を、使用可能要素運動から削除する。そして、動作続行可能性を行なう評価値を下式のように定義し、この値が許容値ε以上であれば計画動作の続行が可能であると判断する。   During re-pass planning, element movements that do not meet the tolerance are removed from the usable element movements. Then, an evaluation value for performing the operation continuation possibility is defined as in the following expression. If this value is equal to or larger than the allowable value ε, it is determined that the planned operation can be continued.

Figure 0004671628
Figure 0004671628

なお、各要素運動間に評価の重みがある場合は、時刻t以降における重み対角行列Ik(t)をパフォーマンス・ベクトルPk(t) tの積などをPk(t) tとして評価値を算出して最終的な評価を行なうようにしてもよい。 When there is an evaluation weight between each element motion, the weight diagonal matrix I k (t) after time t is evaluated as a product of the performance vector P k (t) t or the like as P k (t) t. A final evaluation may be performed by calculating a value.

Figure 0004671628
Figure 0004671628

>異常状態からの復帰
異常レベル1異常状態の一例として、あるロボットが転倒した場合を考える。そのロボットが起き上がれる状態にある場合は、そのロボットへ起き上がりの指示を出す。起き上がれるかどうかの判断は、統括コントローラとロボットの通信が確立しており、転倒したロボットの内部状態に問題が無く、且つ、その他のロボットとの干渉の問題が発生しないかどうかで決まる。起き上がったロボットは、位置方向偏差を補正しながら「動作計画」を続行する。
> Return from abnormal state As an example of abnormal level 1 abnormal state, consider a case where a robot falls. If the robot is in a state of being able to get up, the robot is instructed to get up. The determination of whether or not to get up is determined by whether or not the communication between the general controller and the robot has been established, there is no problem in the internal state of the robot that has fallen, and there is no problem of interference with other robots. The robot that gets up continues the “motion planning” while correcting the positional direction deviation.

異常レベル2:
>配役の交代
あるロボットが異常状態になり、特にそのロボットが主役といった重要な役割を担っているような場合は、配役の交代が行なわれる。例えば、ロボットAの役をロボットBが行うことになった場合は、ロボットBがロボットAの位置に付き、その後、ロボットAの「動作計画」を実行することになる。
Abnormal level 2:
> Casting change Casting is changed when a robot becomes abnormal, especially when the robot plays an important role such as the main role. For example, when the robot B performs the role of the robot A, the robot B is attached to the position of the robot A, and thereafter, the “operation plan” of the robot A is executed.

>予備ロボットの導入
あるロボットが異常状態になり、予備ロボットが準備されている場合は、そのロボットが動作フィールド内に移動、又は、人によって動作フィールド内に置かれ、異常状態になったロボットの「動作計画」を実行する。図29には、予備ロボット導入のための処理手順をフローチャートの形式で示している。
> Introduction of a spare robot When a robot is in an abnormal state and a spare robot is prepared, the robot moves into the motion field or is placed in the motion field by a person and the robot Execute “Operation Plan”. FIG. 29 shows a processing procedure for introducing the spare robot in the form of a flowchart.

まず、導入場所までの移動軌道を計画する(ステップS71)。   First, a moving trajectory to the introduction location is planned (step S71).

次いで、移動軌道を「動作計画」とし、予備ロボット導入後に実行し、シナリオ中の一連の「動作計画」と併合する(ステップS72)。   Next, the movement trajectory is set as an “motion plan”, which is executed after the introduction of the spare robot, and merged with a series of “motion plans” in the scenario (step S72).

次いで、併合された一連の「動作計画」を予備ロボットにアップロードする(ステップS73)   Next, the merged series of “motion plans” is uploaded to the spare robot (step S73).

そして、シナリオの時刻進行を考慮し、予備ロボットを導入したい場面で統括コントローラが自動で、又はオペレータが手動で、アップロードされた「動作計画」を開始する(ステップS74)。   Then, in consideration of the time progress of the scenario, the general controller starts the uploaded “operation plan” automatically or at the scene where it is desired to introduce a spare robot (step S74).

>フォーメーションの修正
あるロボットが異常状態になり、その復帰動作中に他のロボットとの干渉が予想された場合、一部、フォーメーションを修正することで、異常状態のロボットが復帰するための領域を確保する。
> Correcting a formation If a robot becomes in an abnormal state and interference with other robots is expected during the return operation, the formation can be partially corrected to increase the area for the abnormal robot to recover. Secure.

異常レベル3:
>全体フォーメーションの再計画
あるロボットが異常状態になり移動できない状態になった場合で且つ撤去できず、結果として、動作フィールド内で他のロボットが立ち入れない領域が発生し、且つ、将来その場所で干渉が発生すると予想された場合、全体の「動作計画」内で軌道が再計画される。その際は、極力主役の軌道変化が無いような計画が立てられる。
Abnormal level 3:
> Re-planning of the entire formation When a robot becomes abnormal and cannot move, it cannot be removed, resulting in an area where other robots cannot enter in the motion field, and in the future If it is predicted that interference will occur, the trajectory will be re-planned within the overall “motion plan”. In that case, a plan is made so that there is no change in the trajectory of the leading role as much as possible.

異常レベル4:
>シナリオ停止
発生した異常状態によって、シナリオが成立しなくなったと判断されると、全体を停止する。各ロボットは動作している状態から、停止状態へ移行する。シナリオの停止後、状況に応じて(又は、オペレータの判断によって)以下の4つの中からいずれかの処理が実行される(図8を参照のこと)。
Abnormal level 4:
> Scenario stop If it is determined that the scenario is no longer valid due to the abnormal condition that occurred, the entire process is stopped. Each robot shifts from the operating state to the stopped state. After the scenario is stopped, one of the following four processes is executed depending on the situation (or at the operator's discretion) (see FIG. 8).

・現在のシナリオを先頭から開始(リターン)
・現在のシナリオを飛ばして、次以降のシナリオを開始(スキップ)
・予備シナリオを開始
・すべてのシナリオの実行を破棄
・ Start the current scenario from the beginning (return)
・ Skip the current scenario and start the following scenario (skip)
-Start preliminary scenario-Discard all scenarios

図30には、異常レベルを判定するための処理手順をフローチャートの形式で示している。   FIG. 30 shows a processing procedure for determining an abnormal level in the form of a flowchart.

まず、異常状態のロボットが、以下の条件で復帰可能かどうかを判別する(ステップS81)。   First, it is determined whether or not the abnormal robot can be restored under the following conditions (step S81).

ここで、異常状態のロボットが復帰可能と判断された場合には、続いて、当該ロボットが他のロボットと干渉せずに復帰可能かどうかを判別する(ステップS82)。   If it is determined that the abnormal robot can be restored, it is then determined whether the robot can be restored without interfering with another robot (step S82).

異常状態のロボットが、他のロボットと干渉せずに復帰できる場合には、復帰後に役割を続行できるかどうかをさらに判別する(ステップS83)。そして、役割を続行可能な場合には、異常レベル1と判定する。   If the abnormal robot can return without interfering with other robots, it is further determined whether the role can be continued after the return (step S83). If the role can be continued, it is determined that the level is abnormal.

一方、異常状態のロボットが、復帰後に役割を続行できない場合には、配役の交代が可能かどうかを判別する(ステップS84)。配役の後退が可能であれば、異常レベル2と判定する。   On the other hand, if the robot in the abnormal state cannot continue the role after returning, it is determined whether or not the cast can be changed (step S84). If the cast can be retreated, it is determined as an abnormal level 2.

また、異常状態のロボットが他のロボットと干渉せずに復帰できない場合には(ステップS82)、全体のフォーメーションを変更することにより復帰が可能かどうかを判別する(ステップS85)。ここで復帰が可能と判断された場合も、異常レベル2と判定する。   If the abnormal robot cannot return without interfering with other robots (step S82), it is determined whether the return can be made by changing the entire formation (step S85). If it is determined that the recovery is possible, it is determined that the abnormality level is 2.

一方、全体のフォーメーションを変更しても復帰できない場合や(ステップS85)、異常状態のロボットが復帰不可能と判断された場合には(ステップS81)、異常状態を動作フィールド(舞台)から撤去又は放置することが可能かどうかをさらに判別する(ステップS86)。   On the other hand, if the entire formation cannot be restored (step S85), or if it is determined that the abnormal robot cannot be restored (step S81), the abnormal state is removed from the operation field (stage) or It is further determined whether or not it can be left (step S86).

異常状態のロボットを撤去又は放置することができる場合には、予備ロボット(前述)を出すことが可能かどうかを判別する(ステップS87)。予備ロボットを出すことができる場合も、異常レベル2と判定する。   If the abnormal robot can be removed or left, it is determined whether or not the spare robot (described above) can be put out (step S87). When the spare robot can be put out, it is determined that the abnormality level is 2.

予備ロボットを出すことができない場合には(ステップS87)、異常状態のロボットを撤去又は放置してもシナリオを続行可能かどうかを判別する(ステップS88)。シナリオの続行が可能であれば、異常レベル3と判定する。   If the spare robot cannot be taken out (step S87), it is determined whether or not the scenario can be continued even if the abnormal robot is removed or left (step S88). If the scenario can be continued, it is determined as abnormal level 3.

また、異常状態から復帰できないロボットを撤収又は放置することができない場合には(ステップS86)、当該ロボットが動作フィールドに残った状態でシナリオを継続可能かどうかを判別する(ステップS89)。   If the robot that cannot recover from the abnormal state cannot be removed or left (step S86), it is determined whether or not the scenario can be continued with the robot remaining in the operation field (step S89).

異常状態のロボットを動作フィールドに残したままシナリオを継続することができる場合にも、異常レベル3と判定する。   The abnormal level 3 is also determined when the scenario can be continued with the abnormal robot remaining in the operation field.

一方、異常状態のロボットを動作フィールドに残したままシナリオを継続することができない場合(ステップS89)、並びに、異常状態のロボットを撤去又は放置してシナリオを継続することができない場合には(ステップS88)、異常レベル4と判定する。   On the other hand, when the scenario cannot be continued with the abnormal robot remaining in the operation field (step S89), and when the scenario cannot be continued by removing or leaving the abnormal robot (step S89). S88), it is determined that the abnormality level is 4.

その他、異常時に行なう処理:
>ログデータの回収
あるロボットが異常状態になった場合は、ロボット内に蓄積されたログデータが回収される。回収したデータを解析することで、異常が起きた原因を解析する助けとなる。
Other processing to be performed in case of abnormality:
> Log data collection When a robot becomes abnormal, log data stored in the robot is collected. Analyzing the collected data helps to analyze the cause of the abnormality.

>コントローラと通信不能となったロボットの自己処理
コントローラと通信が不能になったと認識したロボットは、外部からの制御が不能状態に入ったと判断し自己処理として動作を停止する。実行環境によっては「動作計画」といった重要度の高い情報に対し、外部へ流出することがないよう、消去などの処理を行なう。
> Self-processing of a robot that cannot communicate with the controller The robot that has recognized that communication with the controller has been disabled determines that control from the outside has been disabled, and stops its operation as self-processing. Depending on the execution environment, processing such as erasure is performed so that highly important information such as “operation plan” is not leaked to the outside.

H.ロボット装置の構成
これまではマルチロボット・システムの構成や機能について説明してきた。この項では、マルチロボットの一員として動作することができるロボット装置について詳解する。
H. Configuration of the robot device until this has been described in terms of structure and function of a multi-robot system. In this section, a robot apparatus that can operate as a member of a multi-robot will be described in detail.

図31及び図32には本発明の実施に供される「人間形」又は「人間型」のロボット装置100が直立している様子を前方及び後方の各々から眺望した様子を示している。図示の通り、ロボット装置100は、体幹部と、胴体部と、頭部と、左右の上肢部と、脚式移動を行なう左右2足の下肢部とで構成され、例えば体幹部に内蔵されている制御部(図示しない)によりロボット装置の動作を統括的にコントロールするようになっている。   FIG. 31 and FIG. 32 show a state in which the “humanoid” or “humanoid” robot apparatus 100 used for carrying out the present invention is viewed from the front and the rear. As shown in the figure, the robot apparatus 100 includes a trunk, a torso, a head, left and right upper limbs, and left and right lower limbs that perform legged movement. For example, the robot apparatus 100 is built in the trunk. The operation of the robot apparatus is comprehensively controlled by a control unit (not shown).

左右各々の下肢は、大腿部と、膝関節と、脛部と、足首と、足平とで構成され、股関節によって腰部の略最下端にて連結されている。また、左右各々の上肢は、上腕と、肘関節と、前腕とで構成され、肩関節によって体幹部の上方の左右各側縁にて連結されている。また、頭部は、首関節によって体幹部の略最上端中央に連結されている。   Each of the left and right lower limbs is composed of a thigh, a knee joint, a shin part, an ankle, and a foot, and is connected to the lowermost part of the waist by a hip joint. The left and right upper limbs are composed of an upper arm, an elbow joint, and a forearm, and are connected to the left and right side edges above the trunk by shoulder joints. The head is connected to the substantially uppermost center of the trunk by a neck joint.

このように構成されたロボット装置100は、制御部(図31及び図32には図示しない)による全身協調的な動作制御により、2足歩行を実現することができる。かかる2足歩行は、一般に、以下に示す各動作期間に分割される歩行周期を繰り返すことによって行なわれる。すなわち、   The robot apparatus 100 configured as described above can realize bipedal walking by whole body cooperative operation control by a control unit (not shown in FIGS. 31 and 32). Such biped walking is generally performed by repeating a walking cycle divided into the following operation periods. That is,

(1)右脚を持ち上げた、左脚による単脚支持期
(2)右足が接地した両脚支持期
(3)左脚を持ち上げた、右脚による単脚支持期
(4)左足が接地した両脚支持期
(1) Single leg support period with left leg lifted right leg (2) Both leg support period with right leg grounded (3) Single leg support period with right leg lifted with left leg (4) Both legs with left leg grounded Support period

制御部は、このロボット装置100を構成する各関節アクチュエータの駆動制御や各センサ(後述)などからの外部入力を処理するコントローラ(主制御部)や、電源回路その他の周辺機器類を搭載した筐体である。制御部は、その他、遠隔操作用の通信インターフェースや通信装置を含んでいてもよい。   The control unit includes a controller (main control unit) that processes drive control of each joint actuator constituting the robot device 100 and external input from each sensor (described later), and a housing in which a power supply circuit and other peripheral devices are mounted. Is the body. In addition, the control unit may include a communication interface and a communication device for remote operation.

歩行動作の軌道修正を始めとして、ロボット装置の姿勢安定制御には、ZMPを歩行の安定度判別の規範として用いている。このため、ZMPに対する偏差を小さくするための位置、速度、及び加速度が連続となるように、5次多項式を用いた補間計算により行なう。ZMPによる安定度判別規範は、歩行系から路面には重力と慣性力、並びにこれらのモーメントが路面から歩行系への反作用としての床反力並びに床反力モーメントとバランスするという「ダランベールの原理」に基づく。当該原理の力学的推論の帰結として、足底接地点と路面の形成する支持多角形の内側にピッチ軸及びロール軸モーメントがゼロとなる点、すなわちZMPが存在する。   ZMP is used as a norm for determining the stability of walking for posture stability control of the robot apparatus including correction of walking motion trajectory. For this reason, interpolation calculation using a fifth-order polynomial is performed so that the position, speed, and acceleration for reducing the deviation from ZMP are continuous. The standard for discriminating the stability by ZMP is the principle of d'Alembert that gravity and inertia force from the walking system to the road surface, and these moments balance with the floor reaction force and the floor reaction force moment as a reaction from the road surface to the walking system. based on. As a result of the dynamic reasoning of the principle, there is a point where the pitch axis and roll axis moments become zero, that is, ZMP, inside the support polygon formed by the sole contact point and the road surface.

図33には、このロボット装置100が具備する関節自由度構成を模式的に示している。同図に示すように、ロボット装置100は、2本の腕部と頭部1を含む上肢と、移動動作を実現する2本の脚部からなる下肢と、上肢と下肢とを連結する体幹部と、腰部で構成された、複数の肢を備えた構造体である。   FIG. 33 schematically shows a joint degree-of-freedom configuration of the robot apparatus 100. As shown in the figure, the robot apparatus 100 includes an upper limb that includes two arms and a head 1, a lower limb that includes two legs that realize a moving operation, and a trunk that connects the upper limb and the lower limb. And a structure having a plurality of limbs composed of the waist.

頭部を支持する首関節(Neck)は、首関節ヨー軸1と、第1及び第2の首関節ピッチ軸2a及び2bと、首関節ロール軸3という4自由度を有している。   The neck joint (Neck) that supports the head has four degrees of freedom: a neck joint yaw axis 1, first and second neck joint pitch axes 2 a and 2 b, and a neck joint roll axis 3.

また、各腕部は、その自由度として、肩(Shoulder)における肩関節ピッチ軸4と、肩関節ロール軸5と、上腕ヨー軸6、肘(Elbow)における肘関節ピッチ軸7と、手首(Wrist)における手首関節ヨー軸8と、手部とで構成される。手部は、実際には、複数本の指を含む多関節・多自由度構造体である。   Each arm portion has a degree of freedom as a shoulder joint pitch axis 4 at the shoulder, a shoulder joint roll axis 5, an upper arm yaw axis 6, an elbow joint pitch axis 7 at the elbow, and a wrist ( Wrist) is composed of a wrist joint yaw axis 8 and a hand portion. The hand part is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers.

また、体幹部(Trunk)は、体幹ピッチ軸9と、体幹ロール軸10という2自由度を有する。   The trunk (Trunk) has two degrees of freedom: a trunk pitch axis 9 and a trunk roll axis 10.

また、下肢を構成する各々の脚部は、股関節(Hip)における股関節ヨー軸11と、股関節ピッチ軸12と、股関節ロール軸13と、膝(Knee)における膝関節ピッチ軸14と、足首(Ankle)における足首関節ピッチ軸15と、足首関節ロール軸16と、足部とで構成される。   Further, each leg part constituting the lower limb includes a hip joint yaw axis 11 at the hip joint (Hip), a hip joint pitch axis 12, a hip joint roll axis 13, a knee joint pitch axis 14 at the knee (Knee), and an ankle (Ankle). ), An ankle joint pitch axis 15, an ankle joint roll axis 16, and a foot.

但し、ロボット装置100が上述したすべての自由度を装備しなければならない訳でも、あるいはこれに限定される訳でもない。設計・製作上の制約条件や要求仕様などに応じて、自由度すなわち関節数を適宜増減することができることは言うまでもない。   However, the robot apparatus 100 does not have to be equipped with all the above-described degrees of freedom or is not limited to this. It goes without saying that the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / manufacturing constraints and required specifications.

上述したようなロボット装置100が持つ各自由度は、実際には回転型アクチュエータを用いて実装され、これらの回転位置制御に基づいて運動制御を行なうようになっている。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行なうことなどの要請から、これら関節アクチュエータは小型且つ軽量であることが好ましい。   Each degree of freedom of the robot apparatus 100 as described above is actually mounted using a rotary actuator, and motion control is performed based on these rotational position controls. These joint actuators must be small and light because of the need to eliminate extra bulges in appearance and approximate human body shape, and to perform posture control on unstable structures such as biped walking. Is preferred.

本実施形態では、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータを搭載することとした。この種のACサーボ・アクチュエータに関しては、例えば本出願人に既に譲渡されている特開2000−299970号公報に開示されている。各関節アクチュエータには、モータ・トルクを検出するトルク・センサや、回転位置若しくは関節位置を検出する角度・位置センサがそれぞれ配設されているものとする。   In this embodiment, a small AC servo actuator of a gear direct connection type and a servo control system of a single chip built in a motor unit is mounted. This type of AC servo actuator is disclosed in, for example, Japanese Patent Laid-Open No. 2000-299970 already assigned to the present applicant. Each joint actuator is provided with a torque sensor for detecting motor torque and an angle / position sensor for detecting a rotational position or a joint position.

また、本実施形態では、アクチュエータ・モータの直結ギアとして低減速ギアを採用することにより、人間との物理的インタラクションを重視するタイプのロボット100に求められている駆動系自身の受動的特性を得ている。   Further, in this embodiment, by adopting a reduced speed gear as the direct connection gear of the actuator / motor, the passive characteristic of the drive system required for the robot 100 of the type that places importance on physical interaction with humans is obtained. ing.

図34には、ロボット装置100の制御システム構成を模式的に示している。同図に示すように、ロボット装置100は、ヒトの四肢を表現した各機構ユニット30、40、50R/L、60R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行なう制御ユニット80とで構成される(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。   FIG. 34 schematically shows a control system configuration of the robot apparatus 100. As shown in the figure, the robot device 100 performs adaptive control for realizing the cooperative operation between the mechanism units 30, 40, 50R / L, and 60R / L representing the human extremities and the mechanism units. It is comprised with the control unit 80 (however, each of R and L is a suffix which shows each of right and left, and so on).

ロボット装置100全体の動作は、制御ユニット80によって統括的に制御される。制御ユニット80は、CPU(Central Processing Unit)やメモリなどの主要回路コンポーネント(図示しない)で構成される主制御部81と、電源回路やロボット100の各構成要素とのデータやコマンドの授受を行なうインターフェース(いずれも図示しない)などを含んだ周辺回路82とで構成される。   The overall operation of the robot apparatus 100 is comprehensively controlled by the control unit 80. The control unit 80 exchanges data and commands between a main control unit 81 configured by main circuit components (not shown) such as a CPU (Central Processing Unit) and a memory, and each component of the power supply circuit and the robot 100. The peripheral circuit 82 includes an interface (none of which is shown).

ここで言う周辺回路82は、ロボット装置に搭載される周辺機器類の他、ケーブルや無線を通して接続される外付けの周辺機器、充電ステーション(図示しない)やその他の周辺機器を接続するためのインターフェース・コネクタなどを含むものとする。   The peripheral circuit 82 referred to here is an interface for connecting external peripheral devices, charging stations (not shown), and other peripheral devices connected through cables and radio, in addition to peripheral devices mounted on the robot apparatus.・ Include connectors.

本発明を実現する上で、この制御ユニット80の設置場所は特に限定されない。図34では体幹部ユニット40に搭載されているが、頭部ユニット30に搭載してもよい。あるいは、ロボット装置100外に制御ユニット80を配備して、ロボット装置100本体とは有線若しくは無線で交信するようにしてもよい。   In realizing the present invention, the installation location of the control unit 80 is not particularly limited. Although it is mounted on the trunk unit 40 in FIG. 34, it may be mounted on the head unit 30. Alternatively, a control unit 80 may be provided outside the robot apparatus 100 to communicate with the robot apparatus 100 main body by wire or wirelessly.

図33に示したロボット装置100内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット30には、首関節ヨー軸1、首関節ピッチ軸2、首関節ロール軸3の各々を表現する首関節ヨー軸アクチュエータM1、首関節ピッチ軸アクチュエータM2、首関節ロール軸アクチュエータM3が配設されている。 Each joint freedom degree in the robot apparatus 100 shown in FIG. 33 is implement | achieved by the actuator corresponding to each. That is, the head unit 30 includes a neck joint yaw axis actuator M 1 , neck joint pitch axis actuator M 2 , neck joint roll representing the neck joint yaw axis 1, neck joint pitch axis 2, and neck joint roll axis 3. axis actuator M 3 is disposed.

また、体幹部ユニット40には、体幹ピッチ軸9、体幹ロール軸10の各々を表現する体幹ピッチ軸アクチュエータM9、体幹ロール軸アクチュエータM10が配設されている。 The trunk unit 40 is provided with a trunk pitch axis actuator M 9 and a trunk roll axis actuator M 10 that represent the trunk pitch axis 9 and the trunk roll axis 10, respectively.

また、腕部ユニット50R/Lは、上腕ユニット51R/Lと、肘関節ユニット52R/Lと、前腕ユニット53R/Lに細分化されるが、肩関節ピッチ軸4、肩関節ロール軸5、上腕ヨー軸6、肘関節ピッチ軸7、手首関節ヨー軸8の各々を表現する肩関節ピッチ軸アクチュエータM4、肩関節ロール軸アクチュエータM5、上腕ヨー軸アクチュエータM6、肘関節ピッチ軸アクチュエータM7、手首関節ヨー軸アクチュエータM8が配設されている。 Further, the arm unit 50R / L is subdivided into an upper arm unit 51R / L, an elbow joint unit 52R / L, and a forearm unit 53R / L, but a shoulder joint pitch axis 4, a shoulder joint roll axis 5, an upper arm Shoulder joint pitch axis actuator M 4 , shoulder joint roll axis actuator M 5 , upper arm yaw axis actuator M 6 , elbow joint pitch axis actuator M 7 representing each of yaw axis 6, elbow joint pitch axis 7, and wrist joint yaw axis 8. , wrist joint yaw axis actuator M 8 is arranged.

また、脚部ユニット60R/Lは、大腿部ユニット61R/Lと、膝ユニット62R/Lと、脛部ユニット63R/Lに細分化されるが、股関節ヨー軸11、股関節ピッチ軸12、股関節ロール軸13、膝関節ピッチ軸14、足首関節ピッチ軸15、足首関節ロール軸16の各々を表現する股関節ヨー軸アクチュエータM11、股関節ピッチ軸アクチュエータM12、股関節ロール軸アクチュエータM13、膝関節ピッチ軸アクチュエータM14、足首関節ピッチ軸アクチュエータM15、足首関節ロール軸アクチュエータM16が配設されている。 The leg unit 60R / L is subdivided into a thigh unit 61R / L, a knee unit 62R / L, and a shin unit 63R / L, but the hip joint yaw axis 11, hip joint pitch axis 12, hip joint The hip joint yaw axis actuator M 11 , the hip joint pitch axis actuator M 12 , the hip joint roll axis actuator M 13 , the knee joint pitch representing the roll axis 13, the knee joint pitch axis 14, the ankle joint pitch axis 15, and the ankle joint roll axis 16. An axis actuator M 14 , an ankle joint pitch axis actuator M 15 , and an ankle joint roll axis actuator M 16 are provided.

各関節に用いられるアクチュエータM1、M2、M3…は、より好ましくは、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータ(前述)で構成することができる。 The actuators M 1 , M 2 , M 3 ... Used for each joint are more preferably a small AC servo actuator of the type directly mounted on a gear and mounted in a motor unit with a servo control system integrated into a single chip. ).

頭部ユニット30、体幹部ユニット40、腕部ユニット50、各脚部ユニット60などの機構ユニット毎に、アクチュエータ駆動制御用の副制御部35、45、55、65が配設されている。   For each mechanism unit such as the head unit 30, the trunk unit 40, the arm unit 50, and each leg unit 60, sub-control units 35, 45, 55, and 65 for actuator drive control are disposed.

腰部41には、姿勢センサ95と加速度センサ96が配設されている。加速度センサ96は、XYZの各軸方向に配置する。また、腰部41に加速度センサ96を配設することによって、質量操作量が大きな部位である腰部41を制御対象点として設定して、その位置における姿勢や加速度を直接計測して、ZMPに基づく姿勢安定制御を行なうことができる。姿勢センサ95と加速度センサ96は、図3中ではそれぞれ加速度センサA1及びジャイロ・センサG1として構成されている。   An attitude sensor 95 and an acceleration sensor 96 are disposed on the waist 41. The acceleration sensor 96 is arranged in each XYZ axial direction. Further, by providing an acceleration sensor 96 on the waist 41, the waist 41, which is a part with a large mass operation amount, is set as a control target point, and the posture and acceleration at that position are directly measured, and the posture based on ZMP Stable control can be performed. The attitude sensor 95 and the acceleration sensor 96 are configured as an acceleration sensor A1 and a gyro sensor G1, respectively, in FIG.

また、各脚部60R及び60Lには、接地確認センサ91及び92と、加速度センサ93及び94がそれぞれ配設されている。接地確認センサ91及び92は、例えば足底に圧力センサを装着することにより構成され、床反力の有無により足底が着床したか否かを検出することができる。また、加速度センサ93及び94は、少なくともX及びYの各軸方向に配置する。左右の足部に加速度センサ93及び94を配設することにより、ZMP位置に最も近い足部で直接ZMP方程式を組み立てることができる。図33中では、左右の足首に、足平における加速度を計測するセンサA2及びA2と、足平の姿勢を計測するジャイロ・センサG2及びG3がそれぞれ配設されている。また、左右の足底の四隅に、接地並びに床反力を計測する力センサF1〜F4、F5〜F8が配設されている。   In addition, ground check sensors 91 and 92 and acceleration sensors 93 and 94 are disposed on the legs 60R and 60L, respectively. The ground contact confirmation sensors 91 and 92 are configured by, for example, mounting a pressure sensor on the sole, and can detect whether the sole has landed based on the presence or absence of a floor reaction force. The acceleration sensors 93 and 94 are arranged at least in the X and Y axial directions. By disposing the acceleration sensors 93 and 94 on the left and right feet, the ZMP equation can be directly assembled with the feet closest to the ZMP position. In FIG. 33, sensors A2 and A2 for measuring acceleration at the foot and gyro sensors G2 and G3 for measuring the posture of the foot are arranged on the left and right ankles, respectively. In addition, force sensors F1 to F4 and F5 to F8 for measuring ground contact and floor reaction force are disposed at the four corners of the left and right soles.

ここで、質量操作量が大きな部位である腰部41にのみ加速度センサを配置した場合、腰部41のみが制御対象点に設定され、足部の状態は、この制御対象点の計算結果を基に相対的に算出しなければならず、足部と路面との間では以下の条件を満たすことが、前提となってしまう。   Here, when the acceleration sensor is arranged only on the waist 41 that is a part where the mass operation amount is large, only the waist 41 is set as the control target point, and the state of the foot is relative to the calculation result of the control target point. Therefore, the following condition must be satisfied between the foot and the road surface.

(1)路面はどんな力やトルクが作用しても動くことがない。
(2)路面での並進に対する摩擦係数は充分に大きく、滑りが生じない。
(1) The road surface does not move no matter what force or torque is applied.
(2) The friction coefficient with respect to translation on the road surface is sufficiently large, and no slip occurs.

これに対し、本実施形態では、路面との接触部位である足部にZMPと力を直接する反力センサ・システム(床反力センサなど)を配備するとともに、制御に用いるローカル座標とその座標を直接的に計測するための加速度センサを配設する。この結果、ZMP位置に最も近い足部で直接的にZMP釣合い方程式を組み立てることができる。したがって、より厳密な姿勢安定化制御を高速で実現することができる。この結果、力やトルクが作用すると路面が動いてしまう砂利上や毛足の長い絨毯上や、並進の摩擦係数が充分に確保できずに滑りが生じ易い住居のタイルなどであっても、ロボット装置の安定歩行(運動)を保証することができる。   On the other hand, in the present embodiment, a reaction force sensor system (such as a floor reaction force sensor) that directly applies a force to the ZMP is provided on a foot that is a contact portion with the road surface, and local coordinates used for control and the coordinates thereof An acceleration sensor for directly measuring is provided. As a result, the ZMP balance equation can be assembled directly at the foot closest to the ZMP position. Therefore, more rigorous posture stabilization control can be realized at high speed. As a result, even on a gravel where the road surface moves when force or torque is applied, on a carpet with long bristle feet, or on a residential tile that cannot easily secure a sufficient translational friction coefficient, it can easily slide. The stable walking (motion) of the device can be guaranteed.

主制御部80は、各センサA1〜A3、G1〜G3、F1〜F8の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部35、45、55、65の各々に対して適応的な制御を行ない、ロボット装置100の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現する。   The main control unit 80 can dynamically correct the control target in response to the outputs of the sensors A1 to A3, G1 to G3, and F1 to F8. More specifically, adaptive control is performed on each of the sub-control units 35, 45, 55, and 65 to realize a whole body movement pattern in which the upper limbs, trunk, and lower limbs of the robot apparatus 100 are driven in cooperation. To do.

ロボット装置100の全身運動は、足部運動、ZMP軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容に従った動作を指示するコマンドを各副制御部35、45、55、65に転送する。そして、各々の副制御部35、45…では、主制御部81からの受信コマンドを解釈して、各アクチュエータM1、M2、M3…に対して駆動制御信号を出力する。ここで言う「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット100の歩行動作期間中にZMPが動く軌跡を意味する。 The whole body movement of the robot apparatus 100 sets foot movements, ZMP trajectories, trunk movements, upper limb movements, waist heights, etc., and commands for instructing movements according to these setting contents to the sub-control units 35, Forward to 45, 55, 65. Then, in each of the sub-control section 35, 45 ... interprets the command received from the main control unit 81 outputs a drive control signal to each actuator M 1, M 2, M 3 .... Here, “ZMP” refers to a point on the floor where the moment due to floor reaction force during walking is zero, and “ZMP trajectory” refers to, for example, ZMP during the walking motion period of the robot 100. It means the trajectory that moves.

脚式移動ロボットは、ZMPを歩行の安定度判別の規範として用いることができる。ZMPによる安定度判別規範は、系が適切なZMP空間を形成し、支持多角形の内側にZMPがある場合は、系に回転運動や並進運動が発生せず、回転や並進に関する運動方程式を解く必要がない。これに対し、支持多角形の内側にZMPがない場合や、外界に対する支持作用点が存在しない場合は、ZMP方程式に代えて、運動方程式を解く必要がある。例えば、ジャンプしたときや高台から飛び降りたときなど離床時には支持多角形が存在しないので、ZMP方程式に代えて運動方程式を解くようにすればよい。   The legged mobile robot can use ZMP as a norm for determining the stability of walking. The stability criterion for ZMP is that the system forms an appropriate ZMP space, and if there is ZMP inside the support polygon, the system does not generate rotational or translational motion, and solves the equations of motion related to rotation and translation. There is no need. On the other hand, when there is no ZMP inside the support polygon or when there is no support action point for the outside world, it is necessary to solve the equation of motion instead of the ZMP equation. For example, since a support polygon does not exist at the time of getting off, such as when jumping or jumping off a hill, the equation of motion may be solved instead of the ZMP equation.

ZMP方程式は、目標ZMP上での各モーメントの釣合い関係を記述したものである。本実施形態に係る制御システムでは、ロボット装置に関するマスプロパティ(すなわち質量の分布情報)を持ち、ロボット装置を多数の質点miで表している。そして、これらの質点miを制御対象点とした場合、すべての制御対象点miにおいて発生する目標ZMP上でのモーメントの総和がゼロとなる各制御点の軌道を求める式がZMP釣合い方程式である。 The ZMP equation describes the balance relationship of each moment on the target ZMP. In the control system according to this embodiment has a mass properties relates to a robot device (i.e. distribution information of mass) represents the robot in a number of mass points m i. Then, when these mass points m i and the control target point, in all expressions ZMP equilibrium equation for obtaining the orbit of each control point total is zero moment on the target ZMP generated at the control target point m i is there.

世界座標系で記述されたZMP釣合い方程式は以下の通りとなる。   The ZMP balance equation described in the world coordinate system is as follows.

Figure 0004671628
Figure 0004671628

また、ロボット装置のローカル座標系で記述されたZMP釣合い方程式は以下の通りとなる。   The ZMP balance equation described in the local coordinate system of the robot apparatus is as follows.

Figure 0004671628
Figure 0004671628

上記の各式は、各質点(又は制御対象点)miにおいて印加された加速度成分により生成されるZMP回り(半径ri−Pzmp)のモーメントの総和と、印加されたj番目の外力モーメントMjの総和と、外力Fkにより生成されるZMP回り(k番目の外力Fkの作用点をSkとする)のモーメントの総和が釣り合うということを記述している。 Each of the above equations represents the sum of moments around the ZMP (radius r i −P zmp ) generated by the acceleration component applied at each mass point (or control target point) m i and the applied j-th external force moment. It is described that the sum of M j and the sum of moments around the ZMP generated by the external force F k (the point of action of the kth external force F k is S k ) are balanced.

このZMP釣合い方程式は、目標ZMPにおける床反力モーメント(モーメント・エラー成分)Tを含んでいる。このモーメント・エラーをゼロ又は所定の許容範囲内に抑えることによって、ロボット装置の姿勢安定性が維持される。言い換えれば、モーメント・エラーをゼロ又は許容値以下となるように運動(足部運動や上半身の各部位の軌道など)を修正することが、ZMPを安定度判別規範とした姿勢安定化制御の本質である。   This ZMP balance equation includes a floor reaction force moment (moment error component) T in the target ZMP. By suppressing this moment error to zero or within a predetermined allowable range, the posture stability of the robot apparatus is maintained. In other words, correcting the movement (such as the foot movement and the trajectory of each part of the upper body) so that the moment error is zero or less than the allowable value is the essence of posture stabilization control using ZMP as a stability criterion. It is.

上述したように、路面との接触部位である足部足底に加速度センサを設けている場合には、世界座標系に対する実ロボットのローカル座標系を設定し、その原点としての足部足底を求め、ZMP釣合い方程式を直接的に導き出すことができる。さらに、腰部41を始めとして質量操作量が大きな制御対象点にも加速度センサを配置することで、これら制御対象点毎のZMP回りのモーメント量を、加速度センサ出力値を用いて直接的に導き出すことができる。   As described above, when the acceleration sensor is provided on the foot sole that is the contact portion with the road surface, the local coordinate system of the real robot with respect to the world coordinate system is set, and the foot sole as the origin is set. And the ZMP balance equation can be derived directly. Furthermore, by arranging an acceleration sensor at a control target point having a large mass manipulated variable including the waist 41, the moment amount around the ZMP for each control target point can be directly derived using the acceleration sensor output value. Can do.

ここで、制御対象としての実ロボットは移動体装置であることから、各制御対象点における世界座標上の位置ベクトルを求めることは難しい。その代案として、ローカル座標上における制御対象点の位置ベクトルは、逆キネマティクス演算など比較的容易な計算方法により求まる。そこで、ロボット装置のローカル座標系で記述された後者のZMP釣合い方程式を用いて実際の姿勢安定化処理を行なうようにすればよい。(ZMP軌道を正確に世界座標系で計測することがロボットに搭載された状態検出器では困難であることから、一般には、世界座標系に固定された外部計測器が必要となり、ロボット単体での行動(歩行など)が不可能となる。これに対し、接地部に荷重センサF1〜F8を配置してZMP軌道を計測することにより、ローカル座標でZMP軌道を正確且つ直接的に得ることができる。且つ、ローカル座標原点付近に加速度センサを配置することにより、高速運動において支配的となる情報を直接的に計測することができる。このような理由により、本実施形態では、ローカル座標系でのZMP釣合い方程式を用いている。)   Here, since a real robot as a control target is a mobile device, it is difficult to obtain a position vector on the world coordinates at each control target point. As an alternative, the position vector of the control target point on the local coordinates is obtained by a relatively easy calculation method such as inverse kinematics calculation. Therefore, the actual posture stabilization process may be performed using the latter ZMP balance equation described in the local coordinate system of the robot apparatus. (Since it is difficult to accurately measure the ZMP trajectory in the world coordinate system with the state detector mounted on the robot, an external measuring instrument fixed to the world coordinate system is generally required. On the other hand, the ZMP trajectory can be obtained accurately and directly in local coordinates by measuring the ZMP trajectory by placing the load sensors F1 to F8 on the ground contact portion. In addition, in the present embodiment, in the local coordinate system, it is possible to directly measure information that is dominant in high-speed motion by arranging an acceleration sensor near the local coordinate origin. ZMP balance equation is used.)

なお、ロボット装置100は、腰部位置に重心が設定されており、姿勢安定制御の重要な制御対象点であるとともに、装置の「基体」を構成する。   The robot apparatus 100 has a center of gravity set at the waist position, is an important control target point for posture stability control, and constitutes a “base” of the apparatus.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention.

本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置であるならば、例えば玩具等のような他の産業分野に属する製品であっても、同様に本発明を適用することができる。   The gist of the present invention is not necessarily limited to a product called a “robot”. That is, as long as it is a mechanical device that performs an exercise resembling human movement using an electrical or magnetic action, the present invention can be applied to products belonging to other industrial fields such as toys. Can be applied.

要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。   In short, the present invention has been disclosed in the form of exemplification, and the description of the present specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.

図1は、本発明の一実施形態に係るマルチロボット・システムの概要を示した図である。FIG. 1 is a diagram showing an outline of a multi-robot system according to an embodiment of the present invention. 図2は、舞台上のマルチロボットをその上方からカメラが捉えている様子を示した舞台の側面図である。FIG. 2 is a side view of the stage showing the camera capturing the multi-robot on the stage from above. 図3は、舞台上方のカメラから捉えたマルチロボット環境下の舞台の鳥瞰図を示した図である。FIG. 3 is a diagram showing a bird's-eye view of the stage under a multi-robot environment captured from a camera above the stage. 図4は、指示動作例を示した図である。FIG. 4 is a diagram illustrating an example of an instruction operation. 図5は、動作計画の構成例を示した図である。FIG. 5 is a diagram illustrating a configuration example of an operation plan. 図6は、動作計画の構成例を示した図である。FIG. 6 is a diagram illustrating a configuration example of an operation plan. 図7は、シナリオの構成例を示した図である。FIG. 7 is a diagram showing a configuration example of a scenario. 図8は、複数のシナリオを連結した構成例を示した図である。FIG. 8 is a diagram illustrating a configuration example in which a plurality of scenarios are connected. 図9は、ロボット間、並びにロボットと統括コントローラ間で時刻同期をとるための仕組みを説明するための図である。FIG. 9 is a diagram for explaining a mechanism for synchronizing time between robots and between a robot and a general controller. 図10は、ロボット間、並びにロボットと統括コントローラ間で時刻同期をとるための仕組みを説明するための図である。FIG. 10 is a diagram for explaining a mechanism for synchronizing time between robots and between a robot and a general controller. 図11は、統括コントローラが提供するマルチロボット運用GUI画面の構成例を示した図である。FIG. 11 is a diagram illustrating a configuration example of a multi-robot operation GUI screen provided by the overall controller. 図12は、干渉領域の確認画面の構成例を示した図である。FIG. 12 is a diagram illustrating a configuration example of an interference area confirmation screen. 図13は、ロボットの転倒方向に制限を課する処理手順を示したフローチャートである。FIG. 13 is a flowchart showing a processing procedure for imposing restrictions on the direction in which the robot falls. 図14は、偏差推定画面の構成例を示した図である。FIG. 14 is a diagram illustrating a configuration example of the deviation estimation screen. 図15は、位置と方向の偏差を推定するための処理手順を示したフローチャートである。FIG. 15 is a flowchart showing a processing procedure for estimating the deviation between the position and the direction. 図16は、Z軸を時間軸においた歩の軌道表示を説明するための図である。FIG. 16 is a diagram for explaining a trajectory display of steps with the Z axis as a time axis. 図17は、Z軸を時間軸においた歩の軌道表示を説明するための図である。FIG. 17 is a diagram for explaining a trajectory display of steps with the Z axis as a time axis. 図18は、Z軸を時間軸においた歩の軌道表示を説明するための図である。FIG. 18 is a diagram for explaining a trajectory display of steps with the Z axis as a time axis. 図19は、マルチロボット・システムにおけるロボットの位置及び方向の監視メカニズムを説明するための図である。FIG. 19 is a diagram for explaining a monitoring mechanism of the position and direction of the robot in the multi-robot system. 図20は、マルチロボット・システムにおけるロボットの位置及び方向の監視メカニズムを説明するための図である。FIG. 20 is a diagram for explaining a monitoring mechanism of the position and direction of the robot in the multi-robot system. 図21は、統括コントローラがモニタ・システムから、ある時刻におけるロボットの位置及び方向に関する情報を取得するための処理手順を示したフローチャートである。FIG. 21 is a flowchart showing a processing procedure for the general controller to acquire information related to the position and direction of the robot at a certain time from the monitor system. 図22は、モニタ・システムが天井カメラの撮影画像を基に、ロボットの位置及び方向を取得し、統括コントローラへ転送するための処理手順を示したフローチャートである。FIG. 22 is a flowchart showing a processing procedure for the monitor system to acquire the position and direction of the robot on the basis of the image taken by the ceiling camera and transfer it to the general controller. 図23は、位置及び方向の修正計画の手順を示したフローチャートである。FIG. 23 is a flowchart showing the procedure of the position and direction correction plan. 図24は、脚の計画軌道を歩で管理している様子を示した図である。FIG. 24 is a diagram showing how the planned trajectory of the legs is managed by walking. 図25は、図24に示した計画軌道に対する動作計画の運用時に発生した偏差を示した図である。FIG. 25 is a diagram showing a deviation that occurs during operation of the motion plan with respect to the planned trajectory shown in FIG. 図26は、補正計画を立てるための処理手順を示したフローチャートである。FIG. 26 is a flowchart showing a processing procedure for making a correction plan. 図27は、補正計画の対象となる歩について補正の暫定量を導出するための処理手順を示したフローチャートである。FIG. 27 is a flowchart illustrating a processing procedure for deriving a provisional correction amount for a step to be corrected. 図28は、移動計画を立てるための処理手順を示したフローチャートである。FIG. 28 is a flowchart showing a processing procedure for making a movement plan. 図29は、予備ロボット導入のための処理手順を示したフローチャートである。FIG. 29 is a flowchart showing a processing procedure for introducing a spare robot. 図30は、異常レベルを判定するための処理手順を示したフローチャートである。FIG. 30 is a flowchart showing a processing procedure for determining an abnormal level. 図31は、本発明の実施に供される「人間形」又は「人間型」のロボット装置100が直立している様子を前方から眺望した様子を示した図である。FIG. 31 is a view showing a state in which the “humanoid” or “humanoid” robot apparatus 100 used for carrying out the present invention is viewed from the front. 図32は、本発明の実施に供される「人間形」又は「人間型」のロボット装置100が直立している様子を後方から眺望した様子を示した図である。FIG. 32 is a view showing a state in which the “humanoid” or “humanoid” robot apparatus 100 used for carrying out the present invention is viewed from the rear. 図33は、ロボット装置100が具備する関節自由度構成を模式的に示した図である。FIG. 33 is a diagram schematically illustrating a joint degree-of-freedom configuration included in the robot apparatus 100. 図34は、ロボット装置100の制御システム構成を模式的に示した図である。FIG. 34 is a diagram schematically showing a control system configuration of the robot apparatus 100.

符号の説明Explanation of symbols

1…首関節ヨー軸
2A…第1の首関節ピッチ軸
2B…第2の首関節(頭)ピッチ軸
3…首関節ロール軸
4…肩関節ピッチ軸
5…肩関節ロール軸
6…上腕ヨー軸
7…肘関節ピッチ軸
8…手首関節ヨー軸
9…体幹ピッチ軸
10…体幹ロール軸
11…股関節ヨー軸
12…股関節ピッチ軸
13…股関節ロール軸
14…膝関節ピッチ軸
15…足首関節ピッチ軸
16…足首関節ロール軸
30…頭部ユニット,40…体幹部ユニット,41…腰部ユニット
50…腕部ユニット,51…上腕ユニット
52…肘関節ユニット,53…前腕ユニット
60…脚部ユニット,61…大腿部ユニット
62…膝関節ユニット,63…脛部ユニット
80…制御ユニット,81…主制御部
82…周辺回路
91,92…接地確認センサ
93,94…加速度センサ
95…姿勢センサ
96…加速度センサ
100…脚式移動ロボット
DESCRIPTION OF SYMBOLS 1 ... Neck joint yaw axis 2A ... 1st neck joint pitch axis 2B ... 2nd neck joint (head) pitch axis 3 ... Neck joint roll axis 4 ... Shoulder joint pitch axis 5 ... Shoulder joint roll axis 6 ... Upper arm yaw axis 7 ... Elbow joint pitch axis 8 ... Wrist joint yaw axis 9 ... Trunk pitch axis 10 ... Trunk roll axis 11 ... Hip joint yaw axis 12 ... Hip joint pitch axis 13 ... Hip joint roll axis 14 ... Knee joint pitch axis 15 ... Ankle joint pitch Axis 16 ... Ankle joint roll axis 30 ... Head unit, 40 ... Trunk unit, 41 ... Lumbar unit 50 ... Arm unit, 51 ... Upper arm unit 52 ... Elbow joint unit, 53 ... Forearm unit 60 ... Leg unit, 61 ... thigh unit 62 ... knee joint unit, 63 ... shin part unit 80 ... control unit, 81 ... main control unit 82 ... peripheral circuit 91, 92 ... grounding confirmation sensor 93, 94 ... acceleration sensor 95: Posture sensor 96 ... Acceleration sensor 100 ... Legged mobile robot

Claims (53)

特定の動作フィールド上で動作する複数のロボット装置の制御システムにおいて、
前記動作フィールド上の各ロボット装置の位置及び方向を監視する監視手段と、
各ロボット装置との通信手段を備え、前記監視手段による監視結果並びに各ロボット装置から取得されるロボット装置の状態情報に基づいて、各ロボット装置による同期協調的な動作を制御する統括制御手段と、
を具備し、
前記統括制御手段は、前記動作フィールド上の各ロボット装置の転倒領域を算出する転倒領域算出手段と、各ロボット装置の最大可動範囲を算出する最大可動範囲算出手段と、該算出された各ロボット装置の転倒領域又は最大可動範囲の重なりをロボット装置間の干渉領域として画面表示する干渉領域表示手段とを備える、
ことを特徴とするロボット装置の制御システム。
In a control system of a plurality of robot devices operating on a specific operation field,
Monitoring means for monitoring the position and direction of each robot device on the motion field;
An overall control means for controlling the synchronous and cooperative operation of each robot apparatus based on the monitoring result of the monitoring means and the status information of the robot apparatus acquired from each robot apparatus, comprising communication means with each robot apparatus;
Equipped with,
The overall control means includes a fall area calculating means for calculating a fall area of each robot apparatus on the operation field, a maximum movable range calculating means for calculating a maximum movable range of each robot apparatus, and each calculated robot apparatus. An interference area display means for displaying on the screen as an interference area between the robot devices,
A control system for a robotic device.
前記監視手段は、前記動作フィールドを撮影する画像入力手段と、前記入力画像を処理して各ロボット装置の位置及び方向に関する情報を取得する画像処理手段を備える、
ことを特徴とする請求項1に記載のロボット装置の制御システム。
The monitoring unit includes an image input unit that captures the motion field, and an image processing unit that processes the input image to acquire information on the position and direction of each robot apparatus.
The robot apparatus control system according to claim 1.
前記動作フィールド上の各ロボット装置の配役が決められ、
前記統括制御手段は、配役毎に決められているロボット装置の動作計画の集合をシナリオとして管理する、
ことを特徴とする請求項1に記載のロボット装置の制御システム。
Casting of each robot device on the operation field is determined,
The overall control means manages a set of operation plans of the robot apparatus determined for each casting as a scenario,
The robot apparatus control system according to claim 1.
配役毎のロボット装置の動作計画は、該当するロボット装置に対する1以上の指示動作を時間軸上に配置して構成され、
前記統括制御手段は、各配役の動作計画の実行を同じ時間軸上で管理する、
ことを特徴とする請求項3に記載のロボット装置の制御システム。
The operation plan of the robot apparatus for each casting is configured by arranging one or more instruction operations for the corresponding robot apparatus on the time axis,
The overall control means manages execution of the operation plan of each casting on the same time axis,
The robot apparatus control system according to claim 3.
前記統括制御手段は、2以上のシナリオを時間軸上に連結し、マルチロボットによる1つのパフォーマンスとして管理する、
ことを特徴とする請求項3に記載のロボット装置の制御システム。
The overall control means connects two or more scenarios on a time axis and manages them as one performance by a multi-robot.
The robot apparatus control system according to claim 3.
前記統括制御手段は、各シナリオにおいて異常事態の発生により続行が困難又は不可能となった場合に備えて、代替的に実行される予備シナリオを用意する、
ことを特徴とする請求項5に記載のロボット装置の制御システム。
The overall control means prepares a preliminary scenario that is executed in an alternative manner in case it becomes difficult or impossible to continue due to the occurrence of an abnormal situation in each scenario.
The robot apparatus control system according to claim 5.
前記統括制御手段は、実行不能となった1以上のシナリオをスキップし、前記の時間軸上に連結された後続のシナリオに復帰するために予備シナリオを利用する、
ことを特徴とする請求項6に記載のロボット装置の制御システム。
The overall control means skips one or more scenarios that have become unexecutable and uses a preliminary scenario to return to a subsequent scenario connected on the time axis .
The robot apparatus control system according to claim 6.
前記統括制御手段は、パフォーマンスを完結できない異常事態が発生したときに、実行不能となった後続のすべてのシナリオに代えて、パフォーマンスを完結させるために予備シナリオを利用する、
ことを特徴とする請求項6に記載のロボット装置の制御システム。
The overall control means uses a preliminary scenario to complete the performance in place of all subsequent scenarios that have become unexecutable when an abnormal situation in which the performance cannot be completed occurs,
The robot apparatus control system according to claim 6.
前記統括制御手段は、ある1つのシナリオにおいて異常事態が発生した場面に応じた予備シナリオを利用する、
ことを特徴とする請求項6に記載のロボット装置の制御システム。
The overall control means uses a preliminary scenario corresponding to a scene where an abnormal situation has occurred in one scenario.
The robot apparatus control system according to claim 6.
前記統括制御手段は、前記動作フィールド上の各ロボット装置との時刻同期を獲得する同期獲得手段を備え、各配役のロボット装置がそれぞれの動作計画を該時刻に合わせて同期協調的に実行するように制御する、
ことを特徴とする請求項1に記載のロボット装置の制御システム。
The overall control means includes synchronization acquisition means for acquiring time synchronization with each robot apparatus on the operation field, so that each casting robot apparatus executes each operation plan synchronously and cooperatively according to the time. To control,
The robot apparatus control system according to claim 1.
前記統括制御手段は、前記監視手段により得られた各ロボット装置の位置及び方向に関する情報を基に、前記動作フィールド上での各ロボット装置の位置及び方向を画面表示する現在状態表示手段を備える、
ことを特徴とする請求項2に記載のロボット装置の制御システム。
The overall control means includes a current state display means for displaying the position and direction of each robot apparatus on the operation field on the screen based on information on the position and direction of each robot apparatus obtained by the monitoring means.
The robot apparatus control system according to claim 2.
前記現在状態表示手段は、各ロボット装置の動作計画上の目標位置及び方向と前記監視手段により得られた現実の位置及び方向の偏差を提示する、
ことを特徴とする請求項11に記載のロボット装置の制御システム。
The current state display means presents a deviation between an actual position and direction obtained by the monitoring means and a target position and direction on an operation plan of each robot apparatus.
The robot apparatus control system according to claim 11.
各ロボット装置は1以上の転倒動作を備え、
前記統括制御手段は、前記干渉領域を転倒領域に持ち若しくは前記干渉領域を転倒方向とする転倒動作の使用を禁止する、
ことを特徴とする請求項1に記載のロボット装置の制御システム。
Each robotic device has one or more overturning movements,
The overall control means prohibits the use of a fall operation that has the interference area in a fall area or has the interference area as a fall direction,
The robot apparatus control system according to claim 1.
前記統括制御手段は、過去に行なったロボット装置の動作に基づいて当該ロボットの運動特性を算出し、将来行なう動作計画を実行したときの計画値との偏差を当該ロボット装置の運動特性に基づいて予測する偏差予測手段を備える、
ことを特徴とする請求項に記載のロボット装置の制御システム。
The overall control means calculates a motion characteristic of the robot based on the motion of the robot apparatus performed in the past, and calculates a deviation from a planned value when a future motion plan is executed based on the motion characteristics of the robot apparatus. A deviation predicting means for predicting,
The robot apparatus control system according to claim 2 .
前記偏差予測手段は、過去一定期間t s 〜t m1 にモーションを実行したときに生じた誤差を観測する手段と、過去一定期間t s 〜t m1 に実行したモーションを要素運動毎に分割し要素運動毎に生じる誤差を推定する手段と、以後t m2 〜t e に至るまでの期間に実行するモーションを要素運動に分割し、これらの要素運動が持つ推定誤差を合計することにより、時刻t e における位置及び方向の目標値との偏差を推定する手段とを備える、
ことを特徴とする請求項14に記載のロボット装置の制御システム。
The deviation prediction means divides a means for observing the error caused when running the motion in the past predetermined period t s ~t m1, motion executed in the past predetermined period t s ~t m1 per element movement elements means for estimating the error occurring in each exercise, by subsequently dividing the motion to be executed during the period up to t m @ 2 ~t e element motion, summing the estimated error these elements exercise has, time t e Means for estimating a deviation from a target value of the position and direction at
The robot apparatus control system according to claim 14 .
前記統括制御手段は、前記予測された偏差を画面表示する偏差予測表示手段を備える、
ことを特徴とする請求項14に記載のロボット装置の制御システム。
The overall control unit includes a deviation prediction display unit that displays the predicted deviation on a screen.
The robot apparatus control system according to claim 14 .
前記統括制御手段は、ロボット装置の前記動作フィールド上での軌道を表示する軌道表示手段を備える、
ことを特徴とする請求項に記載のロボット装置の制御システム。
The overall control means includes a trajectory display means for displaying a trajectory on the operation field of the robot apparatus.
The robot apparatus control system according to claim 1 .
前記軌道表示手段は、Z軸を時間軸においた歩の軌道表示を行なう、
ことを特徴とする請求項17に記載のロボット装置の制御システム。
The trajectory display means displays a trajectory of a step with the Z axis as a time axis.
The robot apparatus control system according to claim 17 .
前記統括制御手段は、各ロボット装置の動作計画上の目標位置及び方向と前記監視手段により得られた現実の位置及び方向の偏差を補正する位置方向補正手段を備える、
ことを特徴とする請求項に記載のロボット装置の制御システム。
The overall control unit includes a position / direction correction unit that corrects a deviation between a target position and direction on an operation plan of each robot apparatus and an actual position and direction obtained by the monitoring unit.
The robot apparatus control system according to claim 1 .
前記位置方向補正手段は、動作計画を実行中のロボット装置の位置又は方向の誤差を当該動作計画内の既存の歩を用いて補正する補正計画手段を備える、
ことを特徴とする請求項19に記載のロボット装置の制御システム。
The position / direction correction unit includes a correction plan unit that corrects an error in the position or direction of the robot apparatus that is executing the motion plan using an existing step in the motion plan.
The robot apparatus control system according to claim 19 .
前記位置方向補正手段は、ロボット装置が動作計画を実行していない場面を利用して、新たな1つ以上の歩を生成して位置方向の偏差を修正する移動計画手段を備える、
ことを特徴とする請求項19に記載のロボット装置の制御システム。
The position / direction correction unit includes a movement plan unit that generates one or more new steps and corrects a deviation in the position / direction using a scene where the robot apparatus is not executing an operation plan.
The robot apparatus control system according to claim 19 .
前記統括制御手段は、複数のロボットが前記動作フィールドでシナリオを実行するマルチロボット環境下において、異常の程度に応じた異常状態を定義し、各異常状態に陥ったときに適当な修復処理を行なう異常処理手段を備える、
ことを特徴とする請求項に記載のロボット装置の制御システム。
The overall control means defines an abnormal state according to the degree of abnormality in a multi-robot environment in which a plurality of robots execute a scenario in the operation field, and performs appropriate repair processing when falling into each abnormal state Provided with abnormality processing means,
The robot apparatus control system according to claim 1 .
前記異常処理手段は、1体のロボット装置だけで異常処理が完結する第1の異常状態において、当該ロボット装置についての異常処理を実行する、
ことを特徴とする請求項22に記載のロボット装置の制御システム。
The abnormality processing means executes abnormality processing for the robot apparatus in a first abnormality state where the abnormality processing is completed with only one robot apparatus.
The control system for a robot apparatus according to claim 22 .
前記異常処理手段は、前記マルチロボット全体に対して異常処理が必要な第2の状態において、前記動作フィールド内で動作するロボット装置間で配役の交代、前記動作フィールド内又は外で待機する予備ロボットの前記動作フィールドへの投入、又は前記マルチロボットにおけるフォーメーションの修正を行なう、
ことを特徴とする請求項22に記載のロボット装置の制御システム。
In the second state where the abnormality processing is necessary for the entire multi-robot, the abnormality processing means is a standby robot that waits in or out of the operation field, in which a cast is changed between the robot devices operating in the operation field. To the operation field, or to correct the formation in the multi-robot,
The control system for a robot apparatus according to claim 22 .
前記異常処理手段は、シナリオの一部が続行不可能となる第3の異常状態において、前記マルチロボットにおける全体フォーメーションの修正を行なう、
ことを特徴とする請求項22に記載のロボット装置の制御システム。
The abnormality processing means corrects the overall formation in the multi-robot in a third abnormal state where a part of the scenario cannot be continued.
The control system for a robot apparatus according to claim 22 .
前記異常処理手段は、シナリオ全体が続行不可能な第4の異常状態において、シナリオの続行を停止する、
ことを特徴とする請求項22に記載のロボット装置の制御システム。
The abnormality processing means stops the continuation of the scenario in a fourth abnormal state where the entire scenario cannot be continued.
The control system for a robot apparatus according to claim 22 .
前記動作フィールド内又は外で待機する予備ロボットをさらに備え、
前記統括制御手段は、前記予備ロボットの前記動作フィールドへの投入を制御する、
ことを特徴とする請求項に記載のロボット装置の制御システム。
Further comprising a reserve robot waiting in or outside the motion field;
The overall control means controls the input of the spare robot to the operation field;
The robot apparatus control system according to claim 1 .
特定の動作フィールド上で動作する複数のロボット装置の制御方法において、In a control method of a plurality of robot devices operating on a specific operation field,
前記動作フィールド上の各ロボット装置の位置及び方向を監視する監視ステップと、A monitoring step of monitoring the position and direction of each robotic device on the motion field;
各ロボット装置との通信ステップと、A communication step with each robot device;
前記監視ステップにおける監視結果並びに各ロボット装置から通信により取得されるロボット装置の状態情報に基づいて、各ロボット装置による同期協調的な動作を制御する統括制御ステップと、Based on the monitoring result in the monitoring step and the state information of the robot apparatus acquired by communication from each robot apparatus, an overall control step for controlling the synchronous cooperative operation by each robot apparatus;
を有し、Have
前記統括制御ステップは、前記動作フィールド上の各ロボット装置の転倒領域を算出する転倒領域算出ステップと、各ロボット装置の最大可動範囲を算出する最大可動範囲算出ステップと、該算出された各ロボット装置の転倒領域又は最大可動範囲の重なりをロボット装置間の干渉領域として画面表示する干渉領域表示ステップとを有する、The overall control step includes a fall area calculating step for calculating a fall area of each robot apparatus on the operation field, a maximum movable range calculating step for calculating a maximum movable range of each robot apparatus, and the calculated robot apparatuses. And an interference area display step for displaying on the screen as an interference area between the robot devices, the fall area of
ことを特徴とするロボット装置の制御方法。A method for controlling a robot apparatus, comprising:
前記監視ステップは、前記動作フィールドを撮影する画像入力ステップと、前記入力画像を処理して各ロボット装置の位置及び方向に関する情報を取得する画像処理ステップを有する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
The monitoring step includes an image input step of photographing the operation field, and an image processing step of processing the input image to acquire information on the position and direction of each robot device.
The method of controlling a robot apparatus according to claim 28, wherein:
前記動作フィールド上の各ロボット装置の配役が決められ、
前記統括制御ステップでは、配役毎に決められているロボット装置の動作計画の集合をシナリオとして管理する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
Casting of each robot device on the operation field is determined,
In the overall control step, a set of operation plans of the robot apparatus determined for each casting is managed as a scenario.
The method of controlling a robot apparatus according to claim 28 , wherein:
配役毎のロボット装置の動作計画は、該当するロボット装置に対する1以上の指示動作を時間軸上に配置して構成され、
前記統括制御ステップでは、各配役の動作計画の実行を同じ時間軸上で管理する、
ことを特徴とする請求項30に記載のロボット装置の制御方法。
The operation plan of the robot apparatus for each casting is configured by arranging one or more instruction operations for the corresponding robot apparatus on the time axis,
In the overall control step, the execution of the action plan of each casting is managed on the same time axis.
The method of controlling a robot apparatus according to claim 30 , wherein
前記統括制御ステップでは、2以上のシナリオを時間軸上に連結し、マルチロボットによる1つのパフォーマンスとして管理する、
ことを特徴とする請求項30に記載のロボット装置の制御方法。
In the overall control step, two or more scenarios are connected on a time axis and managed as one performance by a multi-robot.
The method of controlling a robot apparatus according to claim 30 , wherein
前記統括制御ステップでは、各シナリオにおいて異常事態の発生により続行が困難又は不可能となった場合に備えて、代替的に実行される予備シナリオを用意する、
ことを特徴とする請求項32に記載のロボット装置の制御方法。
In the overall control step, in preparation for a case where it is difficult or impossible to continue due to occurrence of an abnormal situation in each scenario, a preliminary scenario that is executed alternatively is prepared.
The method of controlling a robotic device according to claim 32 .
前記統括制御ステップでは、実行不能となった後続の1以上のシナリオをスキップし、前記の時間軸上に連結された後続のシナリオ連結に復帰するために予備シナリオを利用する、
ことを特徴とする請求項33に記載のロボット装置の制御方法。
In the overall control step, a preliminary scenario is used to skip one or more subsequent scenarios that have become unexecutable and return to the subsequent scenario linkage linked on the time axis.
34. The method of controlling a robot apparatus according to claim 33.
前記統括制御ステップでは、パフォーマンスを完結できない異常事態が発生したときに、実行不能となった後続のすべてのシナリオに代えて、パフォーマンスを完結させるために予備シナリオを利用する、
ことを特徴とする請求項33に記載のロボット装置の制御方法。
In the overall control step, when an abnormal situation in which the performance cannot be completed occurs, a preliminary scenario is used in order to complete the performance instead of all subsequent scenarios that cannot be executed.
34. The method of controlling a robot apparatus according to claim 33 .
前記統括制御ステップでは、ある1つのシナリオにおいて異常事態が発生した場面に応じた予備シナリオを利用する、
ことを特徴とする請求項33に記載のロボット装置の制御方法。
In the overall control step, a preliminary scenario corresponding to a scene where an abnormal situation has occurred in one scenario is used.
34. The method of controlling a robot apparatus according to claim 33 .
前記統括制御ステップでは、前記動作フィールド上の各ロボット装置との時刻同期を獲得し、各配役のロボット装置がそれぞれの動作計画を該時刻に合わせて同期協調的に実行するように制御する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
In the overall control step, time synchronization with each robot apparatus on the operation field is obtained, and control is performed so that each casting robot apparatus executes each operation plan synchronously in accordance with the time.
The method of controlling a robot apparatus according to claim 28 , wherein:
前記統括制御ステップは、前記監視手段により得られた各ロボット装置の位置及び方向に関する情報を基に、前記動作フィールド上での各ロボット装置の位置及び方向を画面表示する現在状態表示ステップを有する、
ことを特徴とする請求項29に記載のロボット装置の制御方法。
The overall control step includes a current state display step of displaying the position and direction of each robot apparatus on the operation field on the screen based on information on the position and direction of each robot apparatus obtained by the monitoring unit.
30. The method of controlling a robot apparatus according to claim 29 .
前記現在状態表示ステップでは、各ロボット装置の動作計画上の目標位置及び方向と前記監視ステップにおいて得られた現実の位置及び方向の偏差を提示する、
ことを特徴とする請求項38に記載のロボット装置の制御方法。
In the current state display step, the deviation between the target position and direction on the operation plan of each robot apparatus and the actual position and direction obtained in the monitoring step is presented.
40. The method of controlling a robotic device according to claim 38 .
各ロボット装置は1以上の転倒動作を備え、
前記統括制御ステップでは、前記干渉領域を転倒領域に持ち若しくは前記干渉領域を転倒方向とする転倒動作の使用を禁止する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
Each robotic device has one or more overturning movements,
In the overall control step, the use of the overturning operation with the interference region in the overturning region or with the interference region in the overturning direction is prohibited.
The method of controlling a robot apparatus according to claim 28 , wherein:
前記統括制御ステップは、過去に行なったロボット装置の動作に基づいて当該ロボットの運動特性を算出し、将来行なう動作計画を実行したときの計画値との偏差を当該ロボット装置の運動特性に基づいて予測する偏差予測ステップを有する、
ことを特徴とする請求項29に記載のロボット装置の制御方法。
The overall control step calculates a motion characteristic of the robot based on the motion of the robot apparatus performed in the past, and calculates a deviation from a planned value when a future motion plan is executed based on the motion characteristics of the robot apparatus. Having a deviation prediction step to predict,
30. The method of controlling a robot apparatus according to claim 29 .
前記偏差予測ステップは、過去一定期間t s 〜t m にモーションを実行したときに生じた誤差を観測するとともに、過去一定期間t s 〜t m に実行したモーションを要素運動毎に分割し要素運動毎に生じる誤差を推定し、以後t m 〜t e に至るまでの期間に実行するモーションを要素運動に分割し、これらの要素運動が持つ推定誤差を合計することにより、時刻t e における位置及び方向の目標値との偏差を推定する、
ことを特徴とする請求項41に記載のロボット装置の制御方法。
The deviation prediction step is configured to observe the error caused when running the motion in the past predetermined period t s ~t m, divides the motion executed in the past predetermined period t s ~t m per element movement elements motion error estimates the occurring for each, divided into motion element motion to be executed during the period up to the subsequent t m ~t e, by summing the estimated error these elements exercise has a position and at time t e Estimate the deviation from the target value in the direction,
42. The method of controlling a robot apparatus according to claim 41, wherein:
前記予測された偏差を画面表示する偏差予測表示ステップを有する、
ことを特徴とする請求項41に記載のロボット装置の制御方法。
A deviation prediction display step for displaying the predicted deviation on a screen;
42. The method of controlling a robot apparatus according to claim 41 , wherein:
ロボット装置の前記動作フィールド上での軌道を表示する軌道表示ステップをさらに有する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
A trajectory display step for displaying a trajectory on the operation field of the robot apparatus;
The method of controlling a robot apparatus according to claim 28 , wherein:
前記軌道表示ステップでは、Z軸を時間軸においた歩の軌道表示を行なう、
ことを特徴とする請求項44に記載のロボット装置の制御方法。
In the trajectory display step, a trajectory display of a step with the Z axis as a time axis is performed.
45. The method of controlling a robot apparatus according to claim 44 , wherein:
各ロボット装置の動作計画上の目標位置及び方向と前記監視ステップにおいて得られた現実の位置及び方向の偏差を補正する位置方向補正ステップをさらに有する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
A position and direction correction step for correcting a deviation between a target position and direction in the operation plan of each robot apparatus and an actual position and direction obtained in the monitoring step;
The method of controlling a robot apparatus according to claim 28 , wherein:
前記位置方向補正ステップでは、動作計画を実行中のロボット装置の位置又は方向の誤差を当該動作計画内の既存の歩を用いて補正する補正計画を立てる、
ことを特徴とする請求項46に記載のロボット装置の制御方法。
In the position direction correction step, a correction plan for correcting an error in the position or direction of the robot apparatus that is executing the motion plan using an existing step in the motion plan is established.
The method of controlling a robot apparatus according to claim 46, wherein:
前記位置方向補正ステップでは、ロボット装置が動作計画を実行していない場面を利用して、新たな1つ以上の歩を生成して位置方向の偏差を修正する移動計画を立てる、
ことを特徴とする請求項46に記載のロボット装置の制御方法。
In the position / direction correction step, using a scene in which the robot apparatus is not executing an operation plan, a movement plan is generated that generates one or more new steps and corrects a deviation in the position / direction.
The method of controlling a robot apparatus according to claim 46 , wherein:
複数のロボットが前記動作フィールドでシナリオを実行するマルチロボット環境下において、異常の程度に応じて定義される各異常状態に陥ったときに適当な修復処理を行なう異常処理ステップを有する、
ことを特徴とする請求項28に記載のロボット装置の制御方法。
In a multi-robot environment in which a plurality of robots execute a scenario in the operation field, the robot has an abnormality processing step for performing an appropriate repair process when falling into each abnormal state defined according to the degree of abnormality.
The method of controlling a robot apparatus according to claim 28 , wherein:
前記異常処理ステップでは、1体のロボット装置だけで異常処理が完結する第1の異常状態において、当該ロボット装置についての異常処理を実行する、
ことを特徴とする請求項49に記載のロボット装置の制御方法。
In the abnormality processing step, in the first abnormal state where the abnormality processing is completed with only one robot apparatus, the abnormality processing for the robot apparatus is executed.
The method for controlling a robot apparatus according to claim 49 , wherein:
前記異常処理ステップでは、前記マルチロボット全体に対して異常処理が必要な第2の状態において、前記動作フィールド内で動作するロボット装置間で配役の交代、前記動作フィールド内又は外で待機する予備ロボットの前記動作フィールドへの投入、又は前記マルチロボットにおけるフォーメーションの修正を行なう、
ことを特徴とする請求項49に記載のロボット装置の制御方法。
In the abnormality processing step, in a second state where the abnormality processing is necessary for the entire multi-robot, a change of casting between robot devices operating in the operation field, a standby robot waiting in or outside the operation field To the operation field, or to correct the formation in the multi-robot,
The method for controlling a robot apparatus according to claim 49 , wherein:
前記異常処理ステップでは、シナリオの一部が続行不可能となる第3の異常状態において、前記マルチロボットにおける全体フォーメーションの修正を行なう、
ことを特徴とする請求項49に記載のロボット装置の制御方法。
In the abnormality processing step, in the third abnormal state where a part of the scenario cannot be continued, the overall formation in the multi-robot is corrected.
The method for controlling a robot apparatus according to claim 49 , wherein:
前記異常処理ステップでは、シナリオ全体が続行不可能な第4の異常状態において、シナリオの続行を停止する、
ことを特徴とする請求項49に記載のロボット装置の制御方法。
In the abnormality processing step, the continuation of the scenario is stopped in a fourth abnormal state where the entire scenario cannot be continued.
The method for controlling a robot apparatus according to claim 49 , wherein:
JP2004178894A 2004-06-16 2004-06-16 Robot apparatus control system and control method Active JP4671628B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004178894A JP4671628B2 (en) 2004-06-16 2004-06-16 Robot apparatus control system and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004178894A JP4671628B2 (en) 2004-06-16 2004-06-16 Robot apparatus control system and control method

Publications (2)

Publication Number Publication Date
JP2006000954A JP2006000954A (en) 2006-01-05
JP4671628B2 true JP4671628B2 (en) 2011-04-20

Family

ID=35769768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004178894A Active JP4671628B2 (en) 2004-06-16 2004-06-16 Robot apparatus control system and control method

Country Status (1)

Country Link
JP (1) JP4671628B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106826825A (en) * 2017-02-13 2017-06-13 哈尔滨工业大学深圳研究生院 A kind of many mechanical arm controlled in wireless cabinets and many mechanical arm control systems

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4784381B2 (en) * 2006-04-27 2011-10-05 トヨタ自動車株式会社 Autonomous mobile robot
JP5298841B2 (en) * 2008-12-26 2013-09-25 富士通株式会社 Robot and robot work execution method
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
KR101308013B1 (en) 2009-12-08 2013-09-12 한국전자통신연구원 Apparatus and method for managing policy based plural robot
JP5505652B2 (en) * 2011-03-23 2014-05-28 日本電気株式会社 Robot control system and robot control method
KR101152251B1 (en) 2011-10-14 2012-06-08 국방과학연구소 Multi robots control system and method of control the multi robots
KR101286981B1 (en) * 2011-12-19 2013-07-23 (주)미니로봇 humanoid robot performance system
EP3102366B1 (en) * 2014-02-05 2018-06-27 ABB Schweiz AG A system and method for creating and editing a playlist defining motions of a plurality of robots cooperatively performing a show
CN107635088A (en) * 2016-07-19 2018-01-26 浙江星星冷链集成股份有限公司 Distributed intelligence robot entertainment systems
KR101963754B1 (en) * 2016-11-14 2019-07-31 동국대학교 산학협력단 System and method for control of drone
CN108367438B (en) * 2017-07-13 2021-06-04 达闼机器人有限公司 Robot role switching method and device and robot
JP2020087206A (en) 2018-11-29 2020-06-04 株式会社日立製作所 Autonomous body system and control method therefor
JP6717401B1 (en) * 2019-04-01 2020-07-01 株式会社安川電機 Programming support device, robot system, and programming support method
DE112019007691T5 (en) * 2019-09-05 2022-06-15 Mitsubishi Electric Corporation SYSTEM FOR PLANNING ROBOT ACTIONS, ROBOT SYSTEM, ROBOT TASK VERIFICATION SYSTEM AND METHOD FOR PLANNING ROBOT ACTIONS
US11233861B2 (en) 2020-02-18 2022-01-25 UiPath, Inc. Inter-session automation for robotic process automation (RPA) robots
US10654166B1 (en) 2020-02-18 2020-05-19 UiPath, Inc. Automation windows for robotic process automation
US11392477B2 (en) 2020-07-09 2022-07-19 UiPath, Inc. Automation of a process running in a first session via a robotic process automation robot running in a second session
JP2023532823A (en) * 2020-07-09 2023-08-01 ユーアイパス,インコーポレイテッド Robotic process automation performed in a second session Automation of processes performed in the first session via robots
CN113110142B (en) * 2021-03-29 2023-01-06 航天时代电子技术股份有限公司 Follow-up remote control operation table and remote control method thereof
WO2022244060A1 (en) * 2021-05-17 2022-11-24 日本電気株式会社 Motion planning device, motion planning method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
JP2002254374A (en) * 2001-02-28 2002-09-10 Toshiba Corp Robot system
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2004042148A (en) * 2002-07-09 2004-02-12 Mitsubishi Heavy Ind Ltd Mobile robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6170617A (en) * 1984-09-12 1986-04-11 Caterpillar Mitsubishi Ltd Course run guidance system of automatic running body
JPS62229306A (en) * 1985-08-30 1987-10-08 テキサス インスツルメンツインコ−ポレイテツド Visual operation apparatus and method for mobile robot cruising freely
JP3364237B2 (en) * 1992-02-25 2003-01-08 株式会社東芝 Distributed work robot system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
JP2002254374A (en) * 2001-02-28 2002-09-10 Toshiba Corp Robot system
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2004042148A (en) * 2002-07-09 2004-02-12 Mitsubishi Heavy Ind Ltd Mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106826825A (en) * 2017-02-13 2017-06-13 哈尔滨工业大学深圳研究生院 A kind of many mechanical arm controlled in wireless cabinets and many mechanical arm control systems
CN106826825B (en) * 2017-02-13 2019-07-02 哈尔滨工业大学深圳研究生院 A kind of more mechanical arm wireless control cabinets and more mechanical arm control systems

Also Published As

Publication number Publication date
JP2006000954A (en) 2006-01-05

Similar Documents

Publication Publication Date Title
JP4671628B2 (en) Robot apparatus control system and control method
Tsagarakis et al. Walk‐man: A high‐performance humanoid platform for realistic environments
Fallon et al. An architecture for online affordance‐based perception and whole‐body planning
Schwarz et al. Nimbro rescue: solving disaster‐response tasks with the mobile manipulation robot momaro
Kanoun et al. Planning foot placements for a humanoid robot: A problem of inverse kinematics
US6438454B1 (en) Robot failure diagnosing system
KR101121763B1 (en) Apparatus and method for recognizing environment
WO2003078109A1 (en) Operation control device for leg-type mobile robot and operation control method, and robot device
JP2007276052A (en) Control system, record system, information processor and method, program, and recording medium
JP2005125460A (en) Motion editing device, motion editing method, and computer program for robotic device
WO2017189502A1 (en) Agile manufacturing platform and system
JP7117237B2 (en) ROBOT CONTROL DEVICE, ROBOT SYSTEM AND ROBOT CONTROL METHOD
JP2002144260A (en) Leg type moving robot and its control method
JP2003266349A (en) Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
Neo et al. A switching command-based whole-body operation method for humanoid robots
JP3614824B2 (en) Motion editing apparatus and motion editing method for legged mobile robot
Muecke et al. Darwin’s evolution: Development of a humanoid robot
JP2003266348A (en) Robot device and control method therefor
JP2004148492A (en) Motion editing device and motion editing method for the robotic device, robotic device and control method therefor, and computer program
Evrard et al. Intercontinental, multimodal, wide-range tele-cooperation using a humanoid robot
JP4587699B2 (en) Robot apparatus and control method thereof
JP4614692B2 (en) Motion evaluation method for robot apparatus
JP2002144261A (en) Leg type moving robot and its control method
Ahn Development and Real-Time Optimization-based Control of a Full-sized Humanoid for Dynamic Walking and Running
JP4110525B2 (en) Robot apparatus and operation control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110118

R150 Certificate of patent or registration of utility model

Ref document number: 4671628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250