JP2004306247A - Robot device and method of controlling the same - Google Patents

Robot device and method of controlling the same Download PDF

Info

Publication number
JP2004306247A
JP2004306247A JP2004058121A JP2004058121A JP2004306247A JP 2004306247 A JP2004306247 A JP 2004306247A JP 2004058121 A JP2004058121 A JP 2004058121A JP 2004058121 A JP2004058121 A JP 2004058121A JP 2004306247 A JP2004306247 A JP 2004306247A
Authority
JP
Japan
Prior art keywords
robot
danger
coping operation
situation
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004058121A
Other languages
Japanese (ja)
Inventor
Tomohisa Morihira
智久 森平
Seiji Tamura
誠司 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004058121A priority Critical patent/JP2004306247A/en
Publication of JP2004306247A publication Critical patent/JP2004306247A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device which is improved in safety, and to provide a method of controlling the same. <P>SOLUTION: The movable robot device is configured so as to detect a hazardous circumstance as well as a degree of the detected hazardous circumstance, and to carry out predetermined counteractive operation according to the detected hazardous circumstance and the degree of the same. The robot device has a hazardous circumstance detecting means for detecting the hazardous circumstance, and a control means for carrying out control processing for executing the predetermined counteractive operation depending on a location at which the hazardous circumstance detected by the hazardous circumstance detecting means occurs. Further the robot device is configured so as to detect a hazardous degree related to a hazardous object and a movable section thereof when it detects the hazardous object, and operates the movable section to reduce or avoid a hazard, based on the detected hazardous degree and a determined action thereof. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ロボット装置及びその制御方法に関し、例えばヒューマノイド型ロボットに適用して好適なものである。   The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a humanoid robot.

従来、工業用ロボットのほとんどは定置設置型として構築されている。このため従来の工業用ロボットでは、対人的な安全対策として、その周囲の環境に危険検出用のセンサを設け、又はその周囲に防壁を設置し若しくは進入禁止空間を設けるなどの方法が用いられている。   Conventionally, most industrial robots are constructed as stationary installation types. For this reason, in the conventional industrial robot, a method for providing a danger detection sensor in the surrounding environment, or installing a barrier or surrounding no entry space is used as a personal safety measure. I have.

また工業用ロボットは、通常、安定した状態で設置されていることから、例えば危険状況が発生した場合の対処としては単にロボットの動作の即時停止で足り、ロボット自体の保全を考慮する必要はない。   In addition, since industrial robots are usually installed in a stable state, it is sufficient to simply stop the operation of the robot immediately, for example, when a danger situation occurs, and it is not necessary to consider the maintenance of the robot itself .

しかしながら、自律的に移動し行動するヒューマノイド型のエンターテインメントロボットを考えた場合、ロボットが自己の判断によって環境内を自在に移動するために、ロボットの周囲の環境に危険検出用のセンサを設け、又はその周囲に防壁を設置し若しくは進入禁止空間を設けるなどの方法は適用することができない。   However, when considering a humanoid entertainment robot that moves and behaves autonomously, in order for the robot to freely move in the environment by its own judgment, a danger detection sensor is provided in the environment around the robot, or It is not possible to apply a method such as installing a barrier or a no-go space around it.

またかかるエンターテインメントロボットでは、危険状況を検知した場合に単にその動作を即時停止するだけでは、ロボットがバランスを崩して転倒し、これによりロボットに破損等を生じさせる問題もあり、対人的な安全対策だけではなく、ロボットの機体保全対策についても講ずる必要がある。   Also, in such entertainment robots, if a danger situation is detected, simply stopping the operation immediately may cause the robot to lose its balance and fall, thereby causing damage to the robot, etc. In addition to this, it is necessary to take measures for robot body maintenance.

さらにエンターテインメントロボットという特性を考えた場合、発生した危険状況に応じた対処をするにしても、それまで行っていた歩行やダンスなどのもとの動作や行動により迅速に戻れるように、すなわちロボットの通常状態での稼働効率を最大限にできるように考慮する必要がある。   In addition, considering the characteristics of entertainment robots, even if we take measures according to the danger situation that occurred, we can quickly return to the original actions and behaviors such as walking and dancing, so that the robot Care must be taken to maximize operating efficiency in normal conditions.

本発明は以上の点を考慮してなされたもので、安全性を格段的に向上させ得るロボット装置及びその制御方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and has as its object to propose a robot apparatus and a control method thereof that can significantly improve safety.

かかる課題を解決するため本発明においては、移動型のロボット装置において、危険状況を検出する危険状況検出手段と、危険状況検出手段により検出された危険状況の度合いを検出する危険度合い検出手段と、危険状況検出手段により検出された危険状況及び危険度合い検出手段により検出された当該危険状況の度合いに応じた所定の対処動作を実行させるための制御処理を行う制御手段とを設けるようにした。   In order to solve this problem, in the present invention, in a mobile robot device, a dangerous situation detecting means for detecting a dangerous situation, a risk degree detecting means for detecting the degree of the dangerous situation detected by the dangerous situation detecting means, There is provided control means for performing control processing for executing a predetermined coping operation in accordance with the danger situation detected by the danger situation detection means and the degree of the danger situation detected by the danger degree detection means.

この結果このロボット装置では、危険状況が発生したときや発生する前に、当該危険状況に応じた適切な対処行動を実行することができる。   As a result, this robot device can execute an appropriate coping action according to the dangerous situation when or before the dangerous situation occurs.

また本発明においては、移動型のロボット装置の制御方法において、危険状況を検出すると共に、検出した危険状況の度合いを検出する第1のステップと、検出した危険状況及び当該危険状況の度合いに応じた所定の対処動作をロボット装置に実行させるための制御処理を行う第2のステップとを設けるようにした。   Further, in the present invention, in the method for controlling a mobile robot device, a first step of detecting a danger situation and detecting a degree of the detected danger situation may be performed according to the detected danger situation and the degree of the danger situation. And a second step of performing a control process for causing the robot device to execute the predetermined coping operation.

この結果このロボット装置の制御方法によれば、危険状況が発生したときや発生する前に、当該危険状況に応じた適切な対処行動を実行することができる。   As a result, according to the control method of the robot apparatus, it is possible to execute an appropriate coping action according to the dangerous situation when or before the dangerous situation occurs.

さらに本発明においては、移動型のロボット装置において、危険状況を検出する危険状況検出手段と、危険状況検出手段により検出された危険状況が発生した位置に応じた所定の対処動作を実行させるための制御処理を行う制御手段とを設けるようにした。   Further, in the present invention, in a mobile robot device, a danger situation detecting means for detecting a danger situation, and a predetermined coping operation corresponding to a position where the danger situation detected by the danger situation detection means has occurred are executed. Control means for performing control processing is provided.

この結果このロボット装置では、危険状況が発生した位置に応じた適切な対処行動を実行することができる。   As a result, this robot device can execute an appropriate coping action according to the position where the dangerous situation has occurred.

さらに本発明においては、移動型のロボット装置の制御方法において、危険状況を検出する第1のステップと、危険状況検出手段により検出された危険状況が発生した位置に応じた所定の対処動作をロボット装置に実行させるための制御処理を行う第2のステップとを設けるようにした。   Further, according to the present invention, in the method for controlling a mobile robot apparatus, the first step of detecting a dangerous situation and the robot performs a predetermined coping operation according to a position where the dangerous situation detected by the dangerous situation detecting means occurs. And a second step of performing control processing for causing the apparatus to execute the processing.

この結果このロボット装置の制御方法によれば、危険状況が発生した位置に応じた適切な対処行動を実行することができる。   As a result, according to the control method of the robot device, it is possible to execute an appropriate coping action according to the position where the dangerous situation has occurred.

さらに本発明においては、複数のリンクが関節部を介して構成される可動部を有するロボット装置において、可動部を駆動する駆動手段と、駆動手段を制御する制御手段と、対象物を検出する対象物検出手段と、ロボット装置の行動を決定する行動決定手段と、対象物と可動部に関連する危険度を検出する危険度検出手段とを設け、制御手段が、危険度と行動決定手段が決定した行動とに基づいて、危険を軽減又は回避するために可動部を動作させるようにした。   Further, according to the present invention, in a robot apparatus having a movable portion in which a plurality of links are formed via joints, a driving unit for driving the movable unit, a control unit for controlling the driving unit, and an object for detecting an object An object detecting means, an action determining means for determining an action of the robot apparatus, and a risk detecting means for detecting a risk related to the object and the movable part, wherein the control means determines the risk and the action determining means. Based on the action performed, the movable part is operated to reduce or avoid danger.

この結果このロボット装置では、確実に危険を軽減又は回避することができる。   As a result, with this robot apparatus, danger can be reliably reduced or avoided.

さらに本発明においては、複数のリンクが関節部を介して構成される可動部を有するロボット装置の制御方法において、ロボット装置の行動を決定する第1のステップと、対象物を検出したときに当該対象物と可動部に関連する危険度を検出する第2のステップと、検出した危険度と、決定した行動とに基づいて、危険を軽減又は回避するために可動部を動作させる第3のステップとを設けるようにした。   Further, according to the present invention, in the control method of a robot device having a movable portion in which a plurality of links are formed via joints, a first step of determining an action of the robot device, and A second step of detecting a risk associated with the object and the movable part, and a third step of operating the movable part to reduce or avoid the risk based on the detected risk and the determined behavior. Is provided.

この結果このロボット装置の制御方法によれば、確実に危険を軽減又は回避することができる。   As a result, according to the control method of the robot device, the danger can be surely reduced or avoided.

本発明によれば、移動型のロボット装置及びその制御方法において、危険状況を検出すると共に、検出した危険状況の度合いを検出し、検出した危険状況及び当該危険状況の度合いに応じた所定の対処動作をロボット装置に実行させるための制御処理を行うようにしたことにより、危険状況が発生したときや発生する前に、当該危険状況に応じた適切な対処行動を実行することができ、かくして安全性を格段的に向上させ得るロボット装置及びその制御方法を実現できる。   According to the present invention, in a mobile robot apparatus and a control method thereof, a danger situation is detected, a degree of the detected danger situation is detected, and a predetermined measure corresponding to the detected danger situation and the degree of the danger situation is provided. By performing a control process for causing the robot device to execute an operation, when a danger situation occurs or before it occurs, it is possible to execute an appropriate coping action according to the danger situation, and thus the safety is ensured. It is possible to realize a robot device and a control method thereof that can significantly improve the performance.

また本発明によれば、移動型のロボット装置及びその制御方法において、危険状況を検出する危険状況検出手段と、危険状況検出手段により検出された危険状況が発生した位置に応じた所定の対処動作を実行させるための制御処理を行う制御手段とを設けるようにしたことにより、危険状況が発生した位置に応じた適切な対処行動を実行することができ、かくして安全性を格段的に向上させ得るロボット装置及びその制御方法を実現できる。   Further, according to the present invention, in the mobile robot apparatus and the control method thereof, a dangerous situation detecting means for detecting a dangerous situation, and a predetermined coping operation corresponding to a position where the dangerous situation detected by the dangerous situation detecting means has occurred. And control means for performing a control process for causing the vehicle to execute an appropriate coping action in accordance with the position where the danger situation has occurred, thus significantly improving safety. A robot device and a control method thereof can be realized.

さらに本発明によれば、複数のリンクが関節部を介して構成される可動部を有するロボット装置及びその制御方法において、ロボット装置の行動を決定し、対象物を検出したときに当該対象物と可動部に関連する危険度を検出し、検出した危険度と、決定した行動とに基づいて、危険を軽減又は回避するために可動部を動作させるようにしたことにより、確実に危険を軽減又は回避することができ、かくして安全性を格段的に向上させ得るロボット装置及びその制御方法を実現できる。   Further, according to the present invention, in a robot device having a movable portion in which a plurality of links are formed via a joint portion and a control method thereof, the behavior of the robot device is determined, and when the target is detected, By detecting the risk associated with the movable part, and by operating the movable part to reduce or avoid the risk based on the detected risk and the determined behavior, the risk is reliably reduced or Thus, it is possible to realize a robot device and a control method thereof that can avoid the problem and thus can significantly improve safety.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態によるロボット1の全体構成
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
(1) Overall Configuration of Robot 1 According to the Present Embodiment In FIGS. 1 and 2, reference numeral 1 denotes a robot according to the present embodiment as a whole, and a head unit 4 is provided above a body unit 2 via a neck 3. The arm units 5A and 5B are connected to the upper left and right side surfaces of the body unit 2, respectively, and the pair of leg units 6A and 6B are connected to the lower part of the body unit 2. It is configured.

この場合、首部3は、図3に示すように、首ピッチ軸10回り、首ヨー軸11回り及び首ピッチ軸12回りの自由度を有する首関節機構部13により保持されている。また頭部ユニット4は、この首部3の先端部に図3のように首部ロール軸14回りの自由度をもって取り付けられている。これによりこのロボット1においては、頭部ユニット4を前後、左右及び斜めの所望方向に向かせることができるようになされている。   In this case, as shown in FIG. 3, the neck 3 is held by a neck joint mechanism 13 having degrees of freedom around the neck pitch axis 10, the neck yaw axis 11, and the neck pitch axis 12. The head unit 4 is attached to the tip of the neck 3 with a degree of freedom around the neck roll shaft 14 as shown in FIG. Thus, in the robot 1, the head unit 4 can be directed in desired directions such as front and rear, left and right, and diagonally.

また各腕部ユニット5Aは、図1及び図2において明らかなように、上腕部ブロック15、前腕部ブロック16及び手先部ブロック17の3つのブロックから構成され、上腕部ブロック15の上端部が図3のように肩ピッチ軸18回り及び肩ロール軸19回りの自由度を有する肩関節機構部20を介して胴体部ユニット2に連結されている。   1 and 2, each arm unit 5A is composed of three blocks of an upper arm block 15, a forearm block 16 and a hand block 17, and the upper end of the upper arm block 15 is shown in FIG. As shown in FIG. 3, it is connected to the body unit 2 via a shoulder joint mechanism 20 having degrees of freedom around the shoulder pitch axis 18 and the shoulder roll axis 19.

このとき前腕部ブロック16は、図3のように上腕部ブロック15に上腕ヨー軸21回りの自由度をもって連結されている。また手先部ブロック17は、図3のように前腕部ブロック16に手首ヨー軸22回りの自由度をもって連結されている。さらに前腕部ブロック16には、肘ピッチ軸23回りの自由度を有する肘関節機構部24が設けられている。   At this time, the forearm block 16 is connected to the upper arm block 15 with a degree of freedom about the upper arm yaw axis 21 as shown in FIG. The hand block 17 is connected to the forearm block 16 with a degree of freedom around the wrist yaw axis 22 as shown in FIG. Further, the forearm block 16 is provided with an elbow joint mechanism 24 having a degree of freedom around the elbow pitch axis 23.

これによりロボット1においては、これら腕部ユニット5A、5Bを全体としてほぼ人間の腕部と同様の自由度をもって動かすことができ、かくして片手を上げた挨拶や腕部ユニット5A、5Bを振り回すダンスなどの当該腕部ユニット5A、5Bを用いた各種行動を行い得るようになされている。   Accordingly, in the robot 1, the arm units 5A and 5B can be moved with substantially the same degree of freedom as the human arm as a whole, and thus a greeting with one hand raised, a dance of swinging the arm units 5A and 5B, etc. Various actions using the arm units 5A and 5B can be performed.

さらに手先部ブロック17の先端部には、5本の指部25がそれぞれ屈曲及び伸長自在に取り付けられており、これによりこれら指部を使って物を摘んだり、把持することができるようになされている。   Further, five finger portions 25 are attached to the tip of the hand portion block 17 so as to bend and extend, respectively, so that an object can be picked up or grasped using these finger portions. ing.

他方、各脚部ユニット6A、6Bは、図1及び図2において明らかなように、大腿部ブロック30、脛部ブロック31及び足平部ブロック32の3つのブロックから構成され、大腿部ブロック30の上端部が図3のように股ヨー軸33回り、股ロール軸34回り及び股ピッチ軸35回りの自由度を有する股関節機構部36を介して胴体部ユニット2に連結されている。   On the other hand, each leg unit 6A, 6B is composed of three blocks of a thigh block 30, a shin block 31 and a foot block 32, as is apparent from FIGS. 3, is connected to the body unit 2 via a hip joint mechanism 36 having degrees of freedom around the crotch yaw axis 33, the crotch roll axis 34, and the crotch pitch axis 35 as shown in FIG.

このとき大腿部ブロック30及び脛部ブロック31は、図3のように膝ピッチ軸37回りの自由度を有する膝関節機構部38を介して連結されると共に、脛ブロック31及び足平ブロック32は、図3のように足首ピッチ軸39回り及び足首ロール軸40回りの自由度を有する足首関節機構部41を介して連結されている。   At this time, the thigh block 30 and the shin block 31 are connected via a knee joint mechanism 38 having a degree of freedom around the knee pitch axis 37 as shown in FIG. Are connected via an ankle joint mechanism 41 having a degree of freedom around an ankle pitch axis 39 and an ankle roll axis 40 as shown in FIG.

これによりロボット1においては、これら脚部ユニット6A、6Bを人間の脚部とほぼ同様の自由度をもって動かすことができ、かくして歩行やボールを蹴るなどの脚部ユニット6A、6Bを用いた各種動作を発現し得るようになされている。   Thereby, in the robot 1, these leg units 6A and 6B can be moved with almost the same degree of freedom as human legs, and thus various operations using the leg units 6A and 6B such as walking and kicking a ball. Can be expressed.

なおこのロボット1の場合、各股関節機構部36は、図3のように体幹ロール軸42回り及び体幹ピッチ軸43回りの自由度を有する腰関節機構部44により支持されており、これにより胴体部ユニット2を前後、左右方向に自在に傾かせることもできるようになされている。   In the case of the robot 1, each hip joint mechanism 36 is supported by a waist joint mechanism 44 having a degree of freedom around the trunk roll axis 42 and the trunk pitch axis 43 as shown in FIG. The body unit 2 can also be freely tilted in the front-back, left-right directions.

ここでロボット1においては、上述のように頭部ユニット4、各腕部ユニット5A、5B、各脚部ユニット6A、6B及び胴体部ユニット2を動かすための動力源として、図4に示すように、首関節機構部13及び肩関節機構部20等の各関節機構部を含む各自由度を有する部位に、それぞれその自由度数分のアクチュエータA〜A17が配設されている。このアクチュエータA〜A17は、ケース内部にICチップ化された演算回路や駆動電流値を検出する電流検出器等が設けられたものであり、外部機器との通信機能等をも有するものである(例えば特願2000−38097参照)。 Here, in the robot 1, as described above, as a power source for moving the head unit 4, each arm unit 5A, 5B, each leg unit 6A, 6B, and the body unit 2, as shown in FIG. , the site with each degree of freedom including each joint mechanism, such as a neck joint mechanism 13, and the shoulder joint mechanism 20, the actuator a 1 to a 17 of the freedom of minutes each are disposed. Each of the actuators A 1 to A 17 is provided with an arithmetic circuit formed as an IC chip, a current detector for detecting a drive current value, and the like inside the case, and also has a function of communicating with an external device. (For example, see Japanese Patent Application No. 2000-38097).

また胴体部ユニット2には、当該ロボット1全体の動作制御を司るメイン制御部50と、電源回路及び通信回路などの周辺回路51と、バッテリ52(図5)となどが収納されると共に、各構成ユニット(胴体部ユニット2、頭部ユニット4、各腕部ユニット5A、5B及び各脚部ユニット6A、6B)内には、それぞれメイン制御部50と電気的に接続されたサブ制御部53A〜53Dが収納されている。   The body unit 2 accommodates a main control unit 50 that controls the operation of the entire robot 1, a peripheral circuit 51 such as a power supply circuit and a communication circuit, and a battery 52 (FIG. 5). Each of the constituent units (the body unit 2, the head unit 4, the arm units 5A and 5B, and the leg units 6A and 6B) includes sub-control units 53A to 53A to which the main control unit 50 is electrically connected. 53D is stored.

さらに頭部ユニット4には、図5に示すように、このロボット1の「目」として機能する一対のCCD(Charge Coupled Device)カメラ60A、60B及び「耳」として機能するマイクロホン61などの各種外部センサと、「口」として機能するスピーカ62となどがそれぞれ所定位置に配設されている。また各脚部ユニット6A、6Bにおける足平部ブロック32の裏面等の各所定部位には外部センサとしてのタッチセンサ63が配設されている。   Further, as shown in FIG. 5, various external devices such as a pair of CCD (Charge Coupled Device) cameras 60A and 60B functioning as "eyes" of the robot 1 and a microphone 61 functioning as "ears" are provided on the head unit 4. A sensor, a speaker 62 functioning as a “mouth”, and the like are provided at predetermined positions. Further, a touch sensor 63 as an external sensor is provided at each predetermined portion such as the back surface of the foot block 32 in each of the leg units 6A and 6B.

さらに胴体部ユニット2内には、バッテリセンサ64及び加速度センサ65などの各種内部センサが配設されると共に、各構成ユニット内には、それぞれ各アクチュエータA〜A17にそれぞれ対応させて、対応するアクチュエータA〜A17の出力軸の回転角度を検出する内部センサとしてのポテンショメータP〜P17が設けられている。 More body unit 2, along with various internal sensors, such as a battery sensor 64 and the acceleration sensor 65 is arranged, within each constituent unit, each respectively corresponding to each of the actuators A 1 to A 17, corresponding potentiometer P 1 to P 17 as an internal sensor for detecting the rotation angle of the output shaft of the actuator a 1 to a 17 to is provided.

そして各CCDカメラ60A、60Bは、周囲の状況を撮像し、得られた画像信号S1Aをサブ制御部53B(図5において図示せず)を介してメイン制御部50に送出する一方、マイクロホン61は、各種外部音を集音し、かくして得られた音声信号S1Bをサブ制御部53Bを介してメイン制御部50に送出する。   Then, each of the CCD cameras 60A and 60B captures an image of the surroundings and sends the obtained image signal S1A to the main control unit 50 via the sub control unit 53B (not shown in FIG. 5), while the microphone 61 Then, various external sounds are collected, and the audio signal S1B thus obtained is transmitted to the main control unit 50 via the sub control unit 53B.

また各タッチセンサ63は、それぞれユーザからの物理的な働きかけや、外部との物理的な接触を検出し、検出結果を圧力検出信号S1Cとして対応するサブ制御部53A〜53D(図5において図示せず)を介してメイン制御部50に送出する。   Each of the touch sensors 63 detects a physical action from the user and a physical contact with the outside, and the detection results are used as pressure detection signals S1C as sub-control units 53A to 53D (shown in FIG. 5). ) To the main control unit 50.

さらにバッテリセンサ64は、バッテリ52のエネルギ残量を所定周期で検出し、検出結果をバッテリ残量信号S2Aとしてメイン制御部50に送出する一方、加速度センサ65は、3軸(x軸、y軸及びz軸)の加速度を所定周期で検出し、検出結果を加速度検出信号S2Bとしてメイン制御部50に送出する。   Further, the battery sensor 64 detects the remaining energy of the battery 52 at a predetermined cycle, and sends the detection result to the main control unit 50 as a remaining battery signal S2A, while the acceleration sensor 65 outputs three axes (x axis, y axis). , And z-axis) are detected at predetermined intervals, and the detection result is sent to the main control unit 50 as an acceleration detection signal S2B.

さらに各ポテンショメータP〜P17は、対応するアクチュエータA〜A17の出力軸の回転角度を検出し、検出結果を所定周期で角度検出信号S2C〜S2C17として対応するサブ制御部53A〜53Dを介してメイン制御部50に送出する。また各アクチュエータA〜A17は、その内部に設けられた上述の電流検出器により検出された駆動電流値に基づいて自己の出力トルクを算出し、算出結果を出力トルク検出信号S2D〜S2D17として対応するサブ制御部53A〜53Dを介してメイン制御部50に送出する。 Further potentiometers P 1 to P 17 detects the rotational angle of the output shaft of the corresponding actuator A 1 to A 17, the corresponding sub-control section 53A~ the detection result as an angle detection signal S2C 1 ~S2C 17 at a predetermined cycle The data is sent to the main control unit 50 via 53D. Each of the actuators A 1 to A 17 calculates its own output torque based on the drive current value detected by the above-described current detector provided therein, and outputs the calculation results to output torque detection signals S2D 1 to S2D. The number 17 is sent to the main control unit 50 via the corresponding sub-control units 53A to 53D.

メイン制御部50は、CCDカメラ60A、60B、マイクロホン61及び各タッチセンサ63等の各種外部センサからそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1C等の外部センサ信号S1と、バッテリセンサ64、加速度センサ65及び各ポテンショメータP〜P17等の各種内部センサからそれぞれ供給されるエネルギ残量信号S2A、加速度検出信号S2B及び各角度検出信号S2C〜S2C17や、各アクチュエータA〜A17からそれぞれ供給される出力トルク検出信号S2D〜S2D17などの内部センサ信号S2とに基づいて、ロボット1の外部及び内部の状態や、ユーザの物理的な働きかけの有無等を判断する。 The main control unit 50 includes an external sensor signal S1 such as an image signal S1A, an audio signal S1B, and a pressure detection signal S1C supplied from various external sensors such as the CCD cameras 60A and 60B, the microphone 61, and the touch sensors 63, and a battery. sensor 64, the energy remaining amount signal S2A supplied from each of various internal sensors such as an acceleration sensor 65 and the potentiometer P 1 to P 17, and the acceleration detection signal S2B and each angle detection signal S2C 1 ~S2C 17, the actuators a 1 based from to a 17 in the internal sensor signal S2, such as an output torque detection signal S2D 1 ~S2D 17 supplied respectively to determine the status and the external and internal of the robot 1, the presence or absence of physical encourage users such .

そしてメイン制御部50は、この判断結果と、予め内部メモリ50Aに格納されている制御プログラムと、そのとき装填されている外部メモリ66に格納されている各種制御パラメータとなどに基づいて続くロボット1の行動を決定し、当該決定結果に基づく制御コマンドを対応するサブ制御部53A〜53D(図4)に送出する。   Then, the main control unit 50 determines the robot 1 based on the determination result, the control program stored in the internal memory 50A in advance, and the various control parameters stored in the external memory 66 loaded at that time. Is determined, and a control command based on the determination result is transmitted to the corresponding sub-control units 53A to 53D (FIG. 4).

この結果、この制御コマンドに基づき、そのサブ制御部53A〜53Dの制御のもとに、対応するアクチュエータA〜A17が駆動され、かくして頭部ユニット4を上下左右に揺動させたり、腕部ユニット5A、5Bを上に上げたり、歩行するなどの各種行動や動作がロボット1により発現される。 As a result, based on the control command, or the under the control of the sub-control unit 53A to 53D, the corresponding actuators A 1 to A 17 is driven, thus to oscillate the head unit 4 in the vertical and horizontal arms Various actions and actions such as raising the unit units 5A and 5B and walking are expressed by the robot 1.

このようにしてこのロボット1においては、外部及び内部の状況等に基づいて自律的に行動することができるようになされている。   In this way, the robot 1 can autonomously act on the basis of external and internal situations and the like.

(2)行動生成に関するメイン制御部50の処理内容
次に、行動生成に関するメイン制御部50の処理内容について説明する。
(2) Processing Content of Main Control Unit 50 for Action Generation Next, processing content of the main control unit 50 for action generation will be described.

このロボット1の行動生成に関するメイン制御部50の処理内容を機能的に分類すると、図6に示すように、外部センサ及び内部センサのセンサ出力に基づいて外部及び内部の状態を認識する状態認識部70と、状態認識部70の認識結果に基づいてロボット1の次の行動を決定する行動決定部71と、行動決定部71により選択及び決定された行動をロボット1に発現させる行動生成部72とに分けることができる。   Functionally classifying the processing contents of the main control unit 50 relating to the behavior generation of the robot 1, as shown in FIG. 6, a state recognition unit that recognizes external and internal states based on sensor outputs of external and internal sensors. 70, an action determination unit 71 that determines the next action of the robot 1 based on the recognition result of the state recognition unit 70, an action generation unit 72 that causes the robot 1 to express the action selected and determined by the action determination unit 71. Can be divided into

この場合、状態認識部70は、各種外部センサから与えられる外部センサ信号S1と、各種内部センサから与えられる内部センサ信号S1とに基づいて特定の状態を認識し、認識結果を状態認識信号S10として行動決定部71に通知する。   In this case, the state recognition unit 70 recognizes a specific state based on the external sensor signal S1 provided from various external sensors and the internal sensor signal S1 provided from various internal sensors, and recognizes the recognition result as a state recognition signal S10. The action determination unit 71 is notified.

実際上、状態認識部70は、CCDカメラ60A、60B(図5)から与えられる画像信号S1Aに基づいて当該CCDカメラ60A、60Bの撮像範囲内に存在する人間の顔の認識及び識別処理や、障害物の存在及びステレオ計測法による当該障害物までの距離計測処理等の各種画像処理を行い、これら認識結果を行動決定部72に通知する。   In practice, the state recognition unit 70 performs recognition and identification processing of a human face existing within the imaging range of the CCD cameras 60A and 60B based on the image signal S1A given from the CCD cameras 60A and 60B (FIG. 5). It performs various image processing such as the existence of an obstacle and a distance measurement process to the obstacle by the stereo measurement method, and notifies the action determination unit 72 of these recognition results.

また状態認識部70は、マイクロホン71(図5)から与えられる音声信号S1Bを常時監視し、当該音声信号S1Bに基づき検出される各種入力音に対する認識結果や、音声信号S1Bに含まれるユーザ等の発した言葉を単語単位で認識し、これら認識結果を行動決定部71に通知する。   In addition, the state recognition unit 70 constantly monitors the audio signal S1B given from the microphone 71 (FIG. 5), and recognizes various input sounds detected based on the audio signal S1B and the user or the like included in the audio signal S1B. The spoken words are recognized on a word-by-word basis, and these recognition results are notified to the action determining unit 71.

さらに状態認識部70は、各タッチセンサ63(図5)から与えられる圧力検出信号S1Cに基づいて、ユーザからの物理的な働きかけや、ユーザ又は他の外部の有体物との物理的な接触を認識し、これら認識結果を行動決定部71に通知する。   Furthermore, based on the pressure detection signal S1C given from each touch sensor 63 (FIG. 5), the state recognition unit 70 recognizes a physical action from the user or a physical contact with the user or another external tangible object. Then, the action determination unit 71 is notified of these recognition results.

さらに状態認識部70は、バッテリセンサ64(図5)から与えられるエネルギ残量検出信号S2Aや、加速度センサ65(図5)から与えられる加速度検出信号S2B及び各ポテンショメータP〜P17からそれぞれ与えられる角度検出信号S2C〜S2C17等の内部センサ信号S2に基づいて、バッテリ52のエネルギ残量やロボット1の姿勢等を認識し、これら認識結果を行動決定部71に通知する。 Furthermore the condition recognition unit 70, provided respectively from the battery sensor 64 (FIG. 5) and the energy remaining amount detection signal S2A supplied from the acceleration sensor 65 acceleration given from (FIG. 5) detection signal S2B and potentiometers P 1 to P 17 based on the angle detection signal S2C 1 ~S2C internal sensor signal S2, such as 17 to be, aware of the remaining energy amount and the robot 1 posture of the battery 52 and the like, and notifies them recognition result to the action determining unit 71.

行動決定部71は、外部及び内部の状況に応じてロボット1の次の行動を決定する状況依存行動決定モジュールと、外部又は内部の状況に応じて反射的な行動をロボット1の次の行動として決定する反射行動決定モジュールとを有し、状態認識部70から与えられる状態認識信号S10に基づきこれら状況依存行動決定モジュール又は反射行動決定モジュールにより決定された行動を行動決定信号S11として行動生成部72に通知する。   The action determining unit 71 determines a next action of the robot 1 according to an external or internal situation, and a reflex action according to an external or internal situation as a next action of the robot 1. A reflex action determining module for determining the action, and the action determined by the situation-dependent action determining module or the reflex action determining module based on the state recognition signal S10 given from the state recognizing section 70 as the action determining signal S11. Notify

行動生成部72は、行動決定部71から与えられる行動決定信号S11に基づいて、対応するサブ制御部53A〜53D(図4)を介して必要なアクチュエータA〜A17に駆動信号S12を送出したり、スピーカ62に必要な音声信号S3を送出したり、頭部ユニット4における「目」の位置等に配設された図示しないLED(Light Emitting Diode)にLED駆動信号S13を送出する。 Behavior generation unit 72, based on the action determination signal S11 given from the action determining unit 71, sends a corresponding sub-control section 53A~53D drive signal S12 to the actuator A 1 to A 17 required via (FIG. 4) Or an audio signal S3 necessary for the speaker 62, or an LED drive signal S13 to an LED (Light Emitting Diode) (not shown) provided at the position of the "eye" of the head unit 4 or the like.

これにより行動生成部72は、この駆動信号S12に基づいて必要なアクチュエータA〜A17を所定状態に駆動させたり、音声信号S3に基づく音声をスピーカ62から出力させたり、LED駆動信号S13基づく点滅パターンでLEDを点滅させる。 Thus behavior generation unit 72, or by driving the actuator A 1 to A 17 required on the basis of the drive signal S12 to a predetermined state, or to output sound based on the audio signal S3 from the speaker 62, based on LED drive signal S13 The LED blinks in a blinking pattern.

このようにしてメイン制御部50は、ロボット1に所望の行動を発現させ得るようになされている。   In this way, the main control unit 50 can cause the robot 1 to express a desired action.

(3)ロボット1における安全対策
(3−1)安全管理部73による安全監視
次に、このロボット1に講じられた対人用、対物用及び機体保全用の安全対策について説明する。
(3) Safety Measures in the Robot 1 (3-1) Safety Monitoring by the Safety Management Unit 73 Next, safety measures taken for the robot 1 for humans, objectives, and machine maintenance will be described.

このロボット1においては、各関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24、股関節機構部36、膝関節機構部38及び足首関節機構部41等)の近傍を含む機体の随所にユーザの指の挟み込みや、外部物体との接触等を検出するためのタッチセンサ63(図5)が設けられている。またロボット1においては、上述のように、CCDカメラ60A、60Bから出力される画像信号S1Aに基づいて、状態認識部70において障害物の検出処理及びステレオ計測法による当該障害物までの距離計測処理を常時行っている。   In the robot 1, the vicinity of each joint mechanism (the neck joint mechanism 13, the shoulder joint mechanism 20, the elbow joint mechanism 24, the hip joint mechanism 36, the knee joint mechanism 38, the ankle joint mechanism 41, etc.) is shown. Touch sensors 63 (FIG. 5) for detecting a user's finger being pinched, contact with an external object, and the like are provided throughout the body including the touch panel. In the robot 1, as described above, based on the image signal S1A output from the CCD cameras 60A and 60B, the state recognition unit 70 detects an obstacle and measures distance to the obstacle by a stereo measurement method. Is always going on.

そしてこのロボット1においては、いずれかのタッチセンサ63によりユーザの指の挟み込みを検出したときや、タッチセンサ63又は画像認識処理により外部物体等との接触又はそのおそれを検出したときには、安全管理部73(図6)の制御のもとに、そのときのロボット1の姿勢や挟み込みの状態又は障害物までの距離等に応じて、そのときの状況に最も適切なかつそれまで実行していたもとの行動になるべく早く復帰し得るような対処動作を実行し得るようになされている。   In this robot 1, when any one of the touch sensors 63 detects pinching of the user's finger, or when the touch sensor 63 or the image recognition process detects contact with an external object or the like, the safety management unit Under the control of 73 (FIG. 6), according to the posture of the robot 1 at that time, the state of pinching, the distance to an obstacle, and the like, the original action that is most appropriate for the situation at that time and has been executed so far. A coping operation capable of returning as soon as possible can be executed.

実際上、このロボット1の場合、図7〜図9に示すように、各腕部ユニット5A、5Bのわき下及び肘内側と、各脚部ユニット6A、6Bにおける大腿部ブロック30及び脛部ブロック31の各内側と、各脚部ユニット6A、6Bにおける大腿部ブロック30の後面下端部とには、それぞれ安全対策用のタッチセンサ63として面接触スイッチ63F〜63Fが配設されている。 Actually, in the case of the robot 1, as shown in FIGS. 7 to 9, the arm units 5A and 5B and the insides of the elbows, the leg units 6A and 6B, the thigh block 30 and the shin each inner block 31, the leg units 6A, on the rear surface lower part of the thigh block 30 in 6B is the surface contact switch 63F 1 ~63F 5 as a touch sensor 63 for safety respectively disposed I have.

またロボット1の胴体部ユニット2における腰部の左右外側と、各脚部ユニット6A、6Bにおける大腿部ブロック30の上端部外側と、各脚部ユニット6A、6Bにおける大腿部ブロック30及び脛部ブロック31の各前面側と、各脚部ユニット6A、6Bにおける足平部ブロック32の上面外側及び底面とには、それぞれ安全対策用のタッチセンサ63としてタクトスイッチ63T〜63Tが配設されている。 In addition, the right and left outer sides of the waist of the torso unit 2 of the robot 1, the upper end of the thigh block 30 of each of the leg units 6A and 6B, and the thigh block 30 and the shin of each of the leg units 6A and 6B. each front side of the block 31, the leg units 6A, in the top outer and bottom of the foot block 32 in 6B, the tact switch 63T 1 ~63T 6 is provided as a touch sensor 63 for safety, respectively ing.

そしてロボット1においては、これら面接触スイッチ63F〜63F及びタクトスイッチ63T〜63Tを含む各種外部センサ及び内部センサから与えられる外部センサ信号S1及び内部センサ信号S2と、障害物の有無や障害物までの距離を含む状態認識部70の各種認識結果でなる状態認識信号S10とが安全管理部73に与えられる。 And in the robot 1, the external sensor signal S1 and internal sensor signal S2 given from the various external sensors and internal sensors containing these surfaces contact switch 63F 1 ~63F 5 and tact switches 63T 1 ~63T 6, the presence or absence of an obstacle Ya A state recognition signal S10 including various recognition results of the state recognition unit 70 including the distance to the obstacle is provided to the safety management unit 73.

安全管理部73は、安全監視部73A及び対処動作生成部73Bから構成されており、供給される各種外部センサ信号S1及び内部センサ信号S2並びに状態認識信号S10に基づき、図10に示す安全監視処理手順RT1に従って、指等が挟み込まれてユーザが怪我をし、ロボット1が外部物体と接触若しくは衝突することによってロボット1自体若しくは外部物体が破損し、又はロボット1の目的行動が障害物によって阻害されるおそれがある等の危険状況の発生の有無を安全監視部73Aにおいて監視する。   The safety management unit 73 includes a safety monitoring unit 73A and a coping operation generation unit 73B. Based on the supplied various types of external sensor signal S1, internal sensor signal S2, and state recognition signal S10, the safety monitoring unit 73 illustrated in FIG. In accordance with the procedure RT1, the user is injured when a finger or the like is pinched, and the robot 1 itself or the external object is damaged by the robot 1 contacting or colliding with the external object, or the target behavior of the robot 1 is hindered by an obstacle. The safety monitoring unit 73A monitors the occurrence of a dangerous situation such as a possibility that the situation may occur.

すなわち安全監視部73Aは、ロボット1の電源が投入されるとこの安全監視処理手順RT1をステップSP0において開始し、続くステップSP1において各タッチセンサ63(面接触スイッチ63F〜63F及びタクトスイッチ63T〜63T)からそれぞれ与えられる各圧力検出信号S1Cと、状態認識部70から与えられる状態認識信号S10とに基づいて、いずれかのタッチセンサ63が作動(圧力を検出)し又は画像認識処理により障害物を検出するのを待ち受ける。 That safety monitoring section 73A, when the power source of the robot 1 is turned the safety monitoring procedure RT1 were initiated in step SP0, each touch sensor 63 (the surface contact switches in the following step SP1 63F 1 ~63F 5 and tact switches 63T 1 to 63T 6 ), any one of the touch sensors 63 operates (detects pressure) or performs image recognition processing based on each pressure detection signal S1C provided from each of the state recognition units 70 and the state detection signal S10 provided from the state recognition unit 70. Waits for an obstacle to be detected.

そして安全監視部73Aは、やがていずれかのタッチセンサ63が作動し又は障害物を検出することによりこのステップSP1において肯定結果を得ると、ステップSP2に進んで、現在のロボット1の姿勢や、状態及び動作内容等の状況(以下、これを機体状況と呼ぶ)と、作動したタッチセンサ63の位置となどに基づいて、ロボット1に対処動作を実行させるべきか否かを判断する。   If the safety monitoring unit 73A eventually obtains a positive result in step SP1 by activating one of the touch sensors 63 or detecting an obstacle, the process proceeds to step SP2, where the current posture or state of the robot 1 is determined. Then, it is determined whether or not the robot 1 should execute the coping operation based on a situation such as the operation content (hereinafter, referred to as an aircraft situation) and the position of the operated touch sensor 63.

安全監視部73Aは、このステップSP2において否定結果を得るとステップSP1に戻り、これに対して肯定結果を得るとステップSP3に進んで、そのとき既にロボット1が何らかの対処動作を実行中であるか否かを判断する。   If the safety monitoring unit 73A obtains a negative result in step SP2, it returns to step SP1, and if it obtains a positive result, it proceeds to step SP3, at which time the robot 1 is already executing any coping operation. Determine whether or not.

そして安全監視部73Aは、このステップSP3において否定結果を得るとステップSP4に進んで、対処動作生成部73Bに対して対処動作を実行すべき旨の指令(対処動作実行指令)を送出した後、ステップSP1に戻り、この後同様の処理を繰り返す。   When the safety monitoring unit 73A obtains a negative result in step SP3, the process proceeds to step SP4, in which the safety monitoring unit 73A sends a command to the coping operation generation unit 73B to execute coping operation (coping operation execution command). Returning to step SP1, the same processing is repeated thereafter.

これに対して安全監視部73Aは、このステップSP3において肯定結果を得ると、ステップSP5に進んで、対処動作生成部73Bに対して対処動作を変更すべき旨の指令(以下、これを対処動作変更指令と呼ぶ)を通知した後ステップSP1に戻り、この後同様の処理を繰り返す。   On the other hand, if the safety monitoring unit 73A obtains a positive result in step SP3, the process proceeds to step SP5, in which the safety monitoring unit 73A instructs the coping operation generation unit 73B to change the coping operation (hereinafter, this is referred to as coping operation). After that, the process returns to step SP1, and the same process is repeated thereafter.

一方、対処動作生成部73Bは、安全監視部73Aから対処動作実行指令が与えられると、図11に示す対処動作生成処理手順RT2をステップSP10において開始し、続くステップSP11において、現在実行中の対処動作がある場合には、その対処動作を続行すべきか否かを判断する。   On the other hand, when the coping operation execution command is given from the safety monitoring unit 73A, the coping operation generation unit 73B starts the coping operation generation processing procedure RT2 shown in FIG. 11 in step SP10, and in the subsequent step SP11, executes the coping operation currently being executed. If there is an operation, it is determined whether or not the coping operation should be continued.

具体的に、この判断は、新たに発生した危険状況の度合い及び位置などに基づいて、現在対処動作を実行している危険状況と、新たに検出した危険状況とのいずれに対処すべきかを判定することにより行われる。   Specifically, this determination is based on the degree and position of the newly generated danger situation, and determines whether to deal with the danger situation currently performing the coping operation or the newly detected danger situation. It is done by doing.

そして対処動作生成部73Bは、このステップSP11において肯定結果を得ると、ステップSP12に進んで、そのときの危険状況の度合い、作動したタッチセンサ63の位置、現在のロボット1の機体状況などに基づいて、そのときロボット1が実行すべき対処動作を選択し、当該対処動作を実行すべき旨の指令(以下、これを対処動作生成指令と呼ぶ)を行動決定部71に送出する。   When the coping operation generating unit 73B obtains a positive result in step SP11, the process proceeds to step SP12, where the coping operation generating unit 73B determines the degree of the danger situation, the position of the activated touch sensor 63, the current body condition of the robot 1, and the like. At this time, the robot 1 selects a coping operation to be performed, and sends a command to execute the coping operation (hereinafter, referred to as a coping operation generation command) to the action determining unit 71.

かくして行動決定部71は、対処動作生成部73Bから対処動作生成指令が与えられると、ロボット1が直ちに実行すべき行動としてこの対処動作を決定し、当該決定結果に応じた行動決定信号S11を行動生成部72に送出する。これによりこの対処動作がロボット1により直ちに実行されることとなる。   Thus, when the coping operation generation command is given from the coping operation generating unit 73B, the action determining unit 71 determines the coping operation as an action to be immediately executed by the robot 1, and generates an action determining signal S11 according to the determination result. It is sent to the generation unit 72. As a result, this coping operation is immediately executed by the robot 1.

なお、対処動作生成部73Bは、ロボット1が当該対処動作の実行を既に開始している場合には、ステップSP12において、対処動作生成指令を行動決定部71に送出せず、従って、このときロボット1は先行して対処動作生成部73Bにおいて選択された対処動作を継続する。   When the robot 1 has already started executing the coping operation, the coping operation generating unit 73B does not send a coping operation generation command to the action determining unit 71 in step SP12. 1 continues the coping operation selected in the coping operation generation unit 73B in advance.

さらに対処動作生成部73Bは、この後ステップSP14に進んで、危険状況に対する対処を完了しても良いか否かを判断し、否定結果を得るとステップSP11に戻る。   Further, the coping operation generating unit 73B then proceeds to step SP14, determines whether or not to cope with the dangerous situation, and returns a negative result to step SP11.

これに対して対処動作生成部73Bは、優先的に対処すべき新たな危険状況が発生することによりステップSP11において肯定結果を得ると、ステップSP13に進んで、そのときの危険状況の度合い、作動したタッチセンサ63の位置、現在のロボット1の機体状況などに基づいて、その新たな危険状況に対してロボット1が実行すべき新たな対処動作を選択する。   On the other hand, if a new danger situation to be dealt with preferentially occurs and a positive result is obtained in step SP11, the coping operation generation unit 73B proceeds to step SP13 to determine the degree of danger situation at that time, Based on the position of the touch sensor 63 and the current state of the robot 1, a new coping operation to be executed by the robot 1 for the new dangerous situation is selected.

そして対処動作生成部73Bは、危険状況に対する対処動作として、現在ロボット1が実行している対処動作からその新たに選択した対処動作に変更すべき旨の指令(以下、これを対処動作変更指令と呼ぶ)を行動決定部71に送出する。   The coping operation generation unit 73B then issues a command to change the coping operation currently being executed by the robot 1 to the newly selected coping operation as a coping operation for the danger situation (hereinafter, this is referred to as a coping operation change command). Is sent to the action determining unit 71.

かくしてこのとき行動決定部71は、この対処動作変更指令に応じて、かかる新たに選択された対処動作をロボット1の次の行動として決定し、当該決定結果に応じた行動決定信号を行動生成部72に送出する。これによりこの新たに選択された対処動作がロボット1により直ちに実行されることとなる。   Thus, at this time, the action determining unit 71 determines the newly selected coping action as the next action of the robot 1 in response to the coping action change command, and generates an action determining signal corresponding to the determination result. 72. Thus, the newly selected coping operation is immediately executed by the robot 1.

なおこの実施の形態の場合、行動決定部71は、対処動作変更指令が与えられた場合には、そのときまでロボット1が行っていた対処動作と重複する部分を省略しながら新たな対処動作をロボット1に実行させるように行動生成部72を介して対応するアクチュエータA〜A17等を制御するようになされ、これによりかかる対処動作をより迅速にロボット1に行わせ得るようになされている。 In the case of this embodiment, when a coping operation change command is given, the behavior determining unit 71 performs a new coping operation while omitting a portion overlapping with the coping operation performed by the robot 1 up to that time. The corresponding actuators A 1 to A 17 and the like are controlled via the action generation unit 72 so as to be executed by the robot 1, whereby the coping operation can be performed more quickly by the robot 1. .

そして対処動作生成部73Bは、この後ステップSP14に進んで、このときの危険状況に対する対処動作を完了しても良いか否かを判断し、否定結果を得るとステップSP11に戻る。   Then, the coping operation generation unit 73B proceeds to step SP14, determines whether the coping operation for the dangerous situation at this time may be completed, and returns a negative result to step SP11.

さらに対処動作生成部73Bは、この後ステップSP14において肯定結果を得るまでステップSP11〜ステップSP14の処理を繰り返し実行し、やがてこのステップSP14において肯定結果を得るとステップSP15に進んでこの対処動作生成処理手順RT2を終了する。   Further, the coping operation generation unit 73B thereafter repeatedly executes the processing of steps SP11 to SP14 until a positive result is obtained in step SP14, and when a positive result is obtained in this step SP14, the process proceeds to step SP15, and the coping operation generation processing proceeds to step SP15. The procedure RT2 ends.

このように安全管理部73は、危険状況の発生の有無の監視と、危険状況が発生した場合における、対応する対処動作をロボット1に実行させるための制御処理とを常に並行して行い得るようになされ、これにより対処動作の実行中により優先度の高い危険状況が発生した場合にも適切に対処し得るようになされている。   As described above, the safety management unit 73 can always perform the monitoring of the presence or absence of the occurrence of the dangerous situation and the control processing for causing the robot 1 to execute the corresponding coping operation when the dangerous situation occurs, in parallel. In this way, it is possible to appropriately cope with a situation in which a higher priority danger situation occurs during the execution of the coping operation.

(3−2)安全監視部73Aの具体的処理
(3−2−1)センサ作動監視ステップにおける安全監視部73Aの具体的処理
ここで安全監視部73Aは、安全監視処理手順RT1(図10)のステップSP1において、いずれかのタッチセンサ63が作動したことを検出し又は画像認識処理により障害物を検出したことを認識すると、図12に示す有効確認処理手順RT3に従ってその作動又は障害物検出の有効性を確認する。
(3-2) Specific processing of the safety monitoring unit 73A (3-2-1) Specific processing of the safety monitoring unit 73A in the sensor operation monitoring step Here, the safety monitoring unit 73A performs a safety monitoring processing procedure RT1 (FIG. 10). In step SP1, when it is detected that any one of the touch sensors 63 has been operated or that an obstacle has been detected by the image recognition processing, the operation or the obstacle detection is performed in accordance with the validity confirmation processing procedure RT3 shown in FIG. Check the validity.

すなわち安全監視部73Aは、安全監視処理手順RT1のステップSP1において各タッチセンサ63からそれぞれ与えられる圧力検出信号S1C及び状態認識部70から与えられる状態認識信号S10を常時監視する。   That is, the safety monitoring unit 73A constantly monitors the pressure detection signal S1C provided from each touch sensor 63 and the state recognition signal S10 provided from the state recognition unit 70 in step SP1 of the safety monitoring processing procedure RT1.

そして安全監視部73Aは、これら圧力検出信号S1C又は状態認識信号S10に基づき、いずれかタッチセンサ63が作動し又は画像認識処理により障害物を検出したことを認識すると、この有効確認処理手順RT3をステップSP20において開始し、続くステップSP21において、各タッチセンサ63からの圧力検出信号S1C又は状態認識部70からの状態認識信号S10に基づいて、作動したタッチセンサ63を特定し、又は画像認識処理により障害物を検出したことを特定する。   Then, based on the pressure detection signal S1C or the state recognition signal S10, the safety monitoring unit 73A recognizes that either the touch sensor 63 has been activated or that an obstacle has been detected by the image recognition processing, and thus the validity confirmation processing procedure RT3 is performed. Starting in step SP20, in subsequent step SP21, the activated touch sensor 63 is specified based on the pressure detection signal S1C from each touch sensor 63 or the state recognition signal S10 from the state recognition unit 70, or by image recognition processing. Specify that an obstacle has been detected.

続いて安全監視部73Aは、ステップSP22に進んで、上述のように状態認識部70から与えられる状態認識信号S10と、行動決定部71から与えられる行動決定信号S11と、そのとき各アクチュエータA〜A17(図5)から与えられる出力トルク検出信号S2D〜S2D17(図5)となどに基づいて、現在のロボット1の機体状況と、作動したタッチセンサ63の位置又は障害物までの距離となどからみて、そのタッチセンサ63の作動又は障害物の検出が有効か否かを判断する。 Subsequently, the safety monitoring unit 73A proceeds to step SP22, and as described above, the state recognition signal S10 given from the state recognition unit 70, the action determination signal S11 given from the action determination unit 71, and each actuator A 1 at that time. to a 17 on the basis of such a (FIG. 5) provided from the output torque detection signal S2D 1 ~S2D 17 (FIG. 5), the current body condition of the robot 1, to a position or an obstacle of the touch sensor 63 actuated It is determined whether the operation of the touch sensor 63 or the detection of an obstacle is effective in view of the distance and the like.

例えば、ロボット1がいずれの腕部ユニット5A、5Bを全く動かしていない場合には、当該ロボット1の上肢部分に配置されたタッチセンサ63(図7及び図8の面接触スイッチ63F、63Fやタクトスイッチ63T)が作動してもユーザの指が当該ロボット1の上肢部分の関節機構部(肩関節機構部20及び肘関節機構部24)に挟み込まれる可能性はほとんどなく、従って、このような場合にはかかるタッチセンサ63の作動を無視しても問題はないと考えられる。すなわち、ロボット1の動作状況に応じて、例えば、挟込みといった危険状況の判断基準を変えているのである。 For example, when the robot 1 does not move any of the arm units 5A and 5B at all, the touch sensor 63 (the surface contact switches 63F 1 and 63F 2 shown in FIGS. 7 and 8) arranged on the upper limb of the robot 1 is used. And the tact switch 63T 1 ) is actuated, there is almost no possibility that the user's finger will be pinched by the joint mechanism (the shoulder joint mechanism 20 and the elbow joint mechanism 24) of the upper limb of the robot 1. In such a case, it is considered that there is no problem even if the operation of the touch sensor 63 is ignored. That is, the criterion for determining a dangerous situation such as pinching, for example, is changed according to the operation situation of the robot 1.

またロボット1が肘関節機構部24(図1)を動かしている状態において肘関節内側の面接触スイッチ63F(図7及び図8)が押圧された場合にあっても、肘関節機構部24のアクチュエータAの出力トルクが極めて小さく、かつこれ以上肘関節機構部24を曲げる予定がない場合には、かかる面接触スイッチ63Fの作動を無視しても問題はないものと考えられる。すなわち、ロボット1のアクチュエータA〜A17といった機体性能と次に予定される行動の一方又は双方を勘案して危険状況及びその危険状況の対処行動や動作を決定している。 Further, even if the surface contact switch 63F 2 (FIGS. 7 and 8) inside the elbow joint is pressed while the robot 1 is moving the elbow joint mechanism 24 (FIG. 1), the elbow joint mechanism 24 is moved. is extremely small output torque of the actuator a 8 of and there are no plans to bend more elbow joint mechanism 24 is also believed that there are no safely ignore the operation of such a surface contact switch 63F 2. That is, the danger situation and the coping action or action of the danger situation are determined in consideration of one or both of the body performance of the actuators A 1 to A 17 of the robot 1 and the next scheduled action.

さらにこのロボット1の場合、加速度センサ65(図5)から出力される加速度検出信号S2Bと、各脚部ユニット6A、6Bにおける足平部ブロック32(図7及び図8)の裏面側に配設されたタクトスイッチ63T、63Tとに基づいて抱き上げられたことを検出したときには、自己の姿勢を所定の抱き上げ姿勢に遷移させた後に全てのアクチュエータA〜A17のトルク出力を停止させて全身を脱力状態にするため、ロボット1が抱き上げられている状態のときにはいずれの関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24、股関節機構部36、膝関節機構部38及び足首関節機構部41等)においてもユーザの指等が挟まれる余地がなく、従ってこのときは全てのタッチセンサ63の作動を無視しても問題はない。つまり、ロボット1がおかれている状況と状態を勘案して、危険状況の判断を行っている。 Further, in the case of the robot 1, the acceleration detection signal S2B output from the acceleration sensor 65 (FIG. 5) and the acceleration detection signal S2B are provided on the back side of the foot block 32 (FIGS. 7 and 8) of each leg unit 6A, 6B. When it is detected that the user has been lifted based on the tact switches 63T 6 and 63T 6 that have been lifted, the torque output of all the actuators A 1 to A 17 is stopped after the own posture is changed to a predetermined lifting position. When the robot 1 is held up, any joint mechanism (the neck joint mechanism 13, the shoulder joint mechanism 20, the elbow joint mechanism 24, the hip joint mechanism 36, the knee joint mechanism) is used to bring the whole body into a weakened state. Section 38 and the ankle joint mechanism section 41), there is no room for the user's finger or the like to be caught. There is no problem. That is, the dangerous situation is determined in consideration of the situation and the state where the robot 1 is placed.

同様に、このロボット1の場合、充電用のステーション上に載置された状態のときには、左右の各脚部ユニット6A、6Bの各関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)内の各アクチュエータA12〜A17のトルク出力を停止させて下肢全体を脱力状態にすることから、関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)においてユーザの指等が挟まれる余地はなく、従ってこのときはロボット1の下肢部分に配置されたタッチセンサ63の作動を無視しても問題はない。 Similarly, when the robot 1 is placed on the charging station, the joint mechanisms of the left and right leg units 6A and 6B (the hip joint mechanism 36, the knee joint mechanism 38, and the ankle). since the torque output of each actuator a 12 to a 17 of the joint mechanism 41) is stopped for the whole lower limb weakness state, joint mechanism (hip joint mechanism 36, the knee joint mechanism 38 and the ankle joint mechanism In 41), there is no room for the user's finger or the like to be pinched. Therefore, at this time, there is no problem even if the operation of the touch sensor 63 disposed on the lower leg of the robot 1 is ignored.

さらに、例えばロボット1が歩行動作している状態において障害物を検出したとしても、その障害物が当該ロボット1の移動経路上から外れた位置にある場合には、その障害物によってロボット1の歩行が阻害されるおそれはなく、当該障害物の存在を無視しても問題はない。すなわち、ロボット1と検出された障害物との距離を勘案して危険状況の判断を行っている。   Furthermore, for example, even if an obstacle is detected while the robot 1 is performing a walking operation, if the obstacle is at a position deviating from the movement path of the robot 1, the obstacle of the robot 1 is moved by the obstacle. Is not hindered, and there is no problem even if the existence of the obstacle is ignored. That is, the dangerous situation is determined in consideration of the distance between the robot 1 and the detected obstacle.

そこで安全監視部73Aは、いずれかのタッチセンサ63が作動し又は画像認識処理により障害物を検出した場合に、現在のロボット1の機体状況を参酌しながらそのタッチセンサ63の作動又は障害物の検出が有効か否か、すなわち現在のロボット1の機体状況を勘案した場合に、ユーザがその箇所において指を挟まれて怪我をし、外部物体との接触等により当該外部物体又はロボット1自体に破損が生じ又はロボット1の動作が阻害される可能性があるか否かを判断する。   Therefore, when any one of the touch sensors 63 operates or detects an obstacle by image recognition processing, the safety monitoring unit 73A considers the operation of the touch sensor 63 or the detection of the obstacle while considering the current body condition of the robot 1. If the detection is valid, that is, considering the current state of the robot 1, the user is injured by pinching a finger at the location, and the external object or the robot 1 itself is contacted by an external object or the like. It is determined whether there is a possibility that damage may occur or the operation of the robot 1 may be hindered.

そして安全監視部73Aは、このステップSP22において否定結果(危険状況と判断される結果等)を得ると、ステップSP24に進んでこの有効確認処理手順RT3を終了し、この後安全監視処理手順RT1(図10)に戻る。これに対して安全監視部73Aは、ステップSP22において肯定結果を得ると、安全監視処理手順RT1のステップSP2に進む。   When the safety monitoring unit 73A obtains a negative result (such as a result determined to be a dangerous situation) in step SP22, the process proceeds to step SP24 to end the validity check processing procedure RT3, and thereafter, the safety monitoring processing procedure RT1 ( Return to FIG. 10). On the other hand, if the safety monitoring unit 73A obtains a positive result in step SP22, it proceeds to step SP2 of the safety monitoring processing procedure RT1.

このようにして安全監視部73Aは、いずれかのタッチセンサ63が作動し又は画像認識処理により障害物を検出したときに、そのときのロボット1の機体状況等を考慮しながら、精度良く危険状況の発生の有無を検出する。   In this way, the safety monitoring unit 73A can accurately determine the danger situation when any of the touch sensors 63 is activated or an obstacle is detected by the image recognition processing, while taking into account the body situation of the robot 1 at that time. The presence or absence of the occurrence is detected.

(3−2−2)危険状況検出ステップにおける安全監視部73Aの具体的処理
一方、安全監視部73Aは、安全監視処理手順RT1(図10)のステップSP2における処理を、図13に示す危険度判断処理手順RT4に従って実行する。
(3-2-2) Specific Processing of Safety Monitoring Unit 73A in Danger Situation Detection Step On the other hand, the safety monitoring unit 73A performs the processing in step SP2 of the safety monitoring processing procedure RT1 (FIG. 10) as shown in FIG. It is executed according to the judgment processing procedure RT4.

すなわち安全監視部73Aは、安全監視処理手順RT1のステップSP2に進むと、この危険度判断処理手順RT4をステップSP30において開始し、続くステップSP31において、安全監視処理手順RT1のステップSP1において作動が有効であると判断されたタッチセンサ63と対応付けられた安全空間又は障害物検出が有効であると判断された環境と対応付けられた安全空間のそのときの容積を計算する。   That is, when the safety monitoring unit 73A proceeds to step SP2 of the safety monitoring processing procedure RT1, the safety monitoring processing procedure RT4 starts in step SP30, and in step SP31, the operation is enabled in step SP1 of the safety monitoring processing procedure RT1. Then, the volume of the safety space associated with the touch sensor 63 determined to be or the safety space associated with the environment determined to be effective for obstacle detection is calculated.

ここで、『安全空間』とは、ロボット1の機体の部位同士又は当該機体と環境が形成する空間をいう。本実施の形態においては、1つの関節機構部を介して連結された2つのリンクにより形成される安全空間については、これら2つのリンクのなす角に応じて危険度が設定された当該2つのリンク間の空間と定義している。例えば脚部ユニット6A、6Bの大腿部ブロック30及び脛部ブロック31間について言えば、図14において矢印POで指し示す膝関節機構部38の後側の空間がこれに相当する。 Here, the “safety space” refers to a space formed between the parts of the body of the robot 1 or between the body and the environment. In the present embodiment, with respect to a safety space formed by two links connected via one joint mechanism, the two links whose degree of risk is set in accordance with the angle formed by these two links The space between them is defined. For example leg units 6A, As for between thighs block 30 and the leg portion block 31 of 6B, the side of the space after the knee joint mechanism 38 pointing an arrow PO 1 in FIG. 14 corresponds to this.

また本実施の形態の場合、1又は複数のリンクを順次介して連結された2つのリンクにより形成される安全空間については、これら2つのリンク間の距離に応じて危険度が設定された当該2つのリンク間の空間と定義している。例えば腕部ユニット5A、5Bの前腕部ブロック16及び胴体部ユニット2間について言えば、図16において矢印POで指し示す当該前腕部ブロック16及び胴体部ユニット2間の空間がこれに相当する。 Further, in the case of the present embodiment, as for the safety space formed by two links sequentially connected via one or a plurality of links, the safety level is set according to the distance between these two links. Space between two links. For example arm units 5A, As for between 5B forearm block 16 and the body unit 2, the space between the forearm block 16 and the body unit 2 pointed by the arrow PO 2 in FIG. 16 corresponds to this.

さらに本実施の形態の場合、ロボット1の機体及び環境により形成される安全空間については、当該機体と対象物、例えば、外部の障害物又は自己の機体の一部との距離に応じて危険又は安全性に関する重み、例えば、危険度が設定された空間と定義している。本実施の形態においては、例えば図18においてロボット1及び障害物74間の空間がこれに相当する。   Further, in the case of the present embodiment, the safety space formed by the body and environment of the robot 1 is dangerous or dangerous depending on the distance between the body and an object, for example, an external obstacle or a part of the own body. It is defined as a space in which a weight related to safety, for example, a risk level is set. In the present embodiment, for example, the space between the robot 1 and the obstacle 74 in FIG. 18 corresponds to this.

ただし、これらの『安全空間』の定義は一例に過ぎず、これ以外の定義を適用することも可能である。   However, these definitions of “safety space” are merely examples, and other definitions can be applied.

そして、このロボット1では、タッチセンサ64等によって危険状況が検出される各箇所にそれぞれ対応させて安全空間が設定されている。   In the robot 1, a safety space is set corresponding to each location where a danger situation is detected by the touch sensor 64 or the like.

一方、安全空間の『容積』とは、その安全空間の大きさを定量的に表す尺度をいう。本実施の形態においては、単関節機構部により形成される安全空間については、例えば図14(A)に示すように、当該関節機構部を介して連結された2つのリンクとそれぞれこれら2つのリンクの屈曲側において接し、かつその中心軸がこれら2つのリンクと垂直な円柱75の体積を、この『容積』と定義している。   On the other hand, the “volume” of a safe space refers to a scale that quantitatively represents the size of the safe space. In the present embodiment, as for a safety space formed by a single joint mechanism, for example, as shown in FIG. 14A, two links connected via the joint mechanism and each of these two links Is defined as the "volume" of the cylinder 75 which is in contact with the bent side of the column and whose central axis is perpendicular to the two links.

また本実施の形態においては、1又は複数のリンクを順次介して連結された2つのリンクにより形成される安全空間については、例えば図16(A)に示すように、当該2つのリンクとそれぞれこれら2つのリンクが最も近い位置において内接する円柱76の体積を、この『容積』と定義し、さらにロボット1及び環境間に形成される安全空間については、例えば図19(B)に示すように、当該ロボット1を中心として障害物までの距離を半径とする球77の体積を、この『容積』と定義している。   Further, in the present embodiment, as shown in FIG. 16A, for example, as shown in FIG. 16A, a safety space formed by two links sequentially connected via one or more links The volume of the cylinder 76 inscribed at the position where the two links are closest is defined as this “volume”. Further, as for the safety space formed between the robot 1 and the environment, for example, as shown in FIG. The volume of the sphere 77 whose radius is the distance from the robot 1 to the obstacle is defined as the “volume”.

ただし、これらの安全空間の『容積』の定義は、一例に過ぎず、安全空間の大きさを定量的に表せるのであれば、これ以外、例えば上記体積を面積、角度等により近似したものの定義を適用することも可能である。   However, the definition of “volume” of these safety spaces is only an example, and if the size of the safety space can be quantitatively expressed, other definitions such as approximating the above volume by area, angle, etc. It is also possible to apply.

ところで、上述のような本実施の形態による安全空間の『容積』の定義によれば、この安全空間の『容積』の計算を、例えば図20に示すように、1つの関節機構部81を介して連結された第1及び第2のリンク82A、82Bにより形成される安全空間であれば、第1及び第2のリンク82A、82Bの断面形状を方形と仮定し、これら第1及び第2のリンク82A、82Bのそれぞれと当該関節機構部81の屈曲側において接する円(以下、これを安全空間定義円と呼ぶ)SSCの面積計算と置き換えることができる。 By the way, according to the definition of the “volume” of the safety space according to the present embodiment as described above, the calculation of the “volume” of the safety space is performed via one joint mechanism 81, for example, as shown in FIG. If the safety space is formed by the first and second links 82A and 82B that are connected to each other, the cross-sectional shape of the first and second links 82A and 82B is assumed to be rectangular, and the first and second links 82A and 82B are assumed to be rectangular. link 82A, circle tangent in each a bent side of the joint mechanism 81 of the 82B (hereinafter referred to as safety space defined circle) can be replaced with area calculation of SSC 1.

この場合、関節機構部81の初期角度を「0」としたときの現在角度をθ、円の半径をr、関節機構部81の回転中心Jからタッチセンサ63の配置位置までの距離(円の中心Oから第1及び第2のリンク82A、82Bの中心線K、Kにそれぞれ下ろした垂線の足H、Hまでの間の距離)を等しくdとすると、第1及び第2のリンク82A、82Bがなす角θは、次式 In this case, when the initial angle of the joint mechanism 81 is “0”, the current angle is θ, the radius of the circle is r, and the distance from the rotation center J of the joint mechanism 81 to the arrangement position of the touch sensor 63 (the circle Assuming that d is equal to the distance between the center O and the perpendicular legs H 1 and H 2 dropped to the center lines K 1 and K 2 of the first and second links 82A and 82B, respectively, the first and second links are assumed to be d. The angle θ k formed by the links 82A and 82B of

と表すことができる。また安全空間定義円SSCの中心Oは、角θの内角二等分線上に存在し、かつ第1及び第2のリンク82A、82Bに対する法線のうち、当該第1又は第2のリンク82A、82Bと安全空間定義円SSCとの接点を通るものの上に存在するため、安全空間定義円SSCの半径rは次式 It can be expressed as. The center O of the safety space defined circle SSC 1 is present on the interior angle bisector of the corner theta k, and first and second link 82A, among the normal to 82B, the first or second link 82A, since there on what passes through the contact point between 82B and safety space defined circle SSC, radius r 1 of the safety space defined circle SSC 1 is the following formula

と表される。従って、この場合の安全空間定義円SSCの面積aは、関節機構部81の出力角度に依存した領域として、次式 It is expressed as Therefore, the area a of the safety space defining circle SSC 1 in this case is defined as a region depending on the output angle of the joint mechanism 81 as follows:

を用いて計算することができる。 Can be calculated using

同様に、図21(A)に示すように、複数の関節機構部83A、83Bを順次介して連結された第1及び第2のリンク83A、83Cに対応する安全空間の容積であれば、第1及び第2のリンク83A、83C間においてこれらとそれぞれ接する安全空間定義円SSCの面積計算と置き換えることができる。そしてこの安全空間定義円SSCの面積は、該当する各関節機構部84A、84Bの屈折角と、各リンク83A〜83Cの形状等に基づいて計算することができる。 Similarly, as shown in FIG. 21 (A), if the volume of the safety space corresponds to the first and second links 83A, 83C sequentially connected via the plurality of joint mechanisms 83A, 83B, 1 and the second link 83A, can be replaced with these and safety space definition of a circle SSC 2 area calculation contacting each between 83C. The area of the safety space defined circle SSC 2, the corresponding respective joint mechanism 84A, can be calculated based on the angle of refraction 84B, the shape of each link 83a to 83c.

また図21(B)に示すように、ロボット1と環境との間の安全空間の容積の計算については、ロボット1を中心とし、当該ロボット1から障害物までを半径とする安全空間定義円SSCの面積計算と置き換えることができる。そしてこの安全空間定義円SSCの面積は、ロボット1から障害物までの距離に基づいて計算することができる。 Further, as shown in FIG. 21 (B), regarding the calculation of the volume of the safety space between the robot 1 and the environment, the safety space definition circle SSC having the robot 1 as the center and the radius from the robot 1 to the obstacle is used. 3 can be replaced with the area calculation. The area of the safety space defined circle SSC 3 can be calculated based on the distance from the robot 1 to the obstacle.

そこで安全監視部73Aは、危険度判断処理手順RT4のステップSP31において、例えば対応するポテンショメータP〜P17から供給される角度検出信号S2C〜S2C17や、外部メモリ50Aに格納された各リンク(各腕部ユニット5A、5Bの上腕ブロック15、前腕部ブロック16及び手先部ブロック17と、胴体部ユニット2と、各脚部ユニット6A、6Bの大腿部ブロック3及び脛部ブロック31となど)の形状に関する情報、及び又は状態認識部70から供給される状態認識信号S10などに基づいて対応する安全空間の容積を上述のような計算により求める。 Therefore safety monitoring unit 73A in step SP31 of the risk determination procedure RT4, and the angle detection signal S2C 1 ~S2C 17 supplied from the potentiometer P 1 to P 17 corresponding example, each link stored in the external memory 50A (The upper arm block 15, the forearm block 16, and the hand block 17 of each arm unit 5A, 5B, the body unit 2, the thigh block 3 and the shin block 31 of each leg unit 6A, 6B, etc. The volume of the corresponding safety space is obtained by the above-described calculation based on the information regarding the shape of ()) and / or the state recognition signal S10 supplied from the state recognition unit 70.

図13に戻って、続いて安全監視部73Aは、ステップSP32に進んで、上述のようにして求めたその安全空間の容積に基づいて、そのときのその安全空間の危険度を判断する。   Returning to FIG. 13, subsequently, the safety monitoring unit 73A proceeds to step SP32, and determines the degree of danger of the safety space at that time based on the volume of the safety space obtained as described above.

ここで『危険度』とは、その安全空間における危険状況の度合いをいう。本実施の形態によるロボット1では、この『危険度』が段階的に、十分安全と判断される無視段階(例えば図15(A)、図17(A)、図19(A))と、挟み込み又は障害物(対象物)との接触までにはまだ余裕があると判断される警戒段階(例えば図15(B)、図17(B)、図19(B))と、近未来で挟み込み又は障害物との接触があり得ると判断される緊急段階(例えば図15(C)、図17(C)、図19(C))とに分けられている。また特に各脚部ユニット6A、6Bの膝関節機構部38の後側の安全空間(図14参照)と、ロボット1及び環境が形成する安全空間とについては、さらに『危険度』として、挟み込み状況が成立し又は障害物と極めて近接したと判断される緊急回避段階(例えば図15(D))が設けられている。これらの『危険度』は、例えば、アクチュエータA〜A17のトルク出力能力や各リンクが形成する関節角、予定行動等を総合的に勘案して規定されている。ただし、これらに限定されるものではなく、その他の要素を勘案しても良い。 Here, “danger level” refers to the degree of danger situation in the safety space. In the robot 1 according to the present embodiment, this “danger” is stepwisely ignored (eg, FIG. 15 (A), FIG. 17 (A), FIG. 19 (A)) in which the safety is judged to be sufficiently safe. Alternatively, a warning stage (for example, FIG. 15 (B), FIG. 17 (B), FIG. 19 (B)) in which it is determined that there is still enough time to come into contact with an obstacle (object), It is divided into an emergency stage (for example, FIG. 15C, FIG. 17C, and FIG. 19C) in which it is determined that there is a possibility of contact with an obstacle. Particularly, the safety space behind the knee joint mechanism 38 of each of the leg units 6A and 6B (see FIG. 14) and the safety space formed by the robot 1 and the environment are further defined as "risk degree", and Is established or an emergency avoidance stage (for example, FIG. 15D) is determined in which it is determined that the vehicle is very close to the obstacle. These “risks” are defined in consideration of, for example, the torque output capabilities of the actuators A 1 to A 17 , the joint angles formed by the links, the scheduled behavior, and the like. However, the present invention is not limited to these, and other factors may be considered.

そしてこのロボット1では、安全空間の容積に基づいてその安全空間の危険度を判断するための手段として、図22に示すような第1のテーブル(以下、これを第1の安全空間管理テーブルと呼ぶ)85が予め外部メモリ66(図5)に格納されている。この第1の安全空間テーブル85は、単関節機構部により形成される各安全空間について、その安全空間の位置(『空間』の欄)と、その安全空間と対応付けられたセンサ(『センサ』の欄)と、当該センサの配置位置(『センサ位置』の欄)と、その安全空間の容積を支配する関節軸(『対象関節』の欄)と、その安全空間における無視段階、警戒段階及び緊急段階に対する容積の各上限値(それぞれ『閾値1』、『閾値2』、『閾値3』の欄)と、緊急回避する場合の回避量(『緊急回避量』の欄)と、後述するその安全空間に対応付けられた対処動作の内容を規定した第1及び第2の対処動作テーブル90、91(図27及び図28)(『対処動作種別』の欄)とをそれぞれ関連付けて記述したものである。   In the robot 1, as means for determining the degree of danger of the safety space based on the volume of the safety space, a first table as shown in FIG. Is stored in advance in the external memory 66 (FIG. 5). The first safety space table 85 includes, for each safety space formed by the single joint mechanism, the position of the safety space (the column of “space”) and the sensor (“sensor”) associated with the safety space. Column), the arrangement position of the sensor (the column of “sensor position”), the joint axis that governs the volume of the safety space (the column of the “target joint”), the ignoring stage, the alert stage in the safety space, and Each upper limit value of the volume for the emergency stage (the “Threshold 1”, “Threshold 2”, and “Threshold 3” columns), the avoidance amount in the case of emergency avoidance (the “Emergency avoidance amount” column), and First and second coping operation tables 90 and 91 (FIGS. 27 and 28) (FIG. 27 and FIG. 28) defining coping operation contents associated with the safety space (the "coping operation type" column) are described in association with each other. It is.

従って、安全監視部73Aは、この第1の安全管理テーブル85に登録されたいずれかのタッチセンサ63が作動した場合、この第1の安全管理テーブル85を参照することによって、その作動したタッチセンサ63と対応付けられた安全空間の位置と、そのタッチセンサ63の配置位置と、後述のような緊急回避動作を行う場合の駆動すべき軸と、無視段階、警戒段階及び緊急段階に対するその安全空間の容積の各上限値とを直ちに認識することができる。   Therefore, when any one of the touch sensors 63 registered in the first safety management table 85 is activated, the safety monitoring unit 73A refers to the first safety management table 85 to determine the activated touch sensor. The position of the safety space corresponding to 63, the arrangement position of the touch sensor 63, the axis to be driven when performing an emergency avoidance operation described later, and the safety space for the ignoring stage, the alert stage, and the emergency stage Can be immediately recognized.

またロボット1においては、図23及び図24に示すように、多リンクにより形成される各安全空間と、ロボット及び環境間に形成される安全空間とのそれぞれについて、その安全空間の位置と、その安全空間と対応付けられたセンサと、当該センサの配置位置と、その安全空間の容積を増減させる関節軸と、その安全空間における無視段階、警戒段階及び緊急段階に対する容積の各上限値と、緊急回避する場合の回避量と、後述するその安全空間に対応付けられた第2、第3の対処動作テーブル91、92(図28、図29)とがそれぞれ関連付けて記述された第2及び第3のテーブル(以下、これらをそれぞれ第2又は第3の安全空間管理テーブルと呼ぶ)86、87が予め外部メモリ66(図5)に格納されている。   In the robot 1, as shown in FIG. 23 and FIG. 24, for each of the safety spaces formed by multiple links and the safety space formed between the robot and the environment, A sensor associated with the safety space, the position of the sensor, the joint axis for increasing or decreasing the volume of the safety space, the upper limit values of the volumes for the ignoring, warning, and emergency stages in the safety space; A second and a third description in which the avoidance amount in the case of avoidance and second and third coping operation tables 91 and 92 (FIGS. 28 and 29) respectively associated with the safety space described later are described in association with each other. (Hereinafter, referred to as second or third safe space management tables) 86 and 87 are stored in the external memory 66 (FIG. 5) in advance.

かくして安全監視部73Aは、このステップSP32において、ステップSP31において求めた安全空間の容積を、外部メモリ66に格納された対応する第1〜第3の安全空間管理テーブル85〜87に記述されている対応する安全空間の無視段階、警戒段階及び緊急段階の各上限値と順番に比較し、この比較結果に基づいてその安全空間の現在の危険度を判断する。   Thus, in this step SP32, the safety monitoring unit 73A describes the volume of the safety space obtained in step SP31 in the corresponding first to third safety space management tables 85 to 87 stored in the external memory 66. The corresponding safety spaces are sequentially compared with the upper limit values of the ignoring stage, the warning stage, and the emergency stage, and the current risk level of the safety space is determined based on the comparison result.

例えば有効に作動したのが左膝関節機構部38の後側のタッチセンサ63(図9の面接触スイッチ63F)であった場合、安全監視部73Aは、ステップSP31において算出した左膝関節機構部38の後側の安全空間の容積を、第1の安全管理テーブル85(図22)における対応する無視段階、警戒段階及び緊急段階の各上限値m(s)、n(s)、l(s)と順次比較する。そして安全監視部73Aは、その容積が無視段階の上限値m以下であったときには、その安全空間の現在の危険度が無視段階であると判断し、その容積が無視段階の上限値m(s)よりも大きくかつ警戒段階の上限値n(s)以下であった場合には、その安全空間の現在の危険度が警戒段階であると判断し、その容積が警戒段階の上限値n(s)よりも大きくかつ緊急段階の上限値l(s)以下であった場合には、その安全空間の現在の危険度が緊急段階であると判断し、その容積が緊急段階の上限値l(s)よりも大きかった場合には、その安全空間の現在の危険度が緊急回避段階であると判断する。 For example, when the effective operation is the touch sensor 63 (the surface contact switch 63F 5 in FIG. 9) on the rear side of the left knee joint mechanism unit 38, the safety monitoring unit 73A calculates the left knee joint mechanism calculated in step SP31. The volume of the safety space on the rear side of the unit 38 is determined by the upper limit values m 3 (s i ) and n 3 (s i of the corresponding neglect stage, alert stage, and emergency stage in the first safety management table 85 (FIG. 22). ), L 1 (s i ). The safety monitoring section 73A, when its volume is equal to or less than the upper limit m 3 of ignoring step determines that the current risk of the safety space is ignored step, the upper limit m 3 of the volume of ignoring step If was less large and vigilance stages upper limit n 1 (s i) than (s i), it is determined that the current risk of the safety space is alert stage, the volume of alert stage When it is larger than the upper limit value n 3 (s i ) and equal to or less than the upper limit value l 1 (s i ) of the emergency stage, it is determined that the current degree of danger of the safety space is the emergency stage, and its volume is Is larger than the upper limit l 1 (s i ) of the emergency stage, it is determined that the current degree of danger of the safety space is the emergency avoidance stage.

そして安全監視部73Aは、このようにして得られたその安全空間の現在の危険度が無視段階であると判断した場合には、ステップSP35に進んでこの危険度判断処理手順RT4(図13)を終了して安全監視処理手順RT1(図10)に戻り、この後この安全監視処理手順RT1のステップSP1に戻る。   When the safety monitoring unit 73A determines that the current risk level of the safety space obtained in this way is in the ignoring stage, the process proceeds to step SP35, and the risk level determination processing procedure RT4 (FIG. 13). And returns to the safety monitoring procedure RT1 (FIG. 10), and then returns to step SP1 of the safety monitoring procedure RT1.

これに対して安全監視部73Aは、その安全空間の現在の危険度が警戒段階、緊急段階又は緊急回避段階であると判断した場合には、ステップSP34に進んで安全監視処理手順RT1(図10)に戻り、この後この安全監視処理手順RT1のステップSP2に進む。   On the other hand, if the safety monitoring unit 73A determines that the current danger level of the safety space is the alert stage, the emergency stage, or the emergency avoidance stage, the process proceeds to step SP34, and the safety monitoring process procedure RT1 (FIG. 10) ), And then proceeds to step SP2 of the safety monitoring procedure RT1.

このようにして安全監視部73Aは、いずれかのタッチセンサ63が作動し又は画像認識処理により障害物を検出したときに、該当する安全空間の容積に基づいて、ロボット1に対処動作を実行させるべきか否かを判断し得るようになされている。   In this manner, the safety monitoring unit 73A causes the robot 1 to execute a coping operation based on the volume of the corresponding safety space when any of the touch sensors 63 is activated or an obstacle is detected by the image recognition processing. It is made possible to judge whether or not to do so.

なお、図22〜図24において、m(s)〜m19(s)、n(s)〜n19(s)、l(s)〜l(s)、p(s)〜p(s)は、例えば図25(A)〜(C)に示すように、それぞれ予め設定された所定の大きさ(例えば成人男子の平均的な人指し指の太さ)を単位とする具体的なパラメータ値を表している。そしてこの実施の形態においては、そのときのロボット1の機体状況(s)に応じて、安全監視部73Aがこれらパラメータ値を順次切り換えるようになされている。つまり、図22〜図24において、sは、機体状況を表し、m(s)〜m19(s)、n(s)〜n19(s)、l(s)〜l(s)、p(s)〜p(s)は、その機体状況に対してそれぞれ予め設定された具体的なパラメータ値を表している。 22 to 24, m 1 (s i ) to m 19 (s i ), n 1 (s i ) to n 19 (s i ), and l 1 (s i ) to l 3 (s i ). , P 1 (s i ) to p 3 (s i ) are, for example, as shown in FIGS. 25A to 25C, respectively, each having a predetermined size (for example, an average index finger of an adult male). (Thickness) as a unit. Then, in this embodiment, the safety monitoring unit 73A sequentially switches these parameter values according to the machine condition (s i ) of the robot 1 at that time. That is, in FIGS. 22 to 24, s i represents the aircraft status, m 1 (s i) ~m 19 (s i), n 1 (s i) ~n 19 (s i), l 1 (s i ) to l 3 (s i ) and p 1 (s i ) to p 3 (s i ) represent specific parameter values preset for the aircraft condition, respectively.

すなわちこのロボット1の場合、後述のように当該ロボット1がとり得る全ての機体状況を、充電器用のステーション上に載置された状態である『ステーション(s)』と、抱き上げられた状態である『抱き上げ(s)』と、転倒状態から起き上がろうとしている途中の状態である『原点復帰中(s)』と、左右の脚部ユニットをそれぞれ接地させて動作している状態である『立脚状態(s)』と、これら以外の状態である『床運動中(s)』との5つのカテゴリに分類し(図27〜図29参照)、危険状況が発生したときには、そのときのロボット1の機体状況(s)(ただし、i=1、2、……、5)がどのカテゴリに属するかに応じて、その危険状況に対するロボット1に発現させる対処動作を切り換えるようにしている。 That is, in the case of the robot 1, as described later, all the possible body conditions that the robot 1 can take are described as “station (s 3 )”, which is a state mounted on a charger station, and held up. There are a certain “lifting (s 4 )”, a state of “returning to origin (s 5 )” in the process of getting up from a falling state, and a state in which the left and right leg units are each brought into contact with the ground. It is classified into five categories of “standing state (s 1 )” and “other than floor exercise (s 2 )” (see FIGS. 27 to 29). of the aircraft situation (s i) (where, i = 1,2, ......, 5 ) robot 1 at the time depending on whether belongs to which category is, to switch the corrective action to be expressed to the robot 1 with respect to the dangerous situation To have.

そして外部メモリ66(図5)には、第1〜第3の安全空間管理テーブル85〜87について、それぞれ各機体状況のカテゴリにそれぞれ対応させて、例えば図25(A)〜(C)に示すようなその機体状況に対するパラメータ値の既定値が格納されている。   Then, in the external memory 66 (FIG. 5), the first to third safety space management tables 85 to 87 are respectively associated with the categories of the respective machine statuses, for example, as shown in FIGS. 25A to 25C. The default values of the parameter values for the aircraft condition are stored.

かくして安全監視部73は、危険度判断処理手順RT4(図13)のステップSP32において、先行するステップSP31において算出した安全空間の容積を、対応する第1〜第3の安全空間管理テーブル85〜87において規定された対応する安全空間の無視段階等の上限値と比較する際には、まずそのときのロボット1の機体状況を行動決定部71からの行動決定信号S11(図6)や各ポテンショメータP〜P17(図5)からの角度検出信号S2C〜S2C17などに基づいて判断し、この判断結果に基づいて、対応する第1〜第3の安全空間管理テーブル85〜87のそのときの機体状況に応じた各パラメータ値m(s)〜m19(s)、n(s)〜n19(s)、l(s)〜l(s)、p(s)〜p(s)を外部メモリ66から読み出して、その第1〜第3の安全空間管理テーブル85〜87を書き換えたうえで、かかる比較処理を実行する。 Thus, in step SP32 of the risk degree determination processing procedure RT4 (FIG. 13), the safety monitoring unit 73 compares the volume of the safety space calculated in the preceding step SP31 with the corresponding first to third safety space management tables 85 to 87. When comparing with the upper limit value of the corresponding safety space ignoring step or the like defined in the above, first, the body condition of the robot 1 at that time is determined by the action determination signal S11 (FIG. 6) from the action determination unit 71 and each potentiometer P 1 to P 17 (FIG. 5), based on the angle detection signals S2C 1 to S2C 17 and the like, and based on the determination result, the corresponding first to third safety space management tables 85 to 87 at that time. each parameter value corresponding to the aircraft status m 1 (s i) ~m 19 (s i), n 1 (s i) ~n 19 (s i), l 1 (s i) ~l 3 ( i), is read from p 1 (s i) ~p 3 (s i) the external memory 66, and rewrites the first to third safety space management table 85-87, executes the comparison processing .

このようにしてこのロボット1においては、各安全空間に対する危険度の検出処理であっても、そのときのロボット1の機体状況ごとに当該機体状況に最適な状態で危険状況検出を行い得るようになされている。   In this way, in the robot 1, even in the process of detecting the degree of danger to each safety space, the danger situation detection can be performed in an optimal state for the body condition for each body condition of the robot 1 at that time. Has been done.

(3−3)対処動作生成部73Bの具体的処理
(3−3−1)進行状況判断ステップにおける対処動作生成部73Bの処理
次に、対処動作生成処理手順RT2(図2)のステップSP11における対処動作生成部73Bの処理内容について説明する。
(3-3) Specific processing of the coping operation generation unit 73B (3-3-1) Processing of the coping operation generation unit 73B in the progress status determination step Next, in step SP11 of the coping operation generation processing procedure RT2 (FIG. 2). The processing content of the coping operation generation unit 73B will be described.

本実施の形態によるロボット1においては、
1.ロボット1の任意の機体の一部のみを停止させると、その部位が動作中の機体の他の部位と干渉するおそれがある
2.脚部ユニット6A、6Bを使った動作中は、ほぼ下肢のみでロボット1の姿勢を保つことから、下肢の挙動と上肢の挙動を切り離すことができる
3.対処動作の最中により危険度の高い危険状況が発生する場合がある
という3つの考察事項を考慮して、危険状況を、『いずれかの安全空間の危険度が警戒段階に至った場合』、『環境との間で形成される安全空間の危険度が緊急段階に至った場合』、『上肢のいずれかの安全空間の危険度が緊急段階に至った場合』及び『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』の4種類に分けている。
In the robot 1 according to the present embodiment,
1. If only a part of an arbitrary body of the robot 1 is stopped, the part may interfere with another part of the operating body.
2. During the operation using the leg units 6A and 6B, since the posture of the robot 1 is maintained almost only by the lower limb, the behavior of the lower limb and the behavior of the upper limb can be separated.
3. Considering the three considerations that a high-risk danger situation may occur during the coping operation, the danger situation is defined as "if any of the safety spaces has reached the danger stage,""When the risk of the safety space formed with the environment has reached the emergency stage,""When the risk of any of the upper limb safety spaces has reached the emergency stage," and "When any of the lower limb safety When the risk of space reaches the emergency stage ”.

そして、対処動作生成部73Bは、
1.現在対処動作を行っている危険状況が発生した安全空間の危険度が変化しても、対処動作を切り換えずに現在の対処動作を最後まで続ける
2.現在行っている対処動作に対応する危険度よりも優先順位の高い危険状況が他の安全空間において発生した場合に限り、対処動作の切り換えを行う
3.危険状況は、『いずれかの安全空間の危険度が警戒段階に至った場合』、『環境との間で形成される安全空間の危険度が緊急段階に至った場合』、『上肢のいずれかの安全空間の危険度が緊急段階に至った場合』及び『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』の順に優先順位が高くなる
という3つのルールに従いながら、上述の対処動作生成処理手順RT2(図11)のステップSP11における現在の対処動作を続行するか否かの判断を行っている。
Then, the coping operation generation unit 73B
1. Even if the danger level of the safety space in which the danger situation in which the coping operation is being performed has changed, the current coping operation is continued to the end without switching the coping operation
2. Only when a danger situation having a higher priority than the danger level corresponding to the currently performed coping operation occurs in another safety space, the coping operation is switched.
3. The danger situations are as follows: "when the risk of any safety space reaches the alert stage,""when the risk of the safety space formed with the environment reaches the emergency stage," or "one of the upper limbs. When the risk of the safety space of the lower limb reaches the emergency stage ”and the case of the risk of the lower limb safety space reaches the emergency stage, the priority order increases in order, It is determined whether to continue the current coping operation in step SP11 of the coping operation generation processing procedure RT2 (FIG. 11).

すなわち対処動作生成部73Bは、対処動作生成処理手順RT2(図11)のステップSP11に進むと、対処動作変更指令が安全監視部73Aから与えられたか否かを確認し、否定結果を得るとステップSP12に進む。   That is, when proceeding to step SP11 of the coping operation generation processing procedure RT2 (FIG. 11), the coping operation generation unit 73B checks whether or not a coping operation change command has been given from the safety monitoring unit 73A. Proceed to SP12.

これに対して対処動作生成部73Bは、このステップSP11において肯定結果を得ると、安全監視処理手順RT1のステップSP2において上述した方法と同様の方法により、現在対処動作を行っている危険状況が発生した安全空間の位置及びその危険度と、新たに危険状況が検出された安全空間の位置及びその危険度とをそれぞれ検出する。そして、対処動作生成部73Bは、現在対処している危険状況と、新たに発生した危険状況とのいずれの優先順位が高いかを判定する。   On the other hand, if a positive result is obtained in step SP11, the coping operation generation unit 73B generates a danger situation in which coping operation is currently being performed by the same method as described above in step SP2 of the safety monitoring processing procedure RT1. Then, the position of the safety space and its danger, and the position of the safety space in which the danger situation is newly detected and its danger are detected. Then, the coping operation generation unit 73B determines which of the priority of the currently dealt with danger situation or the newly created danger situation is higher.

そして対処動作生成部73Bは、現在対処動作を行っている危険状況の方が優先順位が高いと判断するとステップSP12に進み、これに対して新たに発生した危険状況の方が優先順位が高いと判断したときにはステップSP13に進む。   When the coping operation generation unit 73B determines that the danger situation in which the coping operation is currently performed has a higher priority, the process proceeds to step SP12, and if the danger situation newly occurred has a higher priority. When it is determined, the process proceeds to step SP13.

(3−3−2)対処動作生成ステップにおける対処動作生成部73Bの処理
一方、対処動作生成部73Bは、対処動作生成処理手順RT2(図11)の最初のステップSP12の処理を、図23に示す対処動作選択実行処理手順RT5に従って実行する。
(3-3-2) Process of Coping Operation Generation Unit 73B in Coping Operation Generation Step On the other hand, the coping operation generation unit 73B shows the processing of the first step SP12 of the coping operation generation processing procedure RT2 (FIG. 11) in FIG. It is executed in accordance with the coping operation selection execution processing procedure RT5 shown.

すなわち対処動作生成部73Bは、対処動作生成処理手順RT2のステップSP12に進むと、この対処動作選択実行処理手順RT5をステップSP40において開始し、続くステップSP41において、現在何らかの対処動作を実行中であるか否かを判断する。   That is, when proceeding to step SP12 of the coping operation generation processing procedure RT2, the coping operation generation unit 73B starts the coping operation selection execution processing procedure RT5 in step SP40, and is currently performing some coping operation in step SP41. It is determined whether or not.

そして対処動作生成部73Bは、このステップSP41において肯定結果を得るとステップSP43に進み、これに対して否定結果を得ると、ステップSP42に進んで、上述の対処動作生成処理手順RT2のステップSP11において検出した、対処すべき危険状況が発生している安全空間の位置及びその危険度とに基づいて、そのとき実行すべき対処動作を選択する。   If a positive result is obtained in step SP41, the coping operation generating unit 73B proceeds to step SP43. If a negative result is obtained, the coping operation generating unit 73B proceeds to step SP42, and proceeds to step SP11 of the coping operation generation processing procedure RT2. A coping operation to be executed at that time is selected based on the detected position of the safety space where the danger situation to be coped with occurs and the degree of danger.

ここで、このロボット1においては、対処すべき危険状況が発生している安全空間の位置及びその危険度とに基づき、そのとき実行すべき対処動作を選択するための手段として、図27〜図29に示すように、当該ロボット1がとり得る全ての機体状況を、充電器用のステーション上に載置された状態である『ステーション』と、抱き上げられた状態である『抱き上げ』と、転倒状態から起き上がろうとしている途中の状態である『原点復帰中』と、左右の脚部ユニットをそれぞれ接地させて動作している状態である『立脚状態』と、これら以外の状態である『床運動中』との5つのカテゴリに分類している。   Here, in the robot 1, as a means for selecting a coping operation to be executed at that time based on the position of the safety space in which the danger situation to be coped is occurring and the degree of the danger, FIGS. As shown in FIG. 29, all the possible aircraft states that the robot 1 can take are changed from a “station” that is placed on a charger station, a “hold” that is held up, and a falling state. `` Returning to origin '', which is in the process of getting up, `` Standing state '', in which the left and right leg units are operating with the left and right legs touching each other, and `` Floor exercise '' in other states 5 categories.

そして、外部メモリ66(図5)には、これらの機体状況ごとに、そのとき発生している危険状況の危険度が無視段階、警戒段階、緊急段階又は緊急回避段階であった場合にそれぞれ実行すべき対処動作の内容を規定した第1〜第3のテーブル(以下、これらをそれぞれ第1〜第3の対処動作テーブルと呼ぶ)90〜92が格納されている。なお、第1の対処動作テーブル90は、ロボット1の上肢部分に定義されたいずれかの安全空間に危険状況が発生した場合に実行すべき対処動作をそのときの機体状態ごとにそれぞれ規定したものであり、第2の対処動作テーブル91は、ロボット1の下肢部分に定義されたいずれかの安全空間に危険状況が発生した場合に実行すべき対処動作をそのときの機体状態ごとにそれぞれ規定したものである。また第3の対処動作テーブル92は、環境との間の安全空間に危険状況が発生した場合におけるそのときの機体状態ごとの対処動作を規定したものである。   Then, the external memory 66 (FIG. 5) executes, for each of these machine situations, when the danger level of the danger situation occurring at that time is the neglect stage, the alert stage, the emergency stage, or the emergency avoidance stage, respectively. First to third tables 90 to 92 (hereinafter, referred to as first to third coping operation tables, respectively) defining the contents of coping operations to be performed are stored. The first coping operation table 90 specifies coping operations to be executed when a danger situation occurs in any of the safety spaces defined in the upper limb portion of the robot 1 for each body state at that time. In the second coping operation table 91, coping operations to be executed when a danger situation occurs in any of the safety spaces defined in the lower limb portion of the robot 1 are defined for each body state at that time. Things. Further, the third coping operation table 92 defines coping operations for each machine state at the time when a danger situation occurs in a safe space between the environment and the environment.

また図22〜図24について上述したように、第1〜第3の安全管理テーブル85〜87には、その第1〜第3の安全空間管理テーブル85〜87に搭載された各安全空間について、対処動作を選択するときに参照すべき対応する第1〜第3の対処動作テーブル90〜92が記述されている(図22〜図24における『対処動作種別』の欄)。   Further, as described above with reference to FIGS. 22 to 24, the first to third safety management tables 85 to 87 include, for each of the safety spaces mounted in the first to third safety space management tables 85 to 87, Corresponding first to third coping operation tables 90 to 92 to be referred to when selecting a coping operation are described (the column of “coping operation type” in FIGS. 22 to 24).

かくして対処動作生成部73Bは、対処動作選択実行処理手順RT5のステップSP42に進むと、対応する第1〜第3の安全空間管理テーブル85〜87を用いて、その危険状況が発生している安全空間とどの第1〜第3の動作対処テーブル90〜92が対応付けられているかを確認すると共に、行動決定部71(図6)から与えられる行動決定信号S11と、各ポテンショメータP〜P17から与えられる角度検出信号S2C〜S2C17となどに基づいて、現在のロボット1の機体状況を確認する。 Thus, when proceeding to step SP42 of the coping operation selection execution processing procedure RT5, the coping operation generation unit 73B uses the corresponding first to third safety space management tables 85 to 87 to set the safety in which the danger situation has occurred. together to check whether the first to third operation shooting table 90-92 which a space is associated, the action decision signal S11 given from the behavior determining unit 71 (FIG. 6), the potentiometer P 1 to P 17 based on such an angle detection signal S2C 1 ~S2C 17 given from, to determine the current aircraft condition of the robot 1.

そして対処動作生成部73Bは、上述のように確認した、そのとき対処すべき危険状況が発生している安全空間と対応付けられた第1〜第3の動作対処テーブル90〜92を用い、そのときのロボット1の機体状況と、安全監視部73Aから通知されるそのとき対処すべき危険状況が発生している安全空間の現在の危険度とに基づいて、そのとき実行すべき対処動作を選択する。   Then, the coping operation generation unit 73B uses the first to third operation coping tables 90 to 92 associated with the safety space in which the dangerous situation to be dealt with at this time has been confirmed as described above. The action to be performed at that time is selected based on the body condition of the robot 1 at that time and the current danger degree of the safety space in which the danger situation to be dealt with is notified from the safety monitoring unit 73A. I do.

さらに対処動作生成部73Bは、この後ステップSP44に進んで、上述のように選択した対処動作をロボット1に実行させ、さらにこの後ステップSP45に進んでこの対処動作選択実行処理手順RT5を終了する。   Further, the coping operation generation unit 73B then proceeds to step SP44 to cause the robot 1 to execute the coping operation selected as described above, and further proceeds to step SP45 to end the coping operation selection execution processing procedure RT5. .

なお、かかる対処動作選択実行処理手順RT5のステップSP43において実行される各対処動作の具体的な内容は、それぞれ図27〜図29について説明した上述の第1〜第3の対処動作テーブル90〜92に規定されている通りであり、危険状況が発生した安全空間の位置やそのときの危険度に応じて詳細は異なるが、当該危険状況が『いずれかの安全空間の危険度が警戒段階に至った場合』、『上肢のいずれかの安全空間の危険度が緊急段階に至った場合』又は『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』の各カテゴリ内では対処動作の内容が大まかには同じ内容となっている。   The specific contents of each coping operation executed in step SP43 of the coping operation selection execution processing procedure RT5 are described in the above-described first to third coping operation tables 90 to 92 described with reference to FIGS. 27 to 29, respectively. Although the details differ according to the position of the safety space where the danger situation occurred and the degree of danger at that time, the danger situation is described as `` the danger level of any safety space has reached the alert stage. In each category of "when the risk of any of the upper limb safety spaces reaches the emergency stage" or "when the risk of any of the lower limb safety spaces reaches the emergency stage" Is roughly the same.

つまり、危険状況が発生した安全空間の危険度が警戒段階であった場合には、その安全空間がどこに定義されたものであるかにかかわりなく、対処動作は大まかには同じ内容となっている。また危険状況が発生した安全空間がロボット1の上肢部分に定義されたものであって、その危険度が緊急段階であった場合には、その安全空間がロボット1の上肢のどの位置に定義されたものであるかにかかわりなく、対処動作は大まかには同じ内容となっており、これと同様に、危険状況が発生した安全空間がロボット1の下肢部分に定義されたものであって、その危険度が緊急段階であった場合には、その安全空間がロボット1の下肢のどの位置に定義されたものであるかにかかわりなく、対処動作は大まかには同じ内容となっている。   In other words, if the danger level of the safety space in which the danger situation occurred was at the alert stage, regardless of where the safety space was defined, the coping actions were roughly the same. . If the safety space in which the danger situation occurred is defined in the upper limb portion of the robot 1 and the degree of danger is in an emergency stage, the safety space is defined in any position of the upper limb of the robot 1. Regardless of whether the safety action is performed, the coping operation has roughly the same content, and similarly, the safety space in which the dangerous situation has occurred is defined in the lower limb portion of the robot 1, and When the degree of danger is in the emergency stage, the coping operation has roughly the same content regardless of the position of the lower limb of the robot 1 where the safety space is defined.

そして対処動作生成部73Bは、対処動作選択実行処理手順RT5のステップSP42において選択した対処動作が、『いずれかの安全空間の危険度が警戒段階に至った場合』に対する対処動作(図27〜図29に示す第1〜第3の対処動作テーブル90〜92の各『警戒段階』の欄にそれぞれ記載された各対処動作)であるときは、概ね図30に示す警戒用対処動作処理手順RT6の手順でロボット1の機体保全を確保しながらロボット1の動きをゆるやかに停止させる。   Then, the coping operation generation unit 73B sets the coping operation selected in step SP42 of the coping operation selection execution processing procedure RT5 to the coping operation for "when the danger degree of any one of the safety spaces has reached the caution stage" (FIGS. 27 to 27). 29, each of the coping operations described in each of the “alert stages” of the first to third coping operation tables 90 to 92 shown in FIG. 29). The movement of the robot 1 is gently stopped while securing the body of the robot 1 in the procedure.

すなわち対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において、『いずれかの安全空間の危険度が警戒段階に至った場合』に対する対処動作を選択すると、続くステップSP43において警戒用対処動作処理手順RT6(図30)をステップSP50において開始し、続くステップSP51において、危険度が警戒段階に至った安全空間がロボット1の上肢部分に定義されたものであった場合には、0.5秒以内にその安全空間と対応付けられた上肢部分の関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24及び腰関節機構部44)及びこれに付随する上肢部分の関節機構部の動きを停止及び脱力させるべき旨の指令を行動決定部71(図6)に送出する。   That is, when the coping operation generation unit 73B selects the coping operation for “when the danger degree of any of the safety spaces has reached the caution stage” in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26), the following step is performed. In step SP43, the warning coping operation processing procedure RT6 (FIG. 30) is started in step SP50, and in step SP51, the safety space in which the danger level has reached the warning stage is defined in the upper limb portion of the robot 1. , The joint mechanisms (neck joint mechanism 13, shoulder joint mechanism 20, elbow joint mechanism 24, and hip joint mechanism 44) of the upper limb portion associated with the safety space within 0.5 seconds and accompanying A command to stop and weaken the movement of the joint mechanism of the upper limb is sent to the action determining unit 71 (FIG. 6).

かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、そのときロボット1の上肢部分の対応する関節機構部の動きをゆるやかに停止させた後にその関節機構部を脱力させるように(すなわち出力トルクが「0」となるように)、対応する各アクチュエータA〜A11を制御する。 Thus, at this time, the action determining unit 71 sends an action determining signal S11 according to the command to the action generating unit 72, and the action generating unit 72 responds to the upper limb portion of the robot 1 at that time according to the action determining signal S11. The corresponding actuators A 1 to A 11 are controlled so that the movement of the joint mechanism is gradually stopped and then the joint mechanism is released (that is, the output torque becomes “0”).

続いて対処動作生成部73Bは、ステップSP52に進んで、現在ロボット1が下肢部分の関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)を動かす動作を実行中であるか否かを行動決定部71から与えられる行動決定信号S11に基づいて判断し、否定結果を得るとステップSP54に進んでこの警戒用対処動作処理手順RT6を終了する。   Subsequently, the coping operation generation unit 73B proceeds to step SP52, and the robot 1 is currently performing an operation of moving the joint mechanism units (the hip joint mechanism unit 36, the knee joint mechanism unit 38, and the ankle joint mechanism unit 41) of the lower limb portion. It is determined based on the action determination signal S11 given from the action determination unit 71 whether or not there is, and if a negative result is obtained, the process proceeds to step SP54 to end the alert handling operation processing procedure RT6.

これに対して対処動作生成部73Bは、ステップSP52において肯定結果を得るとステップSP53に進んで、一歩以内にロボット1の下肢部分の全ての関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)の動きを停止すべき旨の指令を行動決定部71に送出する。   On the other hand, if a positive result is obtained in step SP52, the coping operation generation unit 73B proceeds to step SP53, and all the joint mechanisms (the hip joint mechanism 36 and the knee joint mechanism 38) of the lower limb of the robot 1 within one step. Then, a command to stop the movement of the ankle joint mechanism 41) is sent to the action determining unit 71.

かくしてこのとき行動決定部71は、この指令に従って行動生成部72に行動決定信号S11を送出し、行動生成部72は、この行動決定信号S11に従って、ロボット1が転倒しないように制御しながらその下肢部分の動きを一歩以内にゆるやかに停止させるように、対応する各アクチュエータA〜A11を制御する。 Thus, at this time, the action determining unit 71 sends the action determining signal S11 to the action generating unit 72 in accordance with the instruction, and the action generating unit 72 controls the robot 1 so as not to fall down in accordance with the action determining signal S11, while controlling the lower limb thereof. The corresponding actuators A 1 to A 11 are controlled so as to gradually stop the movement of the portion within one step.

そして対処動作生成部71は、この後ステップSP54に進んでこの警戒用対処動作処理手順RT6を終了する。   Then, the coping operation generation unit 71 proceeds to step SP54 and ends the alert coping operation processing procedure RT6.

一方、対処動作生成部73Bは、対処動作選択実行処理手順RT5のステップSP42において選択した対処動作が、『上肢のいずれかの安全空間の危険度が緊急段階に至った場合』に対する対処動作(図27に示す第1の対処動作テーブルの『緊急段階』の欄に記載された各対処動作)であるときは、概ね図31に示す上肢緊急用対処動作処理手順RT7の手順でロボット1の機体保全を無視してロボット1の全身動きを即時停止させる。   On the other hand, the coping operation generation unit 73B determines that the coping operation selected in step SP42 of the coping operation selection execution processing procedure RT5 is a coping operation for “when the risk of any one of the upper limb safety spaces has reached an emergency stage” (see FIG. 27, each of the coping operations described in the column of “emergency stage” in the first coping operation table shown in FIG. 27) is performed in accordance with the upper limb emergency coping operation processing procedure RT7 shown in FIG. Is ignored, and the whole body movement of the robot 1 is immediately stopped.

すなわち対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において、『上肢のいずれかの安全空間の危険度が緊急段階に至った場合』に対する対処動作を選択すると、続くステップSP43において上肢緊急用対処動作処理手順RT7(図31)をステップSP60において開始し、続くステップSP61において、ロボット1の上肢部分の全ての関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24及び腰関節機構部44)の動きを即時停止すべき旨の指令を行動決定部71(図6)に送出する。   That is, the coping operation generation unit 73B selects a coping operation for “when the risk of any one of the upper limb safety spaces has reached the emergency stage” in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26). In a succeeding step SP43, an upper limb emergency handling operation processing procedure RT7 (FIG. 31) is started in a step SP60, and in a succeeding step SP61, all the joint mechanisms (the neck joint mechanism 13, the shoulder joint mechanism 13) of the upper limb portion of the robot 1 are started. 20, an instruction to immediately stop the movements of the elbow joint mechanism 24 and the hip joint mechanism 44) is sent to the action determining unit 71 (FIG. 6).

かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、そのときロボット1の上肢部分の全ての関節機構部の動きを即時停止させるように、対応する各アクチュエータA〜A11を制御する。 Thus, at this time, the action determining unit 71 sends an action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 performs all the upper limb portions of the robot 1 at that time according to the action determining signal S11. The corresponding actuators A 1 to A 11 are controlled so as to immediately stop the movement of the joint mechanism.

続いて対処動作生成部73Bは、ステップSP62に進んで、動きを即時停止させた関節機構部を脱力すべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、かかる関節機構部を脱力させるように(すなわち出力トルクが「0」となるように)対応するアクチュエータA〜A11を制御する。 Subsequently, the coping operation generation unit 73B proceeds to step SP62, and sends a command to the action determination unit 71 that the joint mechanism unit whose movement has been immediately stopped should be weakened. Thus, at this time, the action determining unit 71 sends the action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 releases the joint mechanism according to the action determining signal S11 ( That is, the corresponding actuators A 1 to A 11 are controlled so that the output torque becomes “0”.

続くステップSP63において、対処動作生成部73Bは、現在ロボット1が下肢部分の関節機構部を動かす動作を実行中であるか否かを行動決定部71から与えられる行動決定信号S11に基づいて判断し、否定結果を得るとステップSP65に進んでこの上肢緊急用対処動作処理手順RT7を終了する。   In subsequent step SP63, the coping operation generation unit 73B determines whether or not the robot 1 is currently performing an operation of moving the joint mechanism unit of the lower limb based on the action determination signal S11 given from the action determination unit 71. If a negative result is obtained, the process proceeds to step SP65 to end the upper limb emergency handling operation procedure RT7.

これに対して対処動作生成部73Bは、ステップSP63において肯定結果を得るとステップSP64に進んで、一歩以内にロボット1の下肢部分の全ての関節機構部の動きを停止すべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に従って行動生成部72に行動決定信号S11を送出し、行動生成部72は、この行動決定信号S11に従って、その下肢部分の動きを一歩以内にゆるやかに停止させるように、対応する各アクチュエータA〜A11を制御する。 On the other hand, if a positive result is obtained in step SP63, the coping operation generating unit 73B proceeds to step SP64 and issues an instruction to stop the movement of all the joint mechanisms of the lower limb portion of the robot 1 within one step. It is sent to the decision unit 71. Thus, at this time, the action determining unit 71 sends the action determining signal S11 to the action generating unit 72 in accordance with the command, and the action generating unit 72 gently stops the movement of the lower limb portion within one step according to the action determining signal S11. The corresponding actuators A 1 to A 11 are controlled so as to perform the operation.

そして対処動作生成部71は、この後ステップSP65に進んでこの上肢緊急用対処動作処理手順RT7を終了する。   Then, the coping operation generating section 71 proceeds to step SP65 and ends the upper limb emergency coping operation processing procedure RT7.

他方、対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において選択した対処動作が、『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』に対する対処動作(図28に示す第2の対処動作テーブル91の『緊急段階』の欄に記載されたいずれかの対処動作)であり、かつその緊急段階に至った安全空間の位置が図14において矢印POで指し示す膝関節機構部38の後側でないときは、概ね図32に示す第1の下肢緊急用対処動作処理手順RT8の手順で機体保全を無視してロボット1の全身の動きを即時停止させる。 On the other hand, the coping operation generation unit 73B determines that the coping operation selected in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26) corresponds to “when the risk of any of the lower limb safety spaces has reached the emergency stage”. A coping operation (any of the coping operations described in the “emergency stage” column of the second coping operation table 91 shown in FIG. 28), and the position of the safety space that has reached the emergency stage is indicated by an arrow in FIG. If not the rear side of the knee joint mechanism 38 pointing in PO 1 is generally immediately stop the motion of the whole body of the robot 1 while ignoring the aircraft conservation procedure of the first leg emergency coping operation processing procedure RT8 shown in FIG. 32 Let it.

すなわち対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において、膝関節機構部38の後側以外の『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』に対する対処動作を選択すると、続くステップSP43において第1の下肢緊急用対処動作処理手順RT8(図31)をステップSP70において開始し、続くステップSP71において、ロボット1の上肢部分の全ての関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24及び腰関節機構部44)の動きを即時停止すべき旨の指令を行動決定部71(図6)に送出する。   That is, in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26), the coping operation generation unit 73B sets “the danger degree of any of the lower limb safety spaces other than the rear side of the knee joint mechanism unit 38 to the emergency stage. In the following step SP43, the first lower limb emergency coping operation processing procedure RT8 (FIG. 31) is started in step SP70, and in the following step SP71, all joints of the upper limb portion of the robot 1 are selected. A command to immediately stop the movement of the mechanical units (the neck joint mechanical unit 13, the shoulder joint mechanical unit 20, the elbow joint mechanical unit 24, and the hip joint mechanical unit 44) is sent to the behavior determining unit 71 (FIG. 6).

かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、そのときロボット1の上肢部分の全ての関節機構部の動きを即時停止させるように、対応する各アクチュエータA〜A11を制御する。 Thus, at this time, the action determining unit 71 sends an action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 performs all the upper limb portions of the robot 1 at that time according to the action determining signal S11. The corresponding actuators A 1 to A 11 are controlled so as to immediately stop the movement of the joint mechanism.

次いで対処動作生成部73Bは、ステップSP72に進んで、現在ロボット1が下肢部分の関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)のいずれかを動作させているか否かを判断し、否定結果を得るとステップSP74に進み、これに対して肯定結果を得るとステップSP73に進んで、下肢部分の関節機構部の動作を即時停止すべき旨の指令を行動決定部71に送出する。   Next, the coping operation generation unit 73B proceeds to step SP72 and determines whether the robot 1 is currently operating any of the joint mechanisms (the hip joint mechanism 36, the knee joint mechanism 38, and the ankle joint mechanism 41) of the lower limb. If no, a negative result is obtained, and the process proceeds to step SP74. If a positive result is obtained, the process proceeds to step SP73, and a command to immediately stop the operation of the joint mechanism of the lower limb portion is determined. It is sent to the unit 71.

かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、ロボット1の下肢部分における全ての関節機構部の動作を即時停止させるように、対応する各アクチュエータA12〜A17を制御する。 Thus, at this time, the action determining unit 71 sends an action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 determines all the joint mechanisms in the lower limb portion of the robot 1 according to the action determining signal S11. operate so as to immediately stop parts, controls the corresponding actuators a 12 to a 17.

続くステップSP74において、対処動作生成部73Bは、ロボット1の下肢部分の全ての関節機構部を脱力すべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、かかるロボット1の下肢部分の全ての関節機構部を脱力するように(すなわち出力トルクが「0」となるように)対応するアクチュエータA12〜A17を制御する。 In the following step SP74, the coping operation generation unit 73B sends to the action determination unit 71 a command indicating that all joint mechanisms of the lower limb of the robot 1 should be weakened. Thus, at this time, the action determining unit 71 sends an action determining signal S11 according to the command to the action generating unit 72, and the action generating unit 72 determines all joints of the lower limb portion of the robot 1 according to the action determining signal S11. the mechanism to weakness to control the actuator a 12 to a 17 (i.e. the output torque so that a "0") corresponding.

そして対処動作生成部は、この後ステップSP75に進んでこの第1の下肢緊急用対処動作処理手順RT8を終了する。   Then, the coping operation generation unit then proceeds to step SP75 and ends the first lower limb emergency coping operation processing procedure RT8.

これに対して対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において選択した対処動作が、『下肢のいずれかの安全空間の危険度が緊急段階に至った場合』に対する対処動作(図28に示す第2の対処動作テーブル91の『緊急段階』の欄にそれぞれ記載された各対処動作)であり、かつその緊急段階に至った安全空間の位置が膝関節機構部38の後側であったときは、概ね図33に示す第2の下肢緊急用対処動作処理手順RT9の手順で機体保全を無視してロボット1の全身の動きを即時停止させた後に、必要な回避動作を実行させる。   On the other hand, the coping operation generation unit 73B determines that the coping operation selected in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26) is "when the risk of any of the lower limb safety spaces reaches the emergency stage. (Each coping operation described in the “emergency stage” column of the second coping operation table 91 shown in FIG. 28), and the position of the safety space that has reached the emergency stage is determined by the knee joint mechanism. When it is behind the unit 38, the movement of the whole body of the robot 1 is immediately stopped immediately after ignoring the body maintenance in the procedure of the second lower limb emergency response operation processing procedure RT9 shown in FIG. And perform an evasive operation.

すなわち対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において、『下肢の膝関節機構部38の後側の安全空間の危険度が緊急段階に至った場合』に対する対処動作を選択すると、続くステップSP43において第2の下肢緊急用対処動作処理手順RT9(図33)をステップSP80において開始し、続くステップSP81〜ステップSP83を図32について上述した第1の下肢緊急用対処動作処理手順RT8のステップSP71〜ステップSP73と同様に処理する。   In other words, the coping operation generation unit 73B determines in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26) that "the risk of the safety space behind the lower limb knee joint mechanism unit 38 has reached an emergency stage". When the coping operation is selected, the second lower limb emergency coping operation processing procedure RT9 (FIG. 33) is started in step SP80 in the following step SP43, and the subsequent steps SP81 to SP83 are performed in the first lower limb emergency as described above with reference to FIG. The processing is performed in the same manner as steps SP71 to SP73 of the coping operation processing procedure RT8.

そして対処動作生成部73Bは、ステップSP84に進むと、安全監視処理手順RT1(図10)のステップSP2において上述した方法と同様の方法により、そのとき危険状況が発生している安全空間の危険度を検出し、当該危険度が『緊急回避段階』であるか否かを判断する。   Then, when proceeding to step SP84, the coping operation generation unit 73B executes the same method as the method described above in step SP2 of the safety monitoring processing procedure RT1 (FIG. 10) to determine the degree of danger of the safety space in which the danger situation occurs at that time. Is detected, and it is determined whether or not the risk is in the “urgent avoidance stage”.

そして対処動作生成部73Bは、このステップSP84において否定結果を得るとステップSP86に進み、これに対して肯定結果を得るとステップSP85に進んで、図22について上述した第1の安全管理テーブル85の『緊急回避量』の欄に記述されたパラメータ値p、pと、当該第1の安全管理テーブル85の『対象関節』の欄に記述された、その膝関節機構部38の後側に定義された安全空間の容積を増減させるための軸(膝ピッチ軸37(図3))を読み出し、このパラメータ値p、pに応じた量だけ当該軸(膝ピッチ軸37)を駆動させる緊急回避動作をロボット1に実行させるべき旨の指令を行動決定部71(図6)に送出する。 If a negative result is obtained in step SP84, the coping operation generating unit 73B proceeds to step SP86. If a positive result is obtained, the coping operation generating unit 73B proceeds to step SP85. The parameter values p 1 and p 2 described in the column of “emergency avoidance amount” and the rear side of the knee joint mechanism 38 described in the column of “target joint” of the first safety management table 85 are described. An axis (knee pitch axis 37 (FIG. 3)) for increasing or decreasing the volume of the defined safety space is read out, and the axis (knee pitch axis 37) is driven by an amount corresponding to the parameter values p 1 and p 2 . A command to cause the robot 1 to execute the emergency avoidance operation is sent to the action determining unit 71 (FIG. 6).

かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、図34に示すように、膝関節機構部38を開く方向に動かすように、対応するアクチュエータA15を駆動させる。 Thus, at this time, the action determining unit 71 sends an action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72, as shown in FIG. part 38 to move in the opening direction and to drive the corresponding actuator a 15.

なお、この際行動生成部72は、膝関節機構部38の緊急回避動作の出力角度φの半分ずつが、大腿部ブロック30側の屈曲角度φと脛部ブロック31側の屈曲角度φとに同時に加算出力されるように膝関節機構部38内のアクチュエータA15だけではなく、股関節機構部36内の対応するアクチュエータA12〜A14及び足首関節機構部41内の対応するアクチュエータA16、A17をも同時に駆動させる。このようにしてこのロボット1においては、立脚時における膝関節機構部38の緊急回避動作に起因する当該ロボット1の転倒の可能性を低減させ得るようになされている。 At this time behavior generator 72 halves the output angle phi 3 of emergency avoidance operation of the knee joint mechanism 38, the bending angle of the bending angle phi 1 and shin block 31 side of the thigh block 30 side phi 2 and the corresponding actuators A 12 to A 14 in the hip joint mechanism 36 and the corresponding actuators A in the ankle joint mechanism 41 as well as the actuator A 15 in the knee joint mechanism 38 so as to be simultaneously output. 16, also drives simultaneously a 17. In this manner, in the robot 1, the possibility of the robot 1 falling over due to the emergency avoidance operation of the knee joint mechanism 38 when standing up can be reduced.

そして対処動作生成部73Bは、続くステップSP86において、第1の下肢緊急用対処動作処理手順RT8(図32)のステップSP74と同様にしてロボット1の下肢部分の全ての関節機構部を脱力させ、この後ステップSP87に進んでこの第2の下肢緊急段階用対処動作処理手順RT9を終了する。   Then, in the following step SP86, the coping operation generation unit 73B releases all the joint mechanism units of the lower limb portion of the robot 1 in the same manner as in step SP74 of the first lower limb emergency coping operation processing procedure RT8 (FIG. 32). Thereafter, the process proceeds to step SP87 to end the second lower limb emergency stage coping operation processing procedure RT9.

これに対して対処動作生成部73Bは、対処動作選択実行処理手順RT5のステップSP42において選択した対処動作が、『環境との間で形成される安全空間の危険度が緊急段階に至った場合』に対する対処動作(図29に示す第3の対処動作テーブルの『緊急段階』の欄に記載された各対処動作)であるときは、概ね図35に示す環境緊急用対処動作処理手順RT10の手順で機体保全を無視してロボット1の動きを即時停止させ又は障害物を回避しながらロボット1にそのときの目的行動を継続させる。   On the other hand, the coping operation generation unit 73B determines that the coping operation selected in step SP42 of the coping operation selection execution processing procedure RT5 is "when the risk of the safety space formed with the environment has reached the emergency stage". 29 (each of the coping operations described in the "emergency stage" column of the third coping operation table shown in FIG. 29), the environmental emergency coping operation processing procedure RT10 shown in FIG. 35 is performed. The movement of the robot 1 is immediately stopped ignoring the maintenance of the body, or the robot 1 continues the target action at that time while avoiding an obstacle.

すなわち対処動作生成部73Bは、対処動作選択実行処理手順RT5(図26)のステップSP42において、『環境との間で形成される安全空間の危険度が緊急段階に至った場合』に対する対処動作を選択すると、続くステップSP43において環境緊急用対処動作処理手順RT10(図35)をステップSP90において開始し、続くステップSP91において、現在の行動の優先度や回避経路の有無等に基づいて、ロボット1を緊急停止させるべきか否かを判断する。   That is, the coping operation generation unit 73B performs the coping operation for “when the risk of the safety space formed with the environment has reached the emergency stage” in step SP42 of the coping operation selection execution processing procedure RT5 (FIG. 26). Upon selection, in step SP43, an environmental emergency response operation processing procedure RT10 (FIG. 35) is started in step SP90. In step SP91, the robot 1 is controlled based on the current action priority, the presence or absence of an avoidance route, and the like. It is determined whether an emergency stop is required.

そして対処動作生成部73Bは、現在のロボット1の行動を継続させる必要がない場合や、何らかの回避手法が存在しない場合などにはステップSP92に進んで、この後ステップSP92〜ステップSP94を図33について上述した第2の緊急用対処動作処理手順RT9のステップSP81〜ステップSP83と同様に処理する。   The coping operation generation unit 73B proceeds to step SP92 when there is no need to continue the current behavior of the robot 1 or when there is no avoidance method, and thereafter, proceeds from step SP92 to step SP94 with reference to FIG. Processing is performed in the same manner as in steps SP81 to SP83 of the second emergency handling operation processing procedure RT9 described above.

また対処動作生成部73Bは、この後ステップSP95に進んで、安全監視処理手順RT1(図10)のステップSP2において上述した方法と同様の方法により、環境の安全空間の危険度を検出し、当該危険度が『緊急回避段階』であるか否かを判断する。   Further, the coping operation generation unit 73B thereafter proceeds to step SP95, detects the degree of danger of the environmental safety space by the same method as the method described above in step SP2 of the safety monitoring processing procedure RT1 (FIG. 10), and It is determined whether or not the risk is in the “emergency avoidance stage”.

そして対処動作生成部73Bは、このステップSP95において否定結果を得るとステップSP100に進み、これに対して肯定結果を得るとステップSP96に進んで、そのときの状況に応じて必要であれば図24について上述した第3の安全管理テーブル87の『緊急回避量』の欄に記述されたパラメータ値pを読み出し、ロボット1に該当する緊急回避動作を実行させるべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従ってロボット1に該当する停止回避動作を実行させるように、対応するアクチュエータA〜A17を制御する。 If a negative result is obtained in step SP95, the coping operation generating unit 73B proceeds to step SP100. If a positive result is obtained, the coping operation generating unit 73B proceeds to step SP96. If necessary according to the situation at that time, FIG. the parameter value p 3 described in the column of "emergency avoidance amount" of the third safety management table 87 described above reads a command to the effect to be executed an emergency avoidance operation corresponding to the robot 1 in the action determining unit 71 for Send out. Thus, at this time, the action determining unit 71 sends the action determining signal S11 according to the command to the action generating unit 72, and the action generating unit 72 causes the robot 1 to execute the stop avoidance operation corresponding to the action determining signal S11. as controls the corresponding actuator a 1 to a 17.

なお、この場合の緊急回避動作としては、例えば障害物100が静止している場合に、図36(A)のようにその障害物100を手を使って移動させることや、障害物100がロボット1に近接してくるような場合に、図36(B)のようにその障害物100を避ける方向にロボット1が転倒することが考えられる。   In this case, as the emergency avoidance operation, for example, when the obstacle 100 is stationary, the obstacle 100 is moved by hand as shown in FIG. In the case where the robot 1 approaches the robot 1, the robot 1 may fall in a direction to avoid the obstacle 100 as shown in FIG.

そして対処動作生成部73Bは、この後ステップSP100に進んでこの環境緊急用対処動作処理手順RT10を終了する。   Then, the coping operation generating unit 73B proceeds to step SP100 and ends the environmental emergency coping operation processing procedure RT10.

これに対して対処動作生成部73Bは、ステップSP91において、現在の行動を継続させる必要がある場合や、何らかの回避手法が存在する場合などにはステップSP98に進んで、安全監視処理手順RT1(図10)のステップSP2において上述した方法と同様の方法により環境の安全空間の危険度を繰り返し検出しながら、当該危険度が『緊急回避段階』となるのを待ち受ける。   On the other hand, in step SP91, the coping operation generation unit 73B proceeds to step SP98 when it is necessary to continue the current action or when there is any avoidance method, and proceeds to step SP98 to perform the safety monitoring processing procedure RT1 (FIG. In step SP2 of 10), while repeatedly detecting the degree of danger of the environmental safety space by the same method as described above, the apparatus waits for the degree of danger to be in the “emergency avoidance stage”.

そして対処動作生成部73Bは、やがて環境の安全空間の危険度が『緊急回避段階』となることによりステップSP98において肯定結果を得ると、ステップSP99に進んで、その障害物等を回避しながら現在の行動を継続するための回避動作を実行させるべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従ってロボット1に該当する回避動作を実行させるように、対応するアクチュエータA〜A17を制御する。 Then, when the coping operation generating unit 73B obtains an affirmative result in step SP98 due to the danger degree of the environmental safety space eventually becoming the “urgent avoidance stage”, the process proceeds to step SP99, and while avoiding the obstacle or the like, Is sent to the action determining unit 71 to execute the avoidance action for continuing the action. Thus, at this time, the action determining unit 71 sends the action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 causes the robot 1 to execute the avoidance operation corresponding to the action determining signal S11. the controls corresponding actuator a 1 to a 17.

なお、この場合の回避動作としては、例えばロボット1が歩行動作を継続する場合において、図37(A)及び(B)のようにロボット1全体として障害物を迂回したり、図38(A)及び(B)のように障害物101を避けるようにロボット1の身を屈めたり、又は図39(A)及び(B)のように機体の一部(例えば腕部ユニット5A、5B)のみを障害物102から避けるように動かすことが考えられる。   In addition, as the avoiding operation in this case, for example, when the robot 1 continues the walking operation, the robot 1 may bypass an obstacle as shown in FIGS. 39 (B), the robot 1 bends to avoid the obstacle 101, or only a part of the body (for example, the arm units 5A, 5B) as shown in FIGS. 39 (A) and (B). It is conceivable to move so as to avoid the obstacle 102.

そして対処動作生成部73Bは、この後ステップSP100に進んでこの環境緊急用対処動作処理手順RT10を終了する。   Then, the coping operation generating unit 73B proceeds to step SP100 and ends the environmental emergency coping operation processing procedure RT10.

このようにして対処動作生成部73は、作動したタッチセンサ63の配置位置及びそのときの安全空間の容積に応じて、ユーザに対する安全性を確保しながらも、図40に示すように、当該容積が大きいほどなるべく早くもとの行動に復帰できるような(すなわち対処動作によるロボット1の稼働効率低下が小さくなるような)対処動作をロボット1に実行させる。   In this way, the coping operation generating unit 73 secures the safety for the user according to the arrangement position of the activated touch sensor 63 and the volume of the safety space at that time, and as shown in FIG. Is larger, the robot 1 executes a coping operation that can return to the original action as soon as possible (that is, a decrease in the operating efficiency of the robot 1 due to the coping operation is reduced).

つまり、検出時の安全空間の容積が大きい無視段階では、タッチセンサ63が作動等しても何らの対処もせず、安全空間の容積がこれよりも小さい警戒段階では、安全性を確保しつつも、ロボット1の機体保全をも考慮した対処動作を行い、これによりロボット1の機体等の破損防止に加えて、ロボット1が転倒状態から復帰(立ち上がる)する際に必要となる不要時間の発生を防止して、ロボット1の稼働効率の低下を防止する。   In other words, in the ignoring stage where the volume of the safety space at the time of detection is large, no action is taken even if the touch sensor 63 is operated, etc., and in the caution stage where the volume of the safety space is smaller than this, while securing the safety, In addition, a coping operation is performed in consideration of the maintenance of the body of the robot 1, thereby preventing unnecessary damage necessary for the robot 1 to return (stand up) from a falling state in addition to preventing damage to the body of the robot 1. The operation efficiency of the robot 1 is prevented from lowering.

また安全空間の容積が警戒段階よりもさらに小さい緊急段階では、転倒等によりロボット1の稼働効率が低下するおそれがあるが、機体保全よりも安全性を重視した対処動作を行う。またこの対処動作を上肢又は下肢のいずれの安全空間において発生したものであるかによっても変える。さらに安全空間の容積が緊急段階よりもさらに小さい緊急回避段階では、転倒等に加えて緊急回避動作のための時間をも要することから、より稼働効率が悪くなるが、危険状況の解消を最優先する。   In an emergency stage in which the volume of the safety space is smaller than that in the alert stage, there is a possibility that the operation efficiency of the robot 1 may be reduced due to a fall or the like. Further, the coping operation is changed depending on whether the operation has occurred in the upper limb or the lower limb safety space. Furthermore, in the emergency avoidance phase where the volume of the safety space is even smaller than that in the emergency phase, it takes more time to perform the emergency avoidance operation in addition to falling down, so the operating efficiency becomes worse. I do.

そしてこのロボット1では、このように危険状況の検出時の安全空間の容積に応じて対処行動を変えることによって、安全性を確保しつつ、稼働効率の低下を防止することで、危険状況の発生に起因するエンターテンターテインメントロボットとしてのエンターテインメント性の低下を未然に防止し得るようになされている。   In the robot 1, by changing the coping action according to the volume of the safety space at the time of detection of the danger situation, the safety is ensured and the operation efficiency is prevented from lowering, so that the danger situation is generated. Therefore, it is possible to prevent a decrease in the entertainment property of the entertainment robot due to the above.

なお図40等にある「無視段階」、「警戒段階」、「緊急段階」及び「回避段階」について説明すると、本実施例において、例えば、歩行時における「無視段階」とは危険度が所定のレベルに達しても危険度を無視できるとして歩行動作を継続する段階をいう。また、「警戒段階」とは危険度が所定のレベルに達した場合に、両足が着地するまで待ってから歩行動作を停止することをいう。「緊急段階」は危険度が所定のレベルに達した場合に,即時歩行動作停止することをいう。「回避段階」は危険度が所定のレベルに達した際に、足を引く等の別の回避動作を行なう段階をいう。さらに一般化すれば、「無視段階」とは行動を継続、「警戒段階」は再開しやすい状況まで動作してから停止、「緊急段階」は即時停止、及び「回避段階」はその制御以外に別の制御等により回避制御を行なうことをいう。ただし、これらの定義は上記に限定されるものでなく危険レベルに応じたその他の段階的行動であってもよい。   Note that the “ignoring stage”, the “alert stage”, the “emergency stage”, and the “avoidance stage” in FIG. 40 and the like will be described. This refers to a stage in which the level of danger can be ignored even when the level is reached and the walking operation is continued. The "warning stage" means that when the degree of danger reaches a predetermined level, the walking operation is stopped after waiting for both feet to land. The “emergency stage” means that the walking operation is immediately stopped when the risk reaches a predetermined level. The “avoidance stage” refers to a stage in which another avoidance operation such as dropping a foot is performed when the degree of risk reaches a predetermined level. More generally, the "ignoring phase" continues the action, the "warning phase" operates until it is easy to resume, then stops, the "emergency phase" stops immediately, and the "avoidance phase" uses other controls. This refers to performing the avoidance control by another control or the like. However, these definitions are not limited to the above, and may be other gradual actions according to the risk level.

一方、対処動作生成部73Bは、対処動作生成処理手順RT2(図11)のステップSP12において、図26について上述した対処行動選択実行処理手順RT5と並行して図41に示す転倒監視処理手順RT11を実行することにより、ロボット1の対処動作中における転倒監視及び転倒した場合のロボット1の対処動作の制御処理を実行する。   On the other hand, in step SP12 of the coping action generation processing procedure RT2 (FIG. 11), the coping action generation unit 73B executes the fall monitoring processing procedure RT11 shown in FIG. 41 in parallel with the coping action selection execution processing procedure RT5 described above with reference to FIG. By executing, the fall monitoring during the coping operation of the robot 1 and the control process of the coping operation of the robot 1 when the robot 1 falls are executed.

すなわち対処動作生成部73Bは、対処動作生成処理手順RT2のステップSP12に進むと、対処行動選択実行処理手順RT5(図23)と並行してこの転倒監視処理手順RT11をステップSP110において開始し、続くステップSP111において、加速度センサ65(図5)から供給される加速度検出信号S2B(図5)に基づいてロボット1が転倒し始めたか否かを常時監視する。   That is, when proceeding to step SP12 of the coping action generation processing procedure RT2, the coping action generation unit 73B starts this fall monitoring processing procedure RT11 in step SP110 in parallel with the coping action selection execution processing procedure RT5 (FIG. 23), and continues. In step SP111, whether or not the robot 1 has started to fall is constantly monitored based on the acceleration detection signal S2B (FIG. 5) supplied from the acceleration sensor 65 (FIG. 5).

そして対処動作生成部73Bは、このステップSP111において肯定結果を得ると、ステップSP112に進んで、図42に示す転倒対処制御処理手順RT12に従って、ロボット1の全身を脱力させる。   Then, if a positive result is obtained in step SP111, the coping operation generation unit 73B proceeds to step SP112 to weaken the whole body of the robot 1 in accordance with the fall countermeasure control procedure RT12 shown in FIG.

すなわち対処動作生成部73Bは、転倒監視処理手順RT11のステップSP112に進むと、この転倒対処制御処理手順RT12をステップSP120において開始し、続くステップSP121〜ステップSP122を図33について上述した第2の下肢緊急用対処動作処理手順RT9のステップSP81〜ステップSP83と同様に処理することにより、ロボット1の上肢部分の全ての関節機構部(首関節機構部13、肩関節機構部20、肘関節機構部24及び腰関節機構部44)及び下肢部分の全ての関節機構部(股関節機構部36、膝関節機構部38及び足首関節機構部41)の動きを即時停止させる。   That is, when the coping operation generation unit 73B proceeds to step SP112 of the fall monitoring processing procedure RT11, it starts the fall coping control processing procedure RT12 in step SP120, and proceeds from step SP121 to step SP122 to the second lower limb described above with reference to FIG. By performing the same processing as in steps SP81 to SP83 of the emergency response operation processing procedure RT9, all the joint mechanisms (the neck joint mechanism 13, the shoulder joint mechanism 20, the elbow joint mechanism 24) of the upper limb of the robot 1 are processed. And the hip joint mechanism 44) and all the joint mechanisms of the lower limb (the hip joint mechanism 36, the knee joint mechanism 38, and the ankle joint mechanism 41) are immediately stopped.

続いて対処動作生成部73Bは、ステップSP123に進んで、ロボット1の全身を脱力すべき旨の指令を行動決定部71に送出する。かくしてこのとき行動決定部71は、この指令に応じた行動決定信号S11を行動生成部72に送出し、行動生成部72は、この行動決定信号S11に従って、ロボット1の全ての関節機構部を脱力させるように(すなわち出力トルクが「0」となるように)全てのアクチュエータA〜A17を制御する。 Subsequently, the coping operation generation unit 73B proceeds to step SP123, and sends a command to the action determination unit 71 that the entire body of the robot 1 should be weakened. Thus, at this time, the action determining unit 71 sends the action determining signal S11 corresponding to the command to the action generating unit 72, and the action generating unit 72 deactivates all the joint mechanisms of the robot 1 according to the action determining signal S11. So that all the actuators A 1 to A 17 are controlled so that the output torque becomes “0”.

そして対処動作生成部73Bは、この後ステップSP124に進んでこの転倒対処制御処理手順RT12を終了して対処動作生成処理手順RT2(図11)に戻り、この後この対処動作生成処理手順RT2のステップSP14に進む。   Then, the coping operation generation unit 73B thereafter proceeds to step SP124, ends the fall countermeasure control processing procedure RT12, returns to the coping operation generation processing procedure RT2 (FIG. 11), and thereafter performs the steps of the coping operation generation processing procedure RT2. Proceed to SP14.

このように対処動作生成部73Bは、ロボット1が何らかの対処動作時に転倒を検出したときには、ロボット1の全身を脱力状態に遷移させるようになされ、これにより転倒時にロボット1が受けるダメージを低減させ得るようになされている。   As described above, when the robot 1 detects a fall during some sort of coping operation, the coping operation generation unit 73B transitions the whole body of the robot 1 to a weakened state, thereby reducing damage to the robot 1 when the robot 1 falls. It has been done.

(3−3−3)対処完了判断ステップにおける対処動作生成部73Bの処理
一方、対処動作生成部73Bは、対処動作生成処理手順RT2(図11)のステップSP14の処理を、図43に示す対処完了判断処理手順RT13に従って実行する。
(3-3-3) Processing of Coping Operation Generation Unit 73B in Coping Completion Determination Step On the other hand, the coping operation generation unit 73B performs the processing of step SP14 of the coping operation generation processing procedure RT2 (FIG. 11) as shown in FIG. This is executed according to the completion determination processing procedure RT13.

すなわち対処動作生成部73Bは、対処動作生成処理手順RT2のステップSP14に進むと、この対処完了判断処理手順RT13をステップSP130において開始し、続くステップSP131において、各タッチセンサ63からそれぞれ供給される圧力検出信号S1C及び状態認識部70からの状態認識信号S10に基づいて、現在いずれかのタッチセンサ63が作動し又は画像認識処理により障害物を検出しているか否かを判断する。   That is, when proceeding to step SP14 of the coping operation generation processing procedure RT2, the coping operation generation unit 73B starts the coping completion determination processing procedure RT13 in step SP130, and in the subsequent step SP131, the pressure supplied from each touch sensor 63. Based on the detection signal S1C and the state recognition signal S10 from the state recognition unit 70, it is determined whether any of the touch sensors 63 is currently operating or an obstacle is detected by image recognition processing.

そして対処動作生成部73Bは、このステップSP131において肯定結果を得るとステップSP133に進み、これに対して否定結果を得るとステップSP132に進んで、加速度センサ65(図5)から供給される加速度検出信号S2Bに基づいて、ロボット1の機体が静定(静止)状態にあるか否かを判断する。   If a positive result is obtained in step SP131, the coping operation generating unit 73B proceeds to step SP133. If a negative result is obtained, the coping operation generating unit 73B proceeds to step SP132 to detect the acceleration supplied from the acceleration sensor 65 (FIG. 5). Based on the signal S2B, it is determined whether or not the body of the robot 1 is in a stationary (stationary) state.

そして対処動作生成部73Bは、このステップSP132において否定結果を得るとステップSP133に進んで、対処動作生成処理手順RT2のステップSP11に戻った後にこの対処完了判断処理手順RT13を終了し(ステップSP134)、これに対してステップSP132において肯定結果を得るとステップSP134に進んで、対処動作生成処理手順RT2のステップSP15に進んだ後にこの対処完了判断処理手順RT13を終了する(ステップSP135)。   When a negative result is obtained in step SP132, the coping operation generation unit 73B proceeds to step SP133, returns to step SP11 of the coping operation generation processing procedure RT2, and ends the coping completion determination processing procedure RT13 (step SP134). On the other hand, if a positive result is obtained in step SP132, the process proceeds to step SP134, and proceeds to step SP15 of the coping operation generation processing procedure RT2, followed by terminating the coping completion determination processing procedure RT13 (step SP135).

このようにして対処動作生成部73Bは、対処動作を開始した後は、全てのタッチセンサ63の作動が停止し、かつロボット1の機体が静定したときに初めてかかる対処動作を終了するようにロボット1の動作を制御する。   In this way, the coping operation generation unit 73B terminates the coping operation only when the operation of all the touch sensors 63 is stopped after the coping operation is started and the body of the robot 1 is settled. The operation of the robot 1 is controlled.

(4)本実施の形態の動作及び効果
以上の構成において、このロボット1では、機体の随所に配設された安全対策用の各タッチセンサ63(63F〜63F、63T〜63T)や画像認識処理によって、関節機構部におけるユーザの指の挟み込みや外部物体との接触等の危険の内容及びその度合い(段階)を検出し、当該検出した危険の内容及びその度合いに応じて適切な対処動作を実行する。
(4) Operation and Effect In the above configuration of the present embodiment, in the robot 1, the touch sensor 63 for safety disposed throughout the body (63F 1 ~63F 5, 63T 1 ~63T 4) And the image recognition processing, the content and the degree (stage) of danger such as pinching of the user's finger or contact with an external object in the joint mechanism are detected, and an appropriate value is determined according to the content and the degree of the detected danger. Perform the coping action.

従って、このロボット1では、例えばユーザが誤って関節機構部に指を挟まれて怪我をするといった事故や、機体が外部物体と接触することによる当該機体及び又は外部物体が破損するといった事故等が発生することを未然にかつ有効に防止できる。   Therefore, in the robot 1, for example, an accident in which a user is accidentally injured by a finger being pinched by a joint mechanism, an accident in which the aircraft and / or the external object is damaged due to the aircraft coming into contact with an external object, and the like are caused. This can be effectively and effectively prevented from occurring.

またこの場合において、ロボット1は、かかる危険状況における対処動作を自己の機体保全をも考慮しながら実行するようにしているため、転倒等に起因する機体の破損の発生をも有効に防止することができる。   Further, in this case, the robot 1 performs a coping operation in such a danger situation while also taking into consideration the maintenance of its own body, so that it is possible to effectively prevent the occurrence of damage to the body due to a fall or the like. Can be.

さらにこのロボット1においては、図40について上述したように、危険状況の発生時に単にロボット1の動作を停止させるだけでなく、その危険状況が発生した安全空間の危険度に応じて、なるべく早くもとの行動に復帰できるように対処動作が設定されているため、危険状況の発生に起因するロボット1の稼働効率の低下を低減することができる。   Further, in the robot 1, as described above with reference to FIG. 40, not only does the operation of the robot 1 stop when a dangerous situation occurs, but also as early as possible in accordance with the degree of danger of the safety space in which the dangerous situation has occurred. Since the coping operation is set so as to be able to return to the action of the robot 1, it is possible to reduce a decrease in the operating efficiency of the robot 1 due to the occurrence of the dangerous situation.

以上の構成によれば、機体の随所に配設された安全対策用の各タッチセンサ63(63F〜63F、63T〜63T)等によって、関節機構部におけるユーザの指の挟み込み等の危険状況を検出し、当該検出した危険状況に応じて適切な対処動作を実行するようにしたことにより、ユーザが誤って怪我をするといった事故や、機体が外部物体と接触することによる当該機体及び又は外部物体が破損するといった事故の発生を未然にかつ有効に防止することができ、かくして安全性を格段的に向上させ得るロボットを実現できる。 According to the above configuration, such as by the touch sensor 63 for safety disposed throughout the body (63F 1 ~63F 5, 63T 1 ~63T 4), the pinching of the user's finger in the joint mechanism By detecting a dangerous situation and performing an appropriate coping operation in accordance with the detected dangerous situation, an accident such as a user being injured by mistake, and Alternatively, it is possible to prevent accidents such as damage to an external object from occurring before and effectively, and thus to realize a robot capable of significantly improving safety.

(5)他の実施の形態
なお上述の実施の形態においては、本発明を図1〜図5のように構成されたヒューマノイド型のロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の形態のロボット装置に広く適用することができる。
(5) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the humanoid robot 1 configured as shown in FIGS. 1 to 5 has been described. The present invention is not limited to this, and can be widely applied to various other types of robot devices.

また上述の実施の形態においては、安全対策用のタッチセンサ63を、ロボット1の機体における図7〜図9について説明した箇所に設けるようにした場合について述べたが、本発明はこれに限らず、これらに代えて又は加えてさらに別の箇所に設けるようにしても良い。   Further, in the above-described embodiment, a case has been described in which the touch sensor 63 for safety measures is provided at the location described with reference to FIGS. 7 to 9 in the body of the robot 1, but the present invention is not limited to this. Instead of or in addition to these, they may be provided at further different locations.

さらに上述の実施の形態においては、安全空間における危険状況の発生の有無を検出する危険状況検出手段として、タッチセンサ63と、CCDカメラ60A、60B及び画像認識処理を行うソフトウェアモジュールとしての状態認識部70を適用するようにした場合について述べたが、本発明はこれに限らず、安全空間の定義に応じてこの他種々の手段を広く適用することができる。   Further, in the above-described embodiment, the touch sensor 63, the CCD cameras 60A and 60B, and the state recognition unit as a software module for performing image recognition processing are provided as danger situation detection means for detecting whether or not a danger situation has occurred in the safety space. Although the case where 70 is applied has been described, the present invention is not limited to this, and various other means can be widely applied according to the definition of the safety space.

さらに上述の実施の形態においては、危険状況の度合いを検出する危険度合い検出手段としてポテンショメータP〜P17や、アクチュエータA〜A17、CCDカメラ60A、60B及び画像認識処理を行うソフトウェアモジュールとしての状態認識部70などを適用するようにした場合について述べたが、本発明はこれに限らず、安全空間の定義に応じてこの他種々の手段を広く適用することができる。例えば環境との間の安全空間における危険度を検出する手段としては距離センサを適用することができる。 In the above embodiment, and the potentiometer P 1 to P 17 as a risk degree detecting means for detecting the degree of danger situations, the actuator A 1 to A 17, CCD camera 60A, as a software module for 60B and image recognition processing Although the description has been given of the case where the state recognition unit 70 or the like is applied, the present invention is not limited to this, and various other means can be widely applied according to the definition of the safe space. For example, a distance sensor can be applied as a means for detecting the degree of danger in a safe space between the environment.

さらに上述の実施の形態においては、危険状況検出手段により検出された危険状況及び危険度合い検出手段により検出された当該危険状況の度合いに応じた所定の対処動作を実行させるための制御処理を行う制御手段としての安全管理部73を行動決定部71と別個に設けるようにした場合について述べたが、かかる安全管理部73の機能を行動決定部71にもたせるようにしても良い。   Further, in the above-described embodiment, control for performing a control process for executing a predetermined coping operation in accordance with the danger situation detected by the danger situation detection means and the degree of the danger situation detected by the danger degree detection means is performed. Although a case has been described in which the safety management unit 73 as a means is provided separately from the action determination unit 71, the function of the safety management unit 73 may be provided to the action determination unit 71.

さらに上述の実施の形態においては、危険状況に対して事後的に対処動作を行うようにした場合について述べたが、本発明はこれに限らず、危険状況の発生を事前に検出し、これに応じた対処動作をロボット1に実行させるようにしても良い。また事前の対処として、例えば対人接触部位を安全な形状とし、形状そのものによって危険状況を未然に防ぐようにしても良い。   Furthermore, in the above-described embodiment, a case has been described in which a coping operation is performed afterward on a dangerous situation. However, the present invention is not limited to this. The corresponding action may be executed by the robot 1. In addition, as a precautionary measure, for example, it is possible to make the contact portion with a person a safe shape and prevent a dangerous situation by the shape itself.

さらに上述の実施の形態においては、安全管理部73の安全監視部73Aが、危険度判断処理手順RT4のステップSP31において、(3)式により安全空間定義円SSC〜SSCの面積を計算により求め、この面積に基づいて危険度を判断するようにした場合について述べたが、本発明はこれに限らず、例えば図20について上述した安全空間定義円SSCの面積aと現在角度θとが比例するとみなして当該現在角度θの値からその安全空間の危険度を直接判断するようにしても良い。さらにこの場合には、現在角度θと危険度との関係をテーブル化してロボット1にもたせ、このテーブルと現在角度とから危険度を判断できるようにしても良い。 In the above embodiment, the safety monitoring section 73A of the safety management section 73, in step SP31 of the risk determination procedure RT4, by calculating the area of the safety space defined circle SSC 1 ~SSC 1 by (3) calculated, it has dealt with the case of determining the degree of risk based on the area, the present invention is not limited to this, for example, the area a safe space definition circle SSC 1 described above and the current angle θ about 20 The risk of the safety space may be directly determined from the value of the current angle θ, assuming that it is proportional. Further, in this case, the relationship between the current angle θ and the risk may be tabulated and provided to the robot 1 so that the risk can be determined from the table and the current angle.

本発明は、エンターテインメントロボットのほか、他の用途に用いられる種々のロボット装置に広く適用することができる。   INDUSTRIAL APPLICABILITY The present invention can be widely applied to various robot devices used for other purposes in addition to entertainment robots.

本実施の形態によるロボットの外観構成を示す略線的な斜視図である。FIG. 2 is a schematic perspective view illustrating an external configuration of the robot according to the embodiment. 本実施の形態によるロボットの外観構成を示す略線的な斜視図である。FIG. 2 is a schematic perspective view illustrating an external configuration of the robot according to the embodiment. ロボットの各関節機構部等における自由度の説明に供する概念図である。FIG. 3 is a conceptual diagram for explaining a degree of freedom in each joint mechanism of the robot. ロボットの内部構成の説明に供するブロック図である。FIG. 2 is a block diagram for explaining an internal configuration of the robot. ロボットの内部構成の説明に供するブロック図である。FIG. 2 is a block diagram for explaining an internal configuration of the robot. 行動生成に関するメイン制御部の処理内容の説明に供するブロック図である。It is a block diagram provided for explanation of the processing content of the main control part regarding action generation. 安全対策用のタッチセンサの配置位置の説明に供する正面図である。FIG. 4 is a front view for explaining an arrangement position of a touch sensor for safety measures. 安全対策用のタッチセンサの配置位置の説明に供する正面図である。FIG. 4 is a front view for explaining an arrangement position of a touch sensor for safety measures. 安全対策用のタッチセンサの配置位置の説明に供する背面図である。FIG. 4 is a rear view for explaining the arrangement position of a touch sensor for safety measures. 安全監視処理手順を示すフローチャートである。It is a flowchart which shows a safety monitoring processing procedure. 対処動作生成処理手順を示すフローチャートである。It is a flowchart which shows a coping operation | movement generation processing procedure. 有効確認処理手順を示すフローチャートである。It is a flowchart which shows a validity check processing procedure. 危険度判断処理手順を示すフローチャートである。It is a flowchart which shows a risk determination processing procedure. 単関節機構部により形成される安全空間の説明に供する概念図である。It is a conceptual diagram provided for explanation of the safety space formed by the single joint mechanism. 単関節機構部により形成される安全空間における危険度の説明に供する概念図である。FIG. 3 is a conceptual diagram for explaining a degree of risk in a safety space formed by a single joint mechanism. 多リンクにより形成される安全空間の説明に供する概念図である。FIG. 3 is a conceptual diagram for describing a safety space formed by multiple links. 多リンクにより形成される安全空間における危険度の説明に供する概念図である。FIG. 3 is a conceptual diagram serving to explain a degree of risk in a safety space formed by multiple links. ロボット及び環境間に形成される安全空間の説明に供する概念図である。FIG. 2 is a conceptual diagram for describing a safety space formed between a robot and an environment. ロボット及び環境間に形成される安全空間における危険度の説明に供する概念図である。FIG. 3 is a conceptual diagram for explaining a degree of danger in a safety space formed between a robot and an environment. 単関節機構部により形成される安全空間についての容積計算の説明に供する略線図である。It is an approximate line figure used for explanation of volume calculation about a safe space formed of a single joint mechanism part. 多リンクにより形成され又は環境との間に形成される安全空間についての容積計算の説明に供する略線図である。FIG. 3 is a schematic diagram for explaining a volume calculation for a safety space formed by multiple links or between the environment and the environment. 第1の安全空間管理テーブルを示す図表である。It is a chart showing a 1st safe space management table. 第2の安全空間管理テーブルを示す図表である。It is a chart showing a 2nd safe space management table. 第3の安全空間管理テーブルを示す図表である。It is a chart showing a 3rd safe space management table. 第1〜第3の安全空間管理テーブルにおけるパラメータ値例を示す図表である。It is a table | surface which shows the parameter value example in a 1st-3rd safe space management table. 対処動作選択実行処理手順を示すフローチャートである。It is a flowchart which shows a coping operation selection execution processing procedure. 第1の対処動作テーブルを示す図表である。9 is a chart showing a first coping operation table. 第2の対処動作テーブルを示す図表である。9 is a chart showing a second coping operation table. 第3の対処動作テーブルを示す図表である。13 is a chart showing a third coping operation table. 警戒用対処動作処理手順を示すフローチャートである。It is a flowchart which shows the warning coping operation processing procedure. 上肢緊急用対処動作処理手順を示すフローチャートである。It is a flowchart which shows the upper limb emergency handling operation | movement processing procedure. 第1の下肢緊急用対処動作処理手順を示すフローチャートである。It is a flowchart which shows the 1st leg emergency coping operation | movement processing procedure. 第2の下肢緊急用対処動作処理手順を示すフローチャートである。It is a flowchart which shows the 2nd lower limb emergency handling operation | movement processing procedure. ロボットの膝関節機構部における緊急回避動作の説明に供する概念図である。FIG. 7 is a conceptual diagram for explaining an emergency avoidance operation in the knee joint mechanism of the robot. 環境緊急用対処動作処理手順を示すフローチャートである。It is a flowchart which shows the environmental emergency response operation | movement processing procedure. 緊急回避動作例を示す概念図である。It is a conceptual diagram which shows the example of an emergency avoidance operation | movement. 回避動作例を示す概念図である。It is a conceptual diagram showing an example of an avoidance operation. 回避動作例を示す概念図である。It is a conceptual diagram showing an example of an avoidance operation. 回避動作例を示す概念図である。It is a conceptual diagram showing an example of an avoidance operation. 安全空間の容積の大きさと対処による稼働率低下の説明に供する概念図である。It is a conceptual diagram used for explaining the size of the volume of a safety space, and the fall of an operation rate by coping. 転倒監視処理手順を示すフローチャートである。It is a flowchart which shows a fall monitoring processing procedure. 転倒対処制御処理手順を示すフローチャートである。It is a flowchart which shows a fall handling control processing procedure. 対処完了継続処理手順を示すフローチャートである。It is a flowchart which shows a coping completion continuation processing procedure.

符号の説明Explanation of reference numerals

1……ロボット、5A、5B……腕部ユニット、6A、6B……脚部ユニット、20……肩関節機構部、24……肘関節機構部、36……股関節機構部、38……膝関節機構部、41……足首関節機構部、50……メイン制御部、60A、60B……CCDカメラ、63……タッチセンサ、63F〜63F……面接触スイッチ、63T〜63T……タクトスイッチ、71……行動決定部、73……安全管理部、73A……安全監視部、73B……対処動作生成部、80……安全空間管理テーブル、A〜A17……アクチュエータ、P〜P17……ポテンショメータ、S1A……画像信号、S1C……圧力検出信号、S2C〜S2C17……角度検出信号、S2D〜S2D17……出力トルク検出信号。
1 ... Robot, 5A, 5B ... Arm unit, 6A, 6B ... Leg unit, 20 ... Shoulder joint mechanism, 24 ... Elbow joint mechanism, 36 ... Hip joint mechanism, 38 ... Knee joint mechanism, 41 ...... ankle joint mechanism unit, 50 ...... main controller, 60A, 60B ...... CCD camera, 63 ...... touch sensor, 63F 1 ~63F 5 ...... surface contact switch, 63T 1 ~63T 4 ... ... Tact switch, 71... Action determination unit, 73... Safety management unit, 73 A... Safety monitoring unit, 73 B... Coping operation generation unit, 80... Safety space management table, A 1 to A 17 . P 1 ~P 17 ...... potentiometer, S1A ...... image signal, S1C ...... pressure detection signal, S2C 1 ~S2C 17 ...... angle detection signal, S2D 1 ~S2D 17 ...... output torque detection signal.

Claims (16)

移動型のロボット装置において、
危険状況を検出する危険状況検出手段と、
上記危険状況検出手段により検出された上記危険状況の度合いを検出する危険度合い検出手段と、
上記危険状況検出手段により検出された上記危険状況及び上記危険度合い検出手段により検出された当該危険状況の度合いに応じた所定の対処動作を実行させるための制御処理を行う制御手段と
を具えることを特徴とするロボット装置。
In a mobile robot device,
A danger situation detecting means for detecting a danger situation;
Danger degree detection means for detecting the degree of the danger situation detected by the danger situation detection means,
Control means for performing control processing for executing a predetermined coping operation in accordance with the dangerous situation detected by the dangerous situation detecting means and the degree of the dangerous situation detected by the dangerous degree detecting means. A robot device characterized by the above-mentioned.
上記危険状況検出手段により検出される各上記危険状況にそれぞれ対応させて安全空間が定義され、
上記危険度合い検出手段は、
上記危険状況検出手段により検出された上記危険状況と対応付けられた上記安全空間の容積に基づいて、上記危険状況の度合いを検出する
ことを特徴とする請求項1に記載のロボット装置。
A safety space is defined corresponding to each of the dangerous situations detected by the dangerous situation detection means,
The above-mentioned danger degree detecting means,
The robot device according to claim 1, wherein the degree of the dangerous situation is detected based on a volume of the safety space associated with the dangerous situation detected by the dangerous situation detecting means.
上記制御手段は、
上記危険状況検出手段により検出された上記危険状況が発生している位置及び当該危険状況の上記度合いに応じた上記対処動作を実行させるための上記制御処理を行う
ことを特徴とする請求項1に記載のロボット装置。
The control means includes:
The control processing for performing the coping operation according to the position where the dangerous situation detected by the dangerous situation detecting means occurs and the degree of the dangerous situation is performed. The robot device as described.
上記制御手段は、
上記危険状況が発生している上記位置が上記ロボット装置の上肢及び下肢のいずれであるかによって異なる上記対処動作を実行させるための上記制御処理を行う
ことを特徴とする請求項3に記載のロボット装置。
The control means includes:
4. The robot according to claim 3, wherein the control processing is performed to execute the coping operation that differs depending on whether the position where the danger situation occurs is the upper limb or the lower limb of the robot device. 5. apparatus.
上記危険状況が発生した位置及び又は上記危険状況の度合いに応じて予め優先度が設定され、
上記制御手段は、
上記対処動作を実行させるための上記制御処理中に、上記危険状況検出手段が上記優先度の高い新たな上記危険状況を検出したときには、当該新たに検出した上記危険状況に応じた上記対処動作を実行させるように、上記制御処理を切り換える
ことを特徴とする請求項1に記載のロボット装置。
Priorities are set in advance according to the position at which the dangerous situation has occurred and / or the degree of the dangerous situation,
The control means includes:
During the control process for executing the coping operation, when the danger situation detecting means detects the new high-priority danger situation, the coping operation according to the newly detected danger situation is performed. The robot apparatus according to claim 1, wherein the control processing is switched so as to be executed.
移動型のロボット装置の制御方法において、
危険状況を検出すると共に、検出した上記危険状況の度合いを検出する第1のステップと、
検出した上記危険状況及び当該危険状況の度合いに応じた所定の対処動作を上記ロボット装置に実行させるための制御処理を行う第2のステップと
を具えることを特徴とするロボット装置の制御方法。
In a control method of a mobile robot device,
A first step of detecting a dangerous situation and detecting a degree of the detected dangerous situation;
A second step of performing a control process for causing the robot apparatus to execute a predetermined coping operation in accordance with the detected dangerous situation and the degree of the dangerous state.
各上記危険状況にそれぞれ対応させて安全空間が定義され、
上記第1のステップでは、
検出した上記危険状況と対応付けられた上記安全空間の容積に基づいて、上記危険状況の度合いを検出する
ことを特徴とする請求項6に記載のロボット装置の制御方法。
A safety space is defined for each of the above danger situations,
In the first step,
The control method for a robot device according to claim 6, wherein the degree of the dangerous situation is detected based on a volume of the safety space associated with the detected dangerous situation.
上記第2のステップでは、
検出した上記危険状況が発生している位置及び当該危険状況の上記度合いに応じた上記対処動作を上記ロボット装置に実行させるための上記制御処理を行う
ことを特徴とする請求項6に記載のロボット装置の制御方法。
In the second step,
The robot according to claim 6, wherein the control process is performed to cause the robot apparatus to execute the coping operation according to the detected position where the dangerous situation occurs and the degree of the dangerous situation. How to control the device.
上記第2のステップでは、
上記危険状況が発生している上記位置が上記ロボット装置の上肢及び下肢のいずれであるかによって異なる上記対処動作を上記ロボット装置に実行させるための上記制御処理を行う
ことを特徴とする請求項8に記載のロボット装置の制御方法。
In the second step,
9. The control process for causing the robot device to execute the coping operation that differs depending on whether the position where the danger situation occurs is the upper limb or the lower limb of the robot device. A control method for a robot device according to claim 1.
上記危険状況が発生した位置及び又は上記危険状況の度合いに応じて予め優先度が設定され、
上記第2のステップでは、
上記対処動作を上記ロボット装置に実行させるための上記制御処理中に、上記優先度の高い新たな上記危険状況を検出したときには、当該新たに検出した上記危険状況に応じた上記対処動作を上記ロボット装置に実行させるように、上記制御処理を切り換える
ことを特徴とする請求項6に記載のロボット装置の制御方法。
Priorities are set in advance according to the position at which the dangerous situation has occurred and / or the degree of the dangerous situation,
In the second step,
During the control process for causing the robot apparatus to execute the coping operation, when the new high-priority danger situation is detected, the coping operation according to the newly detected danger situation is performed by the robot. The control method of a robot device according to claim 6, wherein the control process is switched so as to be executed by the device.
移動型のロボット装置において、
危険状況を検出する危険状況検出手段と、
上記危険状況検出手段により検出された上記危険状況が発生した位置に応じた所定の対処動作を実行させるための制御処理を行う制御手段と
を具えることを特徴とするロボット装置。
In a mobile robot device,
A danger situation detecting means for detecting a danger situation;
A robot apparatus comprising: control means for performing control processing for executing a predetermined coping operation in accordance with a position where the dangerous situation detected by the dangerous situation detecting means has occurred.
移動型のロボット装置の制御方法において、
危険状況を検出する第1のステップと、
上記危険状況検出手段により検出された上記危険状況が発生した位置に応じた所定の対処動作を上記ロボット装置に実行させるための制御処理を行う第2のステップと
を具えることを特徴とするロボット装置の制御方法。
In a control method of a mobile robot device,
A first step of detecting a dangerous situation;
A second step of performing a control process for causing the robot apparatus to execute a predetermined coping operation in accordance with a position where the dangerous situation detected by the dangerous situation detecting means has occurred. How to control the device.
複数のリンクが関節部を介して構成される可動部を有するロボット装置において、
上記可動部を駆動する駆動手段と、
上記駆動手段を制御する制御手段と、
対象物を検出する対象物検出手段と、
上記ロボット装置の行動を決定する行動決定手段と、
上記対象物と上記可動部に関連する危険度を検出する危険度検出手段と
を具え、
上記制御手段は、
上記危険度と上記行動決定手段が決定した行動とに基づいて、上記危険を軽減又は回避するために上記可動部を動作させる
ことを特徴とするロボット装置。
In a robot device having a movable portion in which a plurality of links are configured via joints,
Driving means for driving the movable portion,
Control means for controlling the driving means;
Object detection means for detecting an object;
Action determining means for determining the action of the robot device,
A risk detecting means for detecting a risk related to the object and the movable portion,
The control means includes:
A robot apparatus for operating the movable part to reduce or avoid the danger based on the degree of danger and the behavior determined by the behavior determination means.
上記可動部周辺に安全空間を設定し、
上記危険度は、
上記対象物と上記可動部との関係を上記安全空間に写像することにより求められる
ことを特徴とする請求項13に記載のロボット装置。
Set up a safety space around the above movable parts,
The above risk is
The robot device according to claim 13, wherein the relationship between the object and the movable portion is obtained by mapping the relationship on the safety space.
複数のリンクが関節部を介して構成される可動部を有するロボット装置の制御方法において、
上記ロボット装置の行動を決定する第1のステップと、
対象物を検出したときに当該対象物と上記可動部に関連する危険度を検出する第2のステップと、
検出した上記危険度と、決定した上記行動とに基づいて、上記危険を軽減又は回避するために上記可動部を動作させる第3のステップと
ことを特徴とするロボット装置の制御方法。
In a control method of a robot device having a movable portion in which a plurality of links are configured via joints,
A first step of determining the behavior of the robot device;
A second step of detecting a risk associated with the object and the movable part when detecting the object;
A third step of operating the movable section to reduce or avoid the risk based on the detected risk and the determined behavior.
上記可動部周辺に安全空間を設定し、
上記第2のステップでは、
上記危険度を、上記対象物と上記可動部との関係を上記安全空間に写像することにより求める
ことを特徴とする請求項15に記載のロボット装置の制御方法。
Set up a safety space around the above movable parts,
In the second step,
16. The control method for a robot device according to claim 15, wherein the risk is obtained by mapping a relationship between the object and the movable part on the safety space.
JP2004058121A 2003-03-23 2004-03-02 Robot device and method of controlling the same Pending JP2004306247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004058121A JP2004306247A (en) 2003-03-23 2004-03-02 Robot device and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003122887 2003-03-23
JP2004058121A JP2004306247A (en) 2003-03-23 2004-03-02 Robot device and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2004306247A true JP2004306247A (en) 2004-11-04

Family

ID=33478927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004058121A Pending JP2004306247A (en) 2003-03-23 2004-03-02 Robot device and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2004306247A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007007799A (en) * 2005-07-01 2007-01-18 Toyota Motor Corp Walking robot
WO2008032673A1 (en) * 2006-09-11 2008-03-20 Hitachi, Ltd. Moving device
JP2008149436A (en) * 2006-12-20 2008-07-03 Honda Motor Co Ltd Moving device, its control system, control program, and supervision system
JP2009090400A (en) * 2007-10-05 2009-04-30 National Institute Of Advanced Industrial & Technology Robot, robot control device, robot control program, and simulator for creating robot control program
WO2009110242A1 (en) * 2008-03-06 2009-09-11 パナソニック株式会社 Manipulator and method of controlling the same
JP2016067834A (en) * 2014-10-01 2016-05-09 シャープ株式会社 Notification control device and program
WO2017091296A1 (en) * 2015-11-24 2017-06-01 X Development Llc Safety system for integrated human/robotic environments
JP2017516671A (en) * 2014-06-03 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Safety of humanoid robots
JP2017516674A (en) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Collision detection
JP2017209750A (en) * 2016-05-25 2017-11-30 本田技研工業株式会社 Functional device, and control device and control method for the device

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007007799A (en) * 2005-07-01 2007-01-18 Toyota Motor Corp Walking robot
US8239084B2 (en) 2006-09-11 2012-08-07 Hitachi, Ltd. Moving device
WO2008032673A1 (en) * 2006-09-11 2008-03-20 Hitachi, Ltd. Moving device
JP2008065755A (en) * 2006-09-11 2008-03-21 Hitachi Ltd Mobile device
KR101200209B1 (en) * 2006-09-11 2012-11-09 가부시키가이샤 히타치세이사쿠쇼 Moving device
JP2008149436A (en) * 2006-12-20 2008-07-03 Honda Motor Co Ltd Moving device, its control system, control program, and supervision system
US7529622B2 (en) 2006-12-20 2009-05-05 Honda Motor Co., Ltd. Mobile apparatus, and control method thereof, control program and supervisory system therefor
JP2009090400A (en) * 2007-10-05 2009-04-30 National Institute Of Advanced Industrial & Technology Robot, robot control device, robot control program, and simulator for creating robot control program
JPWO2009110242A1 (en) * 2008-03-06 2011-07-14 パナソニック株式会社 Manipulator and control method thereof
JP5044011B2 (en) * 2008-03-06 2012-10-10 パナソニック株式会社 Manipulator and control method thereof
WO2009110242A1 (en) * 2008-03-06 2009-09-11 パナソニック株式会社 Manipulator and method of controlling the same
US8504203B2 (en) 2008-03-06 2013-08-06 Panasonic Corporation Manipulator and method of controlling the same
CN102015223B (en) * 2008-03-06 2014-08-13 松下电器产业株式会社 Manipulator and method of controlling the same
JP2017516671A (en) * 2014-06-03 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Safety of humanoid robots
JP2017516674A (en) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Collision detection
JP2016067834A (en) * 2014-10-01 2016-05-09 シャープ株式会社 Notification control device and program
WO2017091296A1 (en) * 2015-11-24 2017-06-01 X Development Llc Safety system for integrated human/robotic environments
KR20180074796A (en) * 2015-11-24 2018-07-03 엑스 디벨롭먼트 엘엘씨 Safety systems for human / robot integration environments
CN108292384A (en) * 2015-11-24 2018-07-17 X开发有限责任公司 Security system for integrated human/robotic environment
US10081106B2 (en) 2015-11-24 2018-09-25 X Development Llc Safety system for integrated human/robotic environments
CN108292384B (en) * 2015-11-24 2020-03-17 X开发有限责任公司 Security system for integrated human/robotic environment
KR102137196B1 (en) * 2015-11-24 2020-07-24 엑스 디벨롭먼트 엘엘씨 Safety systems for human/robot integrated environments
KR20200091488A (en) * 2015-11-24 2020-07-30 엑스 디벨롭먼트 엘엘씨 Safety system for integrated human/robotic environments
US10773387B2 (en) 2015-11-24 2020-09-15 X Development Llc Safety system for integrated human/robotic environments
US10946524B2 (en) 2015-11-24 2021-03-16 X Development Llc Safety system for integrated human/robotic environments
KR102273129B1 (en) 2015-11-24 2021-07-05 엑스 디벨롭먼트 엘엘씨 Safety system for integrated human/robotic environments
US11383382B2 (en) 2015-11-24 2022-07-12 Intrinsic Innovation Llc Safety system for integrated human/robotic environments
JP2017209750A (en) * 2016-05-25 2017-11-30 本田技研工業株式会社 Functional device, and control device and control method for the device

Similar Documents

Publication Publication Date Title
US11794351B2 (en) Robot device, method of controlling robot device, computer program, and program storage medium
CN107921645B (en) Remote operation robot system
US11072068B2 (en) Robot apparatus and method of controlling robot apparatus
US10293484B2 (en) Robot device and method of controlling the robot device
US9114532B2 (en) Apparatus for controlling mobile robot
US9044856B2 (en) Robot apparatus, method of controlling the same, and computer program
US7761184B2 (en) Robot apparatus and control method thereof
JP2004306247A (en) Robot device and method of controlling the same
WO2008004487A1 (en) Apparatus and method for controlling robot arm, robot, and robot arm control program
EP2890529A2 (en) Systems and methods for safe robot operation
US10406683B2 (en) Robot and control method thereof
WO2022247172A1 (en) Massage motion control method and apparatus, robot control device, and storage medium
EP1607191A1 (en) Robot device and method of controlling the same
JP2009166213A (en) Robot and robot control method
JP7310820B2 (en) Control device, control method and program
Anvaripour et al. Collision detection for human-robot interaction in an industrial setting using force myography and a deep learning approach
JP2002144260A (en) Leg type moving robot and its control method
JP2004306251A (en) Robot device and method of controlling the same
US20220379469A1 (en) Massage motion control method, robot controller using the same, and computer readable storage medium
Kiguchi et al. A study of a 4DOF upper-limb power-assist intelligent exoskeleton with visual information for perception-assist
JP2003266353A (en) Robot device and control method therefor
CN113146662A (en) Driving control method for clamping jaw knuckle and multi-degree-of-freedom gripping device
JP6568601B2 (en) Robot, robot control method, and program
US20230381963A1 (en) Robot control method, computer-readable storage medium, and robot
WO2023199987A1 (en) Remote operating system and remote operating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081120