JP2003266348A - Robot device and control method therefor - Google Patents

Robot device and control method therefor

Info

Publication number
JP2003266348A
JP2003266348A JP2002075144A JP2002075144A JP2003266348A JP 2003266348 A JP2003266348 A JP 2003266348A JP 2002075144 A JP2002075144 A JP 2002075144A JP 2002075144 A JP2002075144 A JP 2002075144A JP 2003266348 A JP2003266348 A JP 2003266348A
Authority
JP
Japan
Prior art keywords
information
integrated information
color
generating
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002075144A
Other languages
Japanese (ja)
Other versions
JP4281286B2 (en
Inventor
Takeshi Takagi
剛 高木
Kotaro Sabe
浩太郎 佐部
Kenta Kawamoto
献太 河本
Tomohisa Morihira
智久 森平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002075144A priority Critical patent/JP4281286B2/en
Publication of JP2003266348A publication Critical patent/JP2003266348A/en
Application granted granted Critical
Publication of JP4281286B2 publication Critical patent/JP4281286B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device enabling tracking by merely specifying for what it sees with attention in a motion command generation part (high-order module). <P>SOLUTION: A short period storage part 75 is an object for holding the information related to external environment of the robot device 1 during a comparatively short period and receives result of sound (voice) detection from a sound detection part 72, result of color detection from a color detection part 71, result of face detection from a face detection part 73, and a sensor output of a joint angle from a joint angle detection part 74. It integrates a plurality of these detection information by keeping coordination timely and spatially, handles these information as integrated information having meaning, and holds these information during a comparatively short time, for example, during 15 seconds. These integrated information is delivered to a motion command part 76 and a neck part motion generation part 77. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自律的な動作を行
いリアリスティックなコミュニケーションを実現するロ
ボット装置及びその制御方法に係り、特に、画像や音声
などの外界の情報を認識してそれに対して自身の行動を
反映させる機能を備えた自律型のロボット装置及びその
制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method thereof for autonomously performing realistic communication, and more particularly to recognizing external information such as images and voices and responding to the information. The present invention relates to an autonomous robot apparatus having a function of reflecting its own behavior and a control method thereof.

【0002】[0002]

【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語の"ROBO
TA(奴隷機械)"に由来すると言われている。わが国で
は、ロボットが普及し始めたのは1960年代末からで
あるが、その多くは、工場における生産作業の自動化・
無人化などを目的としたマニピュレータや搬送ロボット
などの産業用ロボット(industrial robot)であった。
2. Description of the Related Art A mechanical device that makes a motion similar to a human motion by using an electrical or magnetic action is called a "robot". The origin of the robot is the Slavic word "ROBO".
It is said that it is derived from "TA (slave machine)." In Japan, robots began to be popular since the end of the 1960s, but most of them are automation of production work in factories.
It was an industrial robot such as a manipulator and a transfer robot for the purpose of unmanned operation.

【0003】最近では、イヌやネコ、クマのように4足
歩行の動物の身体メカニズムやその動作を模したペット
型ロボット、あるいは、ヒトやサルなどの2足直立歩行
を行う動物の身体メカニズムや動作を模した「人間形」
若しくは「人間型」のロボット(humanoid robot)な
ど、脚式移動ロボットの構造やその安定歩行制御に関す
る研究開発が進展し、実用化への期待も高まってきてい
る。これら脚式移動ロボットは、クローラ式ロボットに
比し不安定で姿勢制御や歩行制御が難しくなるが、階段
の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作
を実現できるという点で優れている。
Recently, a pet type robot imitating the body mechanism of a four-legged animal such as dogs, cats, and bears and its movements, or the body mechanism of an animal that performs two-legged upright walking, such as a human or a monkey, has been used. "Humanoid" that imitates movement
Alternatively, research and development on the structure of legged mobile robots such as "humanoid robots" and their stable walking control have progressed, and expectations for their practical application are increasing. These legged mobile robots are more unstable than crawler robots, making posture control and walking control difficult, but they are superior in that they can realize flexible walking and running operations such as climbing stairs and climbing over obstacles. There is.

【0004】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上または無経路上を
自在に移動して、所定の若しくは任意の人的作業を代行
したり、ヒトやイヌあるいはその他の生命体に置き換わ
る種々のサービスを提供することができる。
Stationary type robots, such as arm type robots, which are implanted in a specific place and used,
Work only in fixed and local work spaces such as assembly and selection of parts. On the other hand, a mobile robot has a non-limitative work space, and can freely move on a predetermined route or on a non-route to perform a predetermined or arbitrary human work on behalf of a human or a dog. Alternatively, various services that replace other life forms can be provided.

【0005】脚式移動ロボットの用途の1つとして、産
業活動・生産活動等における各種の難作業の代行が挙げ
られる。例えば、原子力発電プラントや火力発電プラン
ト、石油化学プラントにおけるメンテナンス作業、製造
工場における部品の搬送・組立作業、高層ビルにおける
清掃、火災現場その他における救助といったような危険
作業・難作業の代行などである。
One of the uses of legged mobile robots is to perform various difficult tasks on behalf of industrial activities and production activities. For example, maintenance work in nuclear power plants, thermal power plants, and petrochemical plants, parts transportation / assembly work in manufacturing plants, cleaning in high-rise buildings, agency of dangerous work / difficult work such as rescue at fire sites and the like. .

【0006】また、脚式移動ロボットの他の用途とし
て、上述の作業支援というよりも、生活密着型、すなわ
ち人間との「共生」あるいは「エンターティンメント」
という用途が挙げられる。この種のロボットは、ヒトあ
るいはイヌ(ペット)、クマなどの比較的知性の高い脚
式歩行動物の動作メカニズムや四肢を利用した豊かな感
情表現を忠実に再現する。また、あらかじめ入力された
動作パターンを単に忠実に実行するだけではなく、ユー
ザ(あるいは他のロボット)から受ける言葉や態度
(「褒める」とか「叱る」、「叩く」など)に対して動
的に対応した、生き生きとした応答表現を実現すること
も要求される。
Further, as another application of the legged mobile robot, it is more closely related to life, that is, "symbiosis" or "entertainment" with humans, rather than the above-mentioned work support.
There are uses. This kind of robot faithfully reproduces the motion mechanism of humans, dogs (pets), bears and other relatively intelligent legged walking animals and the rich emotional expression using the limbs. In addition to simply faithfully executing the pre-entered motion pattern, it also dynamically responds to the words and attitudes received from the user (or other robot) (such as "praise", "scrib", "hit", etc.). It is also required to realize corresponding and lively response expressions.

【0007】従来の玩具機械は、ユーザ操作と応答動作
との関係が固定的であり、玩具の動作をユーザの好みに
合わせて変更することはできない。この結果、ユーザは
同じ動作しか繰り返さない玩具をやがては飽きてしまう
ことになる。
In the conventional toy machine, the relationship between the user operation and the response motion is fixed, and the motion of the toy cannot be changed according to the user's preference. As a result, the user eventually gets tired of the toy that repeats only the same operation.

【0008】これに対し、自律動作を行うインテリジェ
ントなロボットは、一般に、外界の情報を認識してそれ
に対して自身の行動を反映させる機能を持っている。す
なわち、ロボットは、外部環境からの音声や画像、触覚
などの入力情報に基づいて感情モデルや本能モデルを変
化させて動作を決定することにより、自律的な思考及び
動作制御を実現する。すなわち、ロボットが感情モデル
や本能モデルを用意することにより、より高度な知的レ
ベルで人間とのリアリスティックなコミュニケーション
を実現することも可能となる。
On the other hand, an intelligent robot that autonomously operates generally has a function of recognizing external information and reflecting its own behavior on it. That is, the robot realizes autonomous thinking and motion control by changing the emotion model or the instinct model based on input information such as voice, image, and tactile sense from the external environment to determine the motion. That is, by providing the emotion model and the instinct model, the robot can realize realistic communication with humans at a higher intellectual level.

【0009】ロボットが環境変化に応じた自律動作を行
うために、従来は、ある1つの観測結果に対してその情
報を受けて行動を取るような単純な行動記述の組み合わ
せで行動を記述していた。これら入力に対する行動のマ
ッピングにより、ランダム性、内部状態(感情・本
能)、学習、成長などの機能を導入することで一意では
ない複雑な行動の発現を可能にすることができる。この
行動の発現を行うところを、行動生成部という。
In order for a robot to perform an autonomous operation according to a change in environment, conventionally, an action is described by a combination of simple action descriptions such as receiving an action for one observation result and taking an action. It was By mapping the actions to these inputs, it is possible to express complex actions that are not unique by introducing functions such as randomness, internal state (emotion / instinct), learning, and growth. The place where this action is expressed is called the action generation unit.

【0010】例えば、2台のCCDカメラからなるステ
レオカメラを両目として配した首部を胴体部に対して可
動可能とし、さらに2足歩行を可能とする左右の脚部を
有した自律型ロボット装置にあって、首部の動作を生成
するような行動生成部を首部動作生成部という。
For example, an autonomous robot apparatus having a stereo camera composed of two CCD cameras with eyes as movable eyes with respect to the body, and further having left and right legs capable of bipedal walking. Therefore, a behavior generation unit that generates a neck motion is called a neck motion generation unit.

【0011】[0011]

【発明が解決しようとする課題】ところで、従来、首部
による画像上の特徴点への注視(トラッキング)は、首
部の根本の座標系に変換し、その変換座標における特徴
点の位置に変換し、その方向に首部を向けるといった処
理がなされていた。そのため、注視するセンサ情報を動
作命令生成部のような上位から前記首部動作生成部に指
定し、その方向に注視行動を実施するものであった。そ
のため、上位のモジュール(動作命令生成部)では、注
視行動に使用する最適な情報を選択する必要があった。
By the way, conventionally, the gaze (tracking) to the feature point on the image by the neck is converted into the coordinate system of the root of the neck, and is converted into the position of the feature point in the converted coordinate, The process of turning the neck in that direction was done. Therefore, the sensor information to be gazed is specified from the upper part such as the motion command generation unit to the neck motion generation unit, and the gaze action is performed in that direction. Therefore, it is necessary for the upper module (motion command generation unit) to select the optimum information used for the gaze behavior.

【0012】本発明は、前記実情に鑑みてなされたもの
であり、動作命令生成部(上位モジュール)では、何に
対して注視するのかを指定するだけでトラッキングが可
能となるロボット装置及びその制御方法の提供を目的と
する。
The present invention has been made in view of the above circumstances, and a motion command generation unit (upper module) is capable of tracking only by designating what to look for and a robot device and its control. The purpose is to provide a method.

【0013】[0013]

【課題を解決するための手段】本発明に係る自律型のロ
ボット装置は、前記課題を解決するために、外部環境に
対する認識結果に基づいて自律的に対象物を注視する自
律型のロボット装置において、前記外部環境に存在する
対象物に関する属性情報を認識する複数の認識手段と、
前記複数の認識手段によって認識された各属性情報を受
け取り、対象物毎に時間的及び空間的に整合性を保つよ
うに統合し、識別番号を付して記憶する統合情報生成記
憶手段と、前記統合情報生成記憶手段に記憶されている
前記対象物の統合情報から、注視の対象となる所定の対
象物の統合情報を探索して対象物の識別番号に基づいた
動作命令を生成する動作命令生成手段と、前記動作命令
生成手段から前記対象物の識別番号に基づいた動作命令
を受け取ると、前記対象物の識別番号が付された統合情
報を前記統合情報生成記憶手段から受信して、注視行動
に使用する属性情報を選択して注視行動のための制御信
号を生成する動作生成手段とを備える。
In order to solve the above-mentioned problems, an autonomous robot apparatus according to the present invention is an autonomous robot apparatus which autonomously gazes at an object based on a recognition result of an external environment. A plurality of recognition means for recognizing attribute information about the object existing in the external environment,
Integrated information generating and storing means for receiving each attribute information recognized by the plurality of recognizing means, integrating so as to maintain temporal and spatial consistency for each object, and attaching and storing an identification number; Operation command generation for searching the integration information of the target object stored in the integrated information generation storage means for integration information of a predetermined target object to be watched and generating an operation command based on the identification number of the target object And an operation command based on the identification number of the object from the operation command generation means, the integrated information to which the identification number of the object is attached is received from the integrated information generation and storage means, and gaze behavior Motion generating means for selecting attribute information to be used for generating a control signal for gazing behavior.

【0014】このロボット装置では、統合情報生成記憶
手段が複数の認識手段によって認識された各属性情報を
受け取り、対象物毎に時間的及び空間的に整合性を保つ
ように統合し、識別番号を付して記憶し、動作命令生成
手段が前記統合情報生成記憶手段に記憶されている前記
対象物の統合情報から、注視の対象となる所定動作生成
手段が対象物の統合情報を探索して対象物の識別番号に
基づいた動作命令を生成し、動作生成手段が前記動作命
令生成手段から前記対象物の識別番号に基づいた動作命
令を受け取ると、前記対象物の識別番号が付された統合
情報を前記統合情報生成記憶手段から受信して、注視行
動に使用する属性情報を選択して注視行動のための制御
信号を生成する。
In this robot apparatus, the integrated information generating / storing means receives each attribute information recognized by the plurality of recognizing means, integrates each object so as to maintain temporal and spatial consistency, and assigns the identification number. Attached and stored, the action command generation means searches the integrated information of the object from the integrated information of the object stored in the integrated information generation storage means, and searches for the integrated information of the object to be the target. When the operation command based on the identification number of the object is generated and the operation generation unit receives the operation command based on the identification number of the object from the operation command generation unit, the integrated information with the identification number of the object is added. Is received from the integrated information generating and storing means, attribute information used for the gaze action is selected, and a control signal for the gaze action is generated.

【0015】本発明に係るロボット装置の制御方法は、
前記課題を解決するために、外部環境に対する認識結果
に基づいて自律的に対象物を注視する自律型のロボット
装置の制御方法において、前記外部環境に存在する対象
物に関する属性情報を認識する複数の認識手段によって
認識された各属性情報を受け取り、対象物毎に時間的及
び空間的に整合性を保つように統合し、識別番号を付し
て記憶する統合情報生成記憶工程と、前記統合情報生成
記憶工程に記憶されている前記対象物の統合情報から、
注視の対象となる所定の対象物の統合情報を探索して対
象物の識別番号に基づいた動作命令を生成する動作命令
生成工程と、前記動作命令生成工程から前記対象物の識
別番号に基づいた動作命令を受け取ると、前記対象物の
識別番号が付された統合情報を前記統合情報生成記憶工
程から受信して、注視行動に使用する属性情報を選択し
て注視行動のための制御信号を生成する動作生成工程と
を備える。
The control method of the robot apparatus according to the present invention is
In order to solve the above problems, in a control method of an autonomous robot device that gazes at an object autonomously based on a recognition result for the external environment, a plurality of attribute information regarding an object existing in the external environment is recognized. An integrated information generating and storing step of receiving each attribute information recognized by the recognition means, integrating so as to maintain temporal and spatial consistency for each object, and storing with an identification number, and the integrated information generation From the integrated information of the object stored in the storage step,
Based on the identification number of the target from the operation command generation step of searching for integrated information of a predetermined target object to be watched and generating an operation command based on the identification number of the target When the operation command is received, the integrated information with the identification number of the object is received from the integrated information generation / storage step, and the attribute information used for the gaze behavior is selected to generate the control signal for the gaze behavior. And a motion generating step for performing.

【0016】[0016]

【発明の実施の形態】以下、本発明の一構成例として示
す2足歩行タイプのロボット装置について、図面を参照
して詳細に説明する。この人間型のロボット装置は、住
環境その他の日常生活上の様々な場面における人的活動
を支援する実用ロボットであり、内部状態(怒り、悲し
み、喜び、楽しみ等)に応じて行動できるほか、人間が
行う基本的な動作を表出できるエンターテインメントロ
ボットである。つまり、音声や画像などの外的刺激の認
識結果に基づいて自律的に行動制御を行うことができ
る。
BEST MODE FOR CARRYING OUT THE INVENTION A bipedal type robot apparatus shown as an example of the configuration of the present invention will be described in detail below with reference to the drawings. This humanoid robot device is a practical robot that supports human activities in various situations in the living environment and other daily life, and can act according to internal conditions (anger, sadness, joy, enjoyment, etc.), It is an entertainment robot that can express the basic actions that humans perform. That is, the behavior control can be autonomously performed based on the recognition result of the external stimulus such as the voice or the image.

【0017】図1に示すように、ロボット装置1は、体
幹部ユニット2の所定の位置に頭部ユニット3が連結さ
れると共に、左右2つの腕部ユニット4R/4Lと、左
右2つの脚部ユニット5R/5Lが連結されて構成され
ている(但し、R及びLの各々は、右及び左の各々を示
す接尾辞である。以下において同じ。)。
As shown in FIG. 1, in the robot apparatus 1, a head unit 3 is connected to a predetermined position of a torso unit 2, two left and right arm units 4R / 4L, and two left and right legs. The units 5R / 5L are connected to each other (however, each of R and L is a suffix indicating each of right and left. The same applies hereinafter).

【0018】このロボット装置1が具備する関節自由度
構成を図2に模式的に示す。頭部ユニット3を支持する
首関節は、首関節ヨー軸101と、首関節ピッチ軸10
2と、首関節ロール軸103という3自由度を有してい
る。
FIG. 2 schematically shows the joint degree of freedom structure of the robot apparatus 1. The neck joint supporting the head unit 3 includes a neck joint yaw axis 101 and a neck joint pitch axis 10
It has two degrees of freedom, namely 2 and the neck joint roll shaft 103.

【0019】また、上肢を構成する各々の腕部ユニット
4R/4Lは、、肩関節ピッチ軸107と、肩関節ロー
ル軸108と、上腕ヨー軸109と、肘関節ピッチ軸1
10と、前腕ヨー軸111と、手首関節ピッチ軸112
と、手首関節ロール輪113と、手部114とで構成さ
れる。手部114は、実際には、複数本の指を含む多関
節・多自由度構造体である。ただし、手部114の動作
は、ロボット装置1の姿勢制御や歩行制御に対する寄与
や影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、各腕部は7自由度を有するとする。
Each arm unit 4R / 4L constituting the upper limb has a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, and an elbow joint pitch axis 1.
10, forearm yaw axis 111, wrist joint pitch axis 112
And a wrist joint roll wheel 113 and a hand portion 114. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the motion of the hand portion 114 has little contribution or influence to the posture control and the walking control of the robot apparatus 1, it is assumed that the degree of freedom is zero in this specification. Therefore, each arm has seven degrees of freedom.

【0020】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。
Further, the trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105 and a trunk yaw axis 106.

【0021】また、下肢を構成する各々の脚部ユニット
5R/5Lは、股関節ヨー軸115と、股関節ピッチ軸
116と、股関節ロール軸117と、膝関節ピッチ軸1
18と、足首関節ピッチ軸119と、足首関節ロール軸
120と、足部121とで構成される。本明細書中で
は、股関節ピッチ軸116と股関節ロール軸117の交
点は、ロボット装置1の股関節位置を定義する。人体の
足部121は、実際には多関節・多自由度の足底を含ん
だ構造体であるが、ロボット装置1の足底は、ゼロ自由
度とする。したがって、各脚部は、6自由度で構成され
る。
Each leg unit 5R / 5L constituting the lower limb has a hip joint yaw shaft 115, a hip joint pitch shaft 116, a hip joint roll shaft 117, and a knee joint pitch shaft 1.
18, an ankle joint pitch shaft 119, an ankle joint roll shaft 120, and a foot portion 121. In this specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint, multi-degree-of-freedom foot, but the foot of the robot apparatus 1 has zero degrees of freedom. Therefore, each leg has 6 degrees of freedom.

【0022】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。ただし、エンターテインメント向け
のロボット装置1が必ずしも32自由度に限定されるわ
けではない。設計・制作上の制約条件や要求仕様等に応
じて、自由度すなわち関節数を適宜増減することができ
ることはいうまでもない。
In summary, the robot apparatus 1 as a whole has 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. It goes without saying that the degree of freedom, that is, the number of joints, can be appropriately increased or decreased in accordance with design / production constraint conditions and required specifications.

【0023】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うことなどの要請から、アクチュエータは小型
且つ軽量であることが好ましい。
Each degree of freedom of the robot apparatus 1 as described above is actually implemented by using an actuator.
It is preferable that the actuator be small and lightweight in view of demands such as eliminating extra bulges in appearance and approximating the shape of a natural human body, and performing posture control for an unstable structure such as bipedal walking. .

【0024】図3には、ロボット装置1の制御システム
構成を模式的に示している。同図に示すように、ロボッ
ト装置1は、ヒトの四肢を表現した体幹部ユニット2,
頭部ユニット3,腕部ユニット4R/4L,脚部ユニッ
ト5R/5Lと、各ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット10とで構成される。
FIG. 3 schematically shows the control system configuration of the robot apparatus 1. As shown in the figure, the robot device 1 includes a trunk unit 2, which represents human limbs.
The head unit 3, the arm units 4R / 4L, the leg units 5R / 5L, and the control unit 10 that performs adaptive control for realizing cooperative operation between the units.

【0025】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)などを含
んだ周辺回路12とで構成される。
The overall operation of the robot apparatus 1 is controlled by the control unit 10. Control unit 10
Is a CPU (Central Processing Unit) or DRA
An interface (not shown) for exchanging data and commands with the main control unit 11 including main circuit components (not shown) such as M and flash ROM, and the power supply circuit and each component of the robot apparatus 1. And the peripheral circuit 12 including.

【0026】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図3では体幹
部ユニット2に搭載されているが、頭部ユニット3に搭
載してもよい。あるいは、ロボット装置1外に制御ユニ
ット10を配備して、ロボット装置1の機体とは有線又
は無線で交信するようにしてもよい。
In implementing the present invention, the installation place of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 3, it may be mounted on the head unit 3. Alternatively, the control unit 10 may be provided outside the robot apparatus 1 to communicate with the body of the robot apparatus 1 in a wired or wireless manner.

【0027】図2に示したロボット装置1内の各関節自
由度は、それぞれに対応するアクチュエータによって実
現される。すなわち、頭部ユニット3には、首関節ヨー
軸101、首関節ピッチ軸102、首関節ロール軸10
3の各々を表現する首関節ヨー軸アクチュエータA
首関節ピッチ軸アクチュエータA、首関節ロール軸ア
クチュエータAが配設されている。
The degree of freedom of each joint in the robot apparatus 1 shown in FIG. 2 is realized by an actuator corresponding to each joint. That is, the head unit 3 includes a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 10.
3, the neck joint yaw axis actuator A 2 representing each of
A neck joint pitch axis actuator A 3 and a neck joint roll axis actuator A 4 are arranged.

【0028】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための距離センサ、外部音を集音するため
のマイク、音声を出力するためのスピーカ、使用者から
の「撫でる」や「叩く」といった物理的な働きかけによ
り受けた圧力を検出するためのタッチセンサ等が配設さ
れている。
Further, the head unit 3 is provided with a CCD (Charge Coupled Device) camera for picking up an image of an external situation, and a distance sensor for measuring a distance to an object located in front, A microphone for collecting external sound, a speaker for outputting voice, a touch sensor for detecting the pressure received by the physical action of the user such as "stroking" or "striking" are provided. ing.

【0029】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA、体幹ロ
ール軸アクチュエータA、体幹ヨー軸アクチュエータ
が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。
The trunk unit 2 includes a trunk pitch axis actuator A 5 , a trunk roll axis actuator A 6 , which expresses each of the trunk pitch axis 104, trunk roll axis 105, and trunk yaw axis 106, A trunk yaw axis actuator A 7 is provided. Also, in the trunk unit 2,
The robot apparatus 1 is provided with a battery as a power source. This battery is composed of a chargeable / dischargeable battery.

【0030】また、腕部ユニット4R/4Lは、上腕ユ
ニット4R/4Lと、肘関節ユニット4R/4
Lと、前腕ユニット4R/4Lに細分化されるが、
肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨ
ー軸109、肘関節ピッチ軸110、前腕ヨー軸11
1、手首関節ピッチ軸112、手首関節ロール軸113
の各々表現する肩関節ピッチ軸アクチュエータA、肩
関節ロール軸アクチュエータA、上腕ヨー軸アクチュ
エータA10、肘関節ピッチ軸アクチュエータA 11
肘関節ロール軸アクチュエータA12、手首関節ピッチ
軸アクチュエータA13、手首関節ロール軸アクチュエ
ータA14が配備されている。
The arm unit 4R / 4L is used for the upper arm unit.
Knit 41R / 41L and elbow joint unit 4TwoR / 4Two
L and forearm unit 4ThreeR / 4ThreeIt is subdivided into L,
Shoulder joint pitch axis 107, shoulder joint roll axis 108, upper arm yo
-Axis 109, elbow joint pitch axis 110, forearm yaw axis 11
1, wrist joint pitch axis 112, wrist joint roll axis 113
Of each shoulder joint pitch axis actuator A8,shoulder
Joint roll axis actuator A9, Upper arm yaw actu
Eta A10, Elbow joint pitch axis actuator A 11,
Elbow joint roll axis actuator A12, Wrist joint pitch
Axis actuator AThirteen, Wrist joint roll axis actuator
Data A14Has been deployed.

【0031】また、脚部ユニット5R/5Lは、大腿部
ユニット5R/5Lと、膝ユニット5R/5
と、脛部ユニット5R/5Lに細分化されるが、股
関節ヨー軸115、股関節ピッチ軸116、股関節ロー
ル軸117、膝関節ピッチ軸118、足首関節ピッチ軸
119、足首関節ロール軸120の各々を表現する股関
節ヨー軸アクチュエータA16、股関節ピッチ軸アクチ
ュエータA17、股関節ロール軸アクチュエータ
18、膝関節ピッチ軸アクチュエータA19、足首関
節ピッチ軸アクチュエータA20、足首関節ロール軸ア
クチュエータA21が配備されている。各関節に用いら
れるアクチュエータA,A・・・は、より好ましく
は、ギア直結型で旦つサーボ制御系をワンチップ化して
モータ・ユニット内に搭載したタイプの小型ACサーボ
・アクチュエータで構成することができる。
The leg unit 5R / 5L includes a thigh unit 5 1 R / 5 1 L and a knee unit 5 2 R / 5 2 L.
The hip joint yaw axis 115, the hip joint pitch axis 116, the hip joint roll axis 117, the knee joint pitch axis 118, the ankle joint pitch axis 119, and the ankle joint roll axis are subdivided into the tibial unit 5 3 R / 5 3 L. A hip joint yaw axis actuator A 16 , a hip joint pitch axis actuator A 17 , a hip joint roll axis actuator A 18 , a knee joint pitch axis actuator A 19 , an ankle joint pitch axis actuator A 20 , and an ankle joint roll axis actuator A 21 that represent each of 120. Has been deployed. The actuators A 2 , A 3 ... Used for the respective joints are more preferably composed of small AC servo actuators of the type that are directly connected to the gears and the servo control system is integrated into one chip and mounted in the motor unit. can do.

【0032】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/4L、各脚部ユニット5R/5Lなど
の各機構ユニット毎に、アクチュエータ駆動制御部の副
制御部20,21,22R/22L,23R/23Lが
配備されている。さらに、各脚部ユニット5R/5Lの
足底が着床したか否かを検出する接地確認センサ30R
/30Lを装着するとともに、体幹部ユニット2内に
は、姿勢を計測する姿勢センサ31を装備している。
For each mechanical unit such as the trunk unit 2, the head unit 3, the arm units 4R / 4L, the leg units 5R / 5L, etc., the sub-control units 20, 21, 22R / of the actuator drive control unit are provided. 22L and 23R / 23L are provided. Furthermore, a ground contact confirmation sensor 30R for detecting whether or not the sole of each leg unit 5R / 5L has landed
In addition to wearing / 30L, the trunk unit 2 is equipped with a posture sensor 31 for measuring the posture.

【0033】接地確認センサ30R/30Lは、例えば
足底に設置された近接センサ又はマイクロ・スイッチな
どで構成される。また、姿勢センサ31は、例えば、加
速度センサとジャイロ・センサの組み合わせによって構
成される。
The ground contact confirmation sensor 30R / 30L is composed of, for example, a proximity sensor or a micro switch installed on the sole of the foot. Further, the posture sensor 31 is composed of, for example, a combination of an acceleration sensor and a gyro sensor.

【0034】接地確認センサ30R/30Lの出力によ
って、歩行・走行などの動作期間中において、左右の各
脚部が現在立脚又は遊脚何れの状態であるかを判別する
ことができる。また、姿勢センサ31の出力により、体
幹部分の傾きや姿勢を検出することができる。
By the output of the ground contact confirmation sensor 30R / 30L, it is possible to determine whether each of the left and right legs is currently standing or swinging during an operation period such as walking or running. Further, the output of the posture sensor 31 can detect the inclination and posture of the trunk.

【0035】主制御部11は、各センサ30R/30
L,31の出力に応答して制御目標をダイナミックに補
正することができる。より具体的には、副制御部20,
21,22R/22L,23R/23Lの各々に対して
適応的な制御を行い、ロボット装置1の上肢、体幹、及
び下肢が協調して駆動する全身運動パターンを実現でき
る。
The main control unit 11 includes the sensors 30R / 30
The control target can be dynamically corrected in response to the outputs of L and 31. More specifically, the sub control unit 20,
By performing adaptive control on each of 21, 22R / 22L and 23R / 23L, it is possible to realize a whole-body movement pattern in which the upper limbs, the trunk, and the lower limbs of the robot apparatus 1 are cooperatively driven.

【0036】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さなどを設定するとともに、これ
らの設定内容にしたがった動作を指示するコマンドを各
副制御部20,21,22R/22L,23R/23L
に転送する。そして、各々の副制御部20,21,・・
・等では、主制御部11からの受信コマンドを解釈し
て、各アクチュエータA ,A・・・等に対して駆動
制御信号を出力する。ここでいう「ZMP」とは、歩行
中の床反力によるモーメントがゼロとなる床面上の点の
ことであり、また、「ZMP軌道」とは、例えばロボッ
ト装置1の歩行動作期間中にZMPが動く軌跡を意味す
る。なお、ZMPの概念並びにZMPを歩行ロボットの
安定度判別規範に適用する点については、Miomir Vukob
ratovic著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外
著『歩行ロボットと人工の足』(日刊工業新聞社))に
記載されている。
The whole body motion of the robot apparatus 1 on the body is
Foot movement, ZMP (Zero Moment Point) trajectory, trunk movement
Movement, upper limb movement, waist height, etc.
Command to instruct the operation according to the setting contents
Sub control unit 20, 21, 22R / 22L, 23R / 23L
Transfer to. Then, each sub control unit 20, 21, ...
・ Interpret the received command from the main controller 11
Each actuator A Two, AThree... Drives for etc.
Output a control signal. "ZMP" here means walking
Of the point on the floor where the moment due to the floor reaction force inside becomes zero
The “ZMP orbit” is, for example, a robot
Means a locus of movement of the ZMP during the walking motion of the device 1.
It In addition, the concept of ZMP and ZMP
Regarding the points applied to the stability criterion, see Miomir Vukob.
ratovic "LEGGED LOCOMOTION ROBOTS" (Ichiro Kato
In "Walking Robot and Artificial Feet" (Nikkan Kogyo Shimbun))
Have been described.

【0037】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA,A
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、目
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。
As described above, in the robot apparatus 1, each of the sub-control units 20, 21, ... Interprets the received command from the main control unit 11 and each actuator A 2 , A 3
A drive control signal is output to ... to control the drive of each unit. As a result, the robot apparatus 1 makes a stable transition to the target posture and can walk in a stable posture.

【0038】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラからの画像情報、マイクからの音
声情報等を統括して処理している。制御ユニット10で
は、図示しないが加速度センサ、ジャイロ・センサ、タ
ッチセンサ、距離センサ、マイク、スピーカなどの各種
センサ、各アクチュエータ、CCDカメラ及びバッテリ
が各々対応するハブを介して主制御部11と接続されて
いる。
Further, in the control unit 10 of the robot apparatus 1, in addition to the posture control as described above, various sensors such as an acceleration sensor, a touch sensor, a ground contact confirmation sensor, image information from a CCD camera, and voice from a microphone. Information is handled in a centralized manner. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone, a speaker, actuators, CCD cameras, and batteries are connected to the main control unit 11 via corresponding hubs. Has been done.

【0039】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。
The main control section 11 sequentially takes in sensor data, image data and audio data supplied from the above-mentioned respective sensors, and sequentially stores them in a predetermined position in the DRAM via the internal interface. Further, the main control unit 11 sequentially takes in the battery remaining amount data representing the battery remaining amount supplied from the battery, and stores this in the DRAM.
It is stored in a predetermined position inside. Each sensor data, image data, voice data, and battery remaining amount data stored in the DRAM are used when the main control unit 11 controls the operation of the robot apparatus 1.

【0040】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無などを判断する。
The main controller 11 reads the control program and stores it in the DRAM at the initial stage when the power of the robot apparatus 1 is turned on. In addition, the main control unit 11 uses the sensor data, the image data, the audio data, and the battery remaining amount data that are sequentially stored in the DRAM from the main control unit 11 as described above, based on the self and surrounding conditions and the user. Judging whether or not there are instructions and how to work.

【0041】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。
Further, the main control section 11 determines an action according to its own situation based on this determination result and the control program stored in the DRAM, and drives a necessary actuator based on the determination result. The robot apparatus 1 is caused to take actions such as so-called “gesture” and “hand gesture”.

【0042】特に、このロボット装置1は、複数のセン
サ情報から特定のセンサ情報を使ってその方向に注視す
る行動制御を行う。さらに、本発明では、センサーフュ
ージョンを行う短期記憶部(ShortTermMemory)の情報
を用いて、注視行動の対象物情報から適切なセンサ情報
を選択し、上位のコマンドからは、センサーフュージョ
ンに使われるID(対象物ID)を指定するだけで、注
視動作モジュールが自動的に最適なセンサ情報を選択す
るようにした。
In particular, the robot apparatus 1 uses specific sensor information from a plurality of sensor information to perform action control of gazing in that direction. Further, in the present invention, by using the information of the short-term storage unit (ShortTermMemory) that performs sensor fusion, appropriate sensor information is selected from the target object information of the gaze behavior, and from the higher-order command, the ID used for sensor fusion ( The gaze operation module automatically selects the optimum sensor information only by specifying the object ID).

【0043】図4には、ロボット装置1において採用さ
れる、前記注視行動制御を含む行動制御システム50の
基本アーキテクチャを模式的に示している。
FIG. 4 schematically shows the basic architecture of the action control system 50 including the gaze action control adopted in the robot apparatus 1.

【0044】図示の行動制御システム50にはオブジェ
クト指向プログラミングを採り入れることができる。こ
の場合、各ソフトウェアは、データ(プロパティ)とそ
のデータに対する処理手続き(メソッド)とを一体化さ
せた「オブジェクト」というモジュール単位で扱われ
る。また、各オブジェクトは、メッセージ通信と共有メ
モリを使ったオブジェクト間通信方法によりプロパティ
の受け渡しとメソッドの継承を行なうことができる。
Object-oriented programming can be incorporated into the illustrated behavior control system 50. In this case, each software is handled in module units called "objects" in which data (property) and a processing procedure (method) for the data are integrated. In addition, each object can pass properties and inherit methods by message communication and inter-object communication method using shared memory.

【0045】行動制御システム50は、外部環境(Envi
ronments)を認識するために、視覚認識機能部51と、
聴覚認識機能部52と、接触認識機能部53を備えてい
る。
The behavior control system 50 uses the external environment (Envi
ronments), the visual recognition function unit 51,
The hearing recognition function unit 52 and the contact recognition function unit 53 are provided.

【0046】視覚認識機能部(Video)51は、例え
ば、電荷結合素子(Charge Coupled Device:CCD)
カメラのような画像入力装置を介して入力された撮影画
像を基に、顔認識や色認識などの画像認識処理や特徴抽
出を行う。視覚認識機能部51は、"MultiColorTracke
r","FaceDetector","FaceIdentify"といった複数のオ
ブジェクトで構成される。
The visual recognition function section (Video) 51 is, for example, a charge coupled device (CCD).
Image recognition processing such as face recognition and color recognition and feature extraction are performed based on a captured image input through an image input device such as a camera. The visual recognition function unit 51 uses "MultiColorTracke
It consists of multiple objects such as "r", "FaceDetector", and "FaceIdentify".

【0047】聴覚認識機能部(Audio)52は、マイク
などの音声入力装置を介して入力される音声データを音
声認識して、特徴抽出したり、単語セット(テキスト)
認識を行ったりする。聴覚認識機能部52は、後述す
る"AudioRecog","AuthurDecoder"といった複数のオブ
ジェクトで構成される。
The auditory recognition function unit (Audio) 52 performs voice recognition of voice data input via a voice input device such as a microphone to extract a feature and set a word set (text).
Do recognition. The auditory recognition function unit 52 is composed of a plurality of objects such as "AudioRecog" and "AuthurDecoder" described later.

【0048】接触認識機能部(Tactile)53は、例え
ば機体の頭部などに内蔵された接触センサによるセンサ
信号を認識して、「なでられた」とか「叩かれた」とい
う外部刺激を認識する。
The contact recognition function unit (Tactile) 53 recognizes a sensor signal from a contact sensor built in, for example, the head of the machine body, and recognizes an external stimulus such as "stroked" or "struck". To do.

【0049】内部状態管理部(ISM:Internal Statu
s Manager)54は、本能モデルや感情モデルを備え、
上述の視覚認識機能部51と、聴覚認識機能部52と、
接触認識機能部53によって認識された外部刺激(E
S:ExternalStimula)に応じてロボット装置1の本能
や情動といった内部状態を管理する。
Internal state management unit (ISM: Internal Statu)
s Manager) 54 has an instinct model and an emotional model,
The visual recognition function unit 51, the auditory recognition function unit 52,
External stimulus (E recognized by the touch recognition function unit 53
S: External Stimula) to manage internal states such as instinct and emotion of the robot apparatus 1.

【0050】感情モデルと本能モデルは、それぞれ認識
結果と行動履歴を入力に持ち、感情値と本能値を管理し
ている。行動モデルは、これら感情値や本能値を参照す
ることができる。
The emotion model and the instinct model respectively have the recognition result and the action history as inputs, and manage the emotion value and the instinct value. The behavior model can refer to these emotional values and instinct values.

【0051】短期記憶部(ShortTermMemory)55は、
上述の視覚認識機能部51と、聴覚認識機能部52と、
接触認識機能部53によって外部環境から認識されたタ
ーゲットやイベントを短期間保持する機能モジュールで
ある。例えば、カメラからの入力画像を約15秒程度の
短い期間だけ記憶する。
The short-term memory section (ShortTermMemory) 55 is
The visual recognition function unit 51, the auditory recognition function unit 52,
It is a functional module that holds a target or event recognized from the external environment by the contact recognition function unit 53 for a short period of time. For example, the input image from the camera is stored for a short period of about 15 seconds.

【0052】長期記憶部(LongTermMemory)56は、物
の名前など学習により得られた情報を超期間保持するた
めに使用される。長期記憶部56は、例えば、ある行動
モジュールにおいて外部刺激から内部状態の変化を連想
記憶する。
The long-term memory unit (LongTermMemory) 56 is used to hold information obtained by learning such as the name of an object for a super period. The long-term storage unit 56, for example, associatively stores a change in internal state from an external stimulus in a certain action module.

【0053】ロボット装置1の行動制御は、反射行動部
59によって実現される「反射行動」と、状況依存行動
階層58によって実現される「状況依存行動」と、熟考
行動階層57によって実現される「熟考行動」に大別さ
れる。
The action control of the robot apparatus 1 is realized by the "reflexive action" realized by the reflexive action unit 59, the "situation dependent action" realized by the situation dependent action layer 58, and the "thinking action layer 57". It is roughly divided into "thinking behavior".

【0054】熟考行動階層(DeliberativeLayer)57
は、短期記憶部55並びに長期記憶部56の記憶内容に
基づいて、ロボット装置1の比較的長期にわたる行動計
画などを行う。
Deliberative Layer 57
Performs a relatively long-term action plan of the robot apparatus 1 based on the stored contents of the short-term storage unit 55 and the long-term storage unit 56.

【0055】熟考行動は、与えられた状況あるいは人間
からの命令により、推論やそれを実現するための計画を
立てて行われる行動である。このような推論や計画は、
インタラクションを保つための反応時間よりも処理時間
や計算負荷を要するので、ロボット装置1は反射行動や
状況依存行動をリアルタイムで反応を返しながら行い、
熟考行動を推論や計画を立てて行う。
The deliberative action is an action which is made by inferring a plan for realizing the reasoning or in accordance with a given situation or an instruction from a human. Such inferences and plans are
Since the processing time and the calculation load are longer than the reaction time for maintaining the interaction, the robot apparatus 1 performs the reflexive behavior and the situation-dependent behavior while returning the reaction in real time,
Conduct deliberative actions by reasoning and planning.

【0056】状況依存行動階層(SBL:SituatedBeha
viorsLayer)58は、短期記憶部55並びに長期記憶部
56の記憶内容や、内部状態管理部54によって管理さ
れる内部状態を基に、ロボット装置1が現在置かれてい
る状況に即応した行動を制御する。
Situation-dependent behavior hierarchy (SBL: Situated Beha)
The viorsLayer) 58 controls the action immediately corresponding to the current situation of the robot apparatus 1 based on the stored contents of the short-term storage unit 55 and the long-term storage unit 56 and the internal state managed by the internal state management unit 54. To do.

【0057】状況依存行動階層58は、各行動毎にステ
ートマシンを用意しており、それ以前の行動や状況に依
存して、センサ入力された外部情報の認識結果を分類し
て、行動を機体上で発現する。また、状況依存行動階層
58は、内部状態をある範囲に保つための行動(「ホメ
オスタシス行動」とも呼ぶ)も実現し、内部状態が指定
した範囲内を越えた場合には、その内部状態を当該範囲
内に戻すための行動が出易くなるようにその行動を活性
化させる(実際には、内部状態と外部環境の両方を考慮
した形で行動が選択される)。状況依存行動は、反射行
動(後述)に比し、反応時間が遅い。
The state-dependent action hierarchy 58 prepares a state machine for each action, and classifies the recognition result of the external information input by the sensor depending on the action and the situation before that to classify the action as a body. Expressed above. The situation-dependent action hierarchy 58 also realizes an action for keeping the internal state within a certain range (also called "homeostasis action"), and when the internal state exceeds the specified range, the internal state Activate the behavior so that it becomes easier for the behavior to return to within the range (actually, the behavior is selected in consideration of both the internal state and the external environment). Situation-dependent behavior has a slower reaction time than reflexive behavior (described later).

【0058】熟考行動階層57や状況依存行動階層58
は、アプリケーションとして実装することができる。
Reflection action layer 57 and situation-dependent action layer 58
Can be implemented as an application.

【0059】反射的行動部(ConfigurationDependentAc
tionsAndReactions又はReflexiveSBL)59は、上述
の視覚認識機能部51と、聴覚認識機能部52と、接触
認識機能部53によって認識された外部刺激に応じて反
射的な機体動作を実現する機能モジュールである。
Reflexive action part (ConfigurationDependentAc
The tionsAndReactions or ReflexiveSBL) 59 is a functional module that realizes reflexive body movements according to the external stimuli recognized by the visual recognition function unit 51, the auditory recognition function unit 52, and the contact recognition function unit 53.

【0060】反射行動は、基本的に、センサ入力された
外部情報の認識結果を直接受けて、これを分類して、出
力行動を直接決定する行動である。例えば、人間の顔を
追いかけたり、うなずくといった振る舞いは反射行動と
して実装することが好ましい。
Basically, the reflexive behavior is a behavior that directly receives the recognition result of the external information inputted by the sensor, classifies the recognition result, and directly determines the output behavior. For example, behaviors such as chasing a human face or nodding are preferably implemented as reflexive behaviors.

【0061】本実施形態に係るロボット装置1では、短
期記憶部55が、上述した視覚認識機能部51、聴覚認
識機能部52、接触認識機能部53などの複数の認識器
の結果を時間的及び空間的に整合性を保つように統合し
て、外部環境下の各物体に関する知覚を短期間の記憶と
して状況依存行動階層(SBL)58などに提供するよ
うになっている。また、センサ入力された外部情報の認
識結果を直接、反射行動部(Reflexive SBL)59に
提供するようになっている。
In the robot apparatus 1 according to the present embodiment, the short-term storage unit 55 temporally stores the results of a plurality of recognizers such as the visual recognition function unit 51, the auditory recognition function unit 52, and the touch recognition function unit 53 described above. They are integrated so as to maintain spatial consistency, and the perception of each object in the external environment is provided as a short-term memory to the context-dependent behavior hierarchy (SBL) 58 and the like. Further, the recognition result of the external information inputted by the sensor is directly provided to the reflexive SBL 59.

【0062】したがって、上位モジュールとして構成さ
れる行動制御モジュール側では、外界からの複数の認識
結果を統合して意味を持ったシンボル情報として扱い、
高度な行動制御を行うことができる。また、以前に観測
された認識結果との対応問題などより複雑な認識結果を
利用して、どの肌色領域が顔でどの人物に対応している
かや、この声がどの人物の声なのかなどを解くことがで
きる。
Therefore, on the action control module side configured as a higher-order module, a plurality of recognition results from the outside world are integrated and treated as meaningful symbol information,
A high degree of behavior control can be performed. In addition, by using more complex recognition results such as the correspondence problem with the previously observed recognition results, it is possible to determine which skin color area corresponds to which person in the face, and which person this voice is. Can be solved.

【0063】また、認識した観測結果に関する情報を記
憶として短期記憶部55が保持しているので、自律行動
する期間中に一時的に観測結果が来なかったりした場合
であっても、機体の行動制御を行うアプリケーションな
どの上位モジュールからは常にそこに物体が知覚されて
いるように見えるようにすることができる。例えば、セ
ンサの視野外の情報もすぐに忘れることなく保持してい
るので、ロボットが物体を一旦見失ったとしても、また
後で探し出すことができる。この結果、認識器間違いや
センサのノイズに強くなり、認識器の通知のタイミング
に依存しない安定したシステムを実現することができ
る。また、認識器単体から見て情報が足りなくても、他
の認識結果が補うことができる場合があるので、システ
ム全体としての認識性能が向上する。
Further, since the short-term storage unit 55 holds the information regarding the recognized observation result as a memory, even if the observation result does not come temporarily during the autonomous action period, the behavior of the aircraft is Objects can be made to appear to be perceived by higher-level modules such as control applications at all times. For example, since the information outside the field of view of the sensor is immediately retained without being forgotten, even if the robot loses sight of the object, it can be searched for later. As a result, it is possible to realize a stable system that is resistant to mistakes in the recognizer and noise from the sensor and does not depend on the timing of notification of the recognizer. Also, even if the recognizer alone lacks information, other recognition results may be supplemented, so that the recognition performance of the entire system is improved.

【0064】また、関連する認識結果が結び付けられて
いるので、アプリケーションなどの上位モジュールで関
連する情報を使って行動判断することが可能である。例
えば、ロボット装置は、呼び掛けられた声を基に、その
人物の名前を引き出すことができる。この結果、挨拶の
応答に「こんにちは、XXXさん。」のように答えるな
どのリアクションが可能である。
Further, since the related recognition results are linked, it is possible to judge the action by using the related information in the upper module such as the application. For example, the robotic device can derive the name of the person based on the called voice. As a result, it is possible to notes, such as answer such as "Hello, XXX-san." The response of the greeting.

【0065】このような行動制御システム50を適用
し、このロボット装置1は、上述したように、センサー
フュージョンを行う短期記憶部55の情報を用いて、注
視行動の対象物情報から対象物に関する属性情報をセン
シングした適切なセンサ情報を選択して、対象物に対し
て注視行動を行う。上位のコマンドからは、センサーフ
ュージョンに使われるID(対象物ID)を指定するだ
けで、注視動作モジュールが自動的に最適なセンサ情報
を選択する。
By applying the behavior control system 50 as described above, the robot apparatus 1 uses the information of the short-term storage unit 55 that performs the sensor fusion, as described above, and determines the attribute related to the object from the object information of the gaze behavior. Appropriate sensor information that senses the information is selected, and a gaze action is performed on the object. From the higher-level command, simply by designating the ID (object ID) used for sensor fusion, the gaze operation module automatically selects the optimum sensor information.

【0066】図5には、行動制御システムに含まれる注
視行動制御システム70を構成する各モジュールを示
す。
FIG. 5 shows each module constituting the gaze behavior control system 70 included in the behavior control system.

【0067】色検出器71は、色検出を行うモジュール
であり、カメラなどの画像入力装置から画像データを受
け取り、あらかじめ持っている複数のカラー・モデルに
基づいて色を抽出し、連続した色領域に分割する。分割
された各色領域の位置や大きさ、特徴量などの色情報
(ColorInfo)は短期記憶部(ShortTermMemory)75及
び後述する首部動作生成部(HeadMotionGenerator:H
MG)77に対象物の属性情報の一つとして送られる。
The color detector 71 is a module for performing color detection, receives image data from an image input device such as a camera, extracts a color based on a plurality of color models that it has in advance, and outputs a continuous color region. Split into. The color information (ColorInfo) such as the position, size, and feature amount of each divided color area is stored in a short-term storage unit (ShortTermMemory) 75 and a head motion generation unit (HeadMotionGenerator: H) described later.
MG) 77 as one of the attribute information of the object.

【0068】音検出器72は、音声の検出を行うモジュ
ールであり、マイクなどの音声入力装置からの音声デー
タを受け取って、音声認識を行うだけでなく、その音の
方向を検出する。音の方向の検出は、マイクがステレオ
である場合に、水平方向の音源方向推定を行うことによ
り可能である。ここで検出された音情報(SoundInfo)
は短期記憶部75及び後述する首部動作生成部77に対
象物に関する属性情報の一つとして送られる。
The sound detector 72 is a module for detecting a sound, and receives sound data from a sound input device such as a microphone and performs not only sound recognition but also the direction of the sound. The sound direction can be detected by estimating the sound source direction in the horizontal direction when the microphone is stereo. Sound information detected here (SoundInfo)
Is sent to the short-term storage unit 75 and a neck motion generation unit 77, which will be described later, as one of the attribute information regarding the object.

【0069】顔検出器73は、画像フレーム中から顔領
域を検出するモジュールであり、カメラなどの画像入力
装置から画像データを受け取り、それを9段階のスケー
ル画像に縮小変換する。このすべての画像の中から顔に
相当する矩形領域を探索する。重なりあった候補領域を
削減して最終的に顔と判断された領域に関する位置や大
きさ、特徴量などの顔情報(FaceInfo)を検出する。こ
こで検出された顔情報は短期記憶部75へ送られる。
The face detector 73 is a module for detecting a face area in an image frame, receives image data from an image input device such as a camera, and reduces and converts the image data into a nine-step scale image. A rectangular area corresponding to the face is searched from all the images. The overlapping candidate areas are reduced to detect face information (FaceInfo) such as the position, size, and feature amount regarding the area finally determined to be the face. The face information detected here is sent to the short-term storage unit 75.

【0070】関節角度検出部74は、ロボット装置1の
脚部や、首部や腕部等の各関節の関節角度の現在値(セ
ンサ出力)を検出する。ここで検出された関節角度のセ
ンサ出力は短期記憶部75及び首部動作生成部77に送
られる。
The joint angle detecting section 74 detects the current value (sensor output) of the joint angle of each joint of the leg, neck, arm and the like of the robot apparatus 1. The sensor output of the joint angle detected here is sent to the short-term storage unit 75 and the neck motion generation unit 77.

【0071】短期記憶部75は、ロボット装置1の外部
環境に関する情報を比較的短い時間だけ保持するオブジ
ェクトであり、音検出部72から音(声)検出結果、色
検出部71から色検出結果、また顔検出部73から顔検
出結果、さらには関節角度検出部74から関節角度のセ
ンサ出力を受け取る。そして、これらの複数の検出情報
を時間的及び空間的に整合性を保つように統合して、意
味を持った統合情報として扱い、比較的短い時間、例え
ば15秒間保持する。これらの統合情報は、動作命令部
76及び首部動作生成部77に渡される。
The short-term storage unit 75 is an object that holds information about the external environment of the robot apparatus 1 for a relatively short time, and the sound (voice) detection result from the sound detection unit 72, the color detection result from the color detection unit 71, The face detection unit 73 receives the face detection result, and the joint angle detection unit 74 receives the joint angle sensor output. Then, the plurality of pieces of detection information are integrated so as to maintain consistency in terms of time and space, treated as meaningful integrated information, and held for a relatively short time, for example, 15 seconds. These pieces of integrated information are passed to the motion command unit 76 and the neck motion generation unit 77.

【0072】動作命令部76は、前述した状況依存行動
層等の上位モジュールである。首部動作生成部77に対
して首部の動作を指示するコマンドを発現する。本発明
では、短期記憶部75にて保存されている統合情報に関
するID(対象物ID)を指定することによって、すな
わち、何に対してトラッキングするのかを指定するだけ
でロボット装置1にトラッキング動作を行わせるもので
ある。
The operation command section 76 is a higher-level module such as the above-mentioned situation-dependent action layer. A command for instructing a neck motion to the neck motion generation unit 77 is developed. In the present invention, the tracking operation is performed on the robot apparatus 1 by designating the ID (target object ID) relating to the integrated information stored in the short-term storage unit 75, that is, by designating what to track. It is something to do.

【0073】首動作生成部77は、動作命令部76から
首を動かすコマンドを受けたことに応答して、首の関節
角を計算するモジュールである。「追跡」(本実施の形
態では前記対象物ID)のコマンドを受けたときには、
短期記憶部75から受け取った情報を基に、その物体が
存在する方向を向く首の関節角を計算して出力する。前
記対象物IDを受け取り、最適な対象物情報を選択し
て、その選択した対象物情報が得られる方向を向くこと
になる。
The neck motion generator 77 is a module for calculating the joint angle of the neck in response to the command to move the neck from the motion commander 76. When the command of “tracking” (in the present embodiment, the object ID) is received,
Based on the information received from the short-term storage unit 75, the joint angle of the neck facing the direction in which the object exists is calculated and output. The object ID is received, the optimum object information is selected, and the selected object information is obtained.

【0074】次に、ロボット装置1がAさんの顔にトラ
ッキングするという実施例を説明する。図6においてロ
ボット装置1は、CCDセンサー等よりなるPSDセン
サ80にて得た情報に基づいてAさんの顔85にトラッ
キングをしようとしている。Aさんの顔85の近くには
肌色のボール87がある。
Next, an embodiment in which the robot apparatus 1 tracks the face of Mr. A will be described. In FIG. 6, the robot apparatus 1 is trying to track the face 85 of Mr. A based on the information obtained by the PSD sensor 80 including a CCD sensor or the like. Near A's face 85 is a skin-colored ball 87.

【0075】設定された状況について図7を用いて説明
する。時間Time(frameNumber)は、0からスター
トして1づつインクリメントされている。その中で、3
0フレーム毎に取得した画像に顔が見え、10フレーム
毎に顔の肌色の領域が検出され、50フレームのときに
は“こんちには”という声が聞こえる、という状況であ
る。そして、最初の30フレームのときにAさんの顔が
見えたので、トラッキングコマンドを実行しようとする
ところである。
The set situation will be described with reference to FIG. The time Time (frameNumber) starts from 0 and is incremented by 1. Among them, 3
In this situation, the face is seen in the image acquired every 0th frame, and the skin-colored area of the face is detected every 10th frame, and when "50th frame", the voice "Hello" is heard. Since Mr. A's face was visible in the first 30 frames, he is about to execute the tracking command.

【0076】このような状況設定の中での、前記顔検出
器73、色検出器71、音検出器72、短期記憶部7
5、動作命令部76、首部動作生成部77の詳細な動作
について以下に説明する。
In such a situation setting, the face detector 73, the color detector 71, the sound detector 72, and the short-term storage section 7 are set.
5, detailed operations of the motion command unit 76 and the neck motion generation unit 77 will be described below.

【0077】先ず、顔検出器73は、テンプレートマッ
チングの一般的な検出アルゴリズムを適用して対象物に
関する属性情報の一つである顔情報FaceInfoを生成す
る。ここでは、図8に示すように、時刻tのフレームの
顔画像を見て、顔情報を検出している。顔検出結果は、 FaceRecogResult=(frameNumber,faceID,gravity point
(x,y),sizeX,sizeY,c.m.) で表される。ここで、frameNumberは、ロボット装置の
システム内の時間(絶対時間)を示すので画像にもこの
frameNumberが付く。gravity point(x,y)は顔画像の重
心の座標である。sizeX,sizeYは、顔画像のX軸上のサ
イズ、Y軸上のサイズである。c.m.は、confidence mea
sureは、顔認識の確かさ(信頼度)を表すものである。
First, the face detector 73 applies a general detection algorithm of template matching to generate face information FaceInfo which is one of the attribute information about the object. Here, as shown in FIG. 8, the face information is detected by looking at the face image of the frame at time t. Face detection result is FaceRecogResult = (frameNumber, faceID, gravity point
(x, y), sizeX, sizeY, cm). Here, frameNumber indicates the time (absolute time) in the system of the robot device, so this is also shown in the image.
frameNumber is attached. gravity point (x, y) is the coordinate of the center of gravity of the face image. sizeX and sizeY are the size on the X axis and the size on the Y axis of the face image. cm is confidence mea
sure represents the certainty (reliability) of face recognition.

【0078】この顔認識の確かさ(信頼度)c.m.は、例
えばテンプレートの画素数nのうち、マッチした画素数
を(nmatch )として次式により算出できる。 c.m.=nmatch/n したがって、前記図7における、30フレーム目の画像
の顔検出結果信号は、例えばFaceRecogResult(30,human
-A,x1,y1,sizex1,sizey1,0.3)となる。
The certainty (reliability) cm of this face recognition can be calculated by the following equation, for example, with the number of matched pixels among the number n of pixels of the template being (n match ). cm = n match / n Therefore, the face detection result signal of the image of the 30th frame in FIG. 7 is, for example, FaceRecogResult (30, human
-A, x1, y1, sizex1, sizey1,0.3).

【0079】次に、色検出器71は、設定された色空間
(ここでは肌色の色空間)にマッチングする領域を抜き
出すという色検出アルゴリズムを適用して対象物の属性
情報の一つである色検出結果信号を生成する。
Next, the color detector 71 applies a color detection algorithm of extracting a region matching the set color space (here, a skin color space), and the color which is one of the attribute information of the object. Generate a detection result signal.

【0080】画像上の画素P(x,y)は図9に示すように色
情報(y,u,v)の値を各々持っている。ここから、肌色(S
KIN)に設定された色空間にマッチする領域の中心とその
大きさを検出する。
Each pixel P (x, y) on the image has a value of color information (y, u, v) as shown in FIG. From here, the skin color (S
Detect the center and size of the area that matches the color space set in (KIN).

【0081】画素の色空間が, 8ビットで表現されると
すると、図9に示すように、0≦y≦255, 0≦u≦255, 0
≦v≦255で表現されるので、空間指定の方法は、図10
に各y平面における色領域で示すように、(u1,v1),(u2,v
2)で定義される長方形と定義できる。 ここで、Color[y][0]=u1; Color[y][1]=v1; Color[y][2]=u2; Color[y][3]=v2; である。したがって、色空間colorは、Color[256][4]と
して定義できる。
Assuming that the color space of pixels is represented by 8 bits, as shown in FIG. 9, 0 ≦ y ≦ 255, 0 ≦ u ≦ 255, 0
Since it is expressed by ≦ v ≦ 255, the space designation method is shown in FIG.
, (U1, v1), (u2, v
It can be defined as a rectangle defined in 2). Here, Color [y] [0] = u1; Color [y] [1] = v1; Color [y] [2] = u2; Color [y] [3] = v2; Therefore, the color space color can be defined as Color [256] [4].

【0082】次に、図11、図12及び図13を参照し
て複数の色領域検出アルゴリズムについて説明する。画
像上の画素の位置をP(x0,x1)とし、yuvデータをCu(x0,x
1),Cv(x0,x1),Cy(x0,x1)とすると、色空間のフィルター
を通した後の画像のデータ(設定された色空間にマッチ
する場合には1,そうでない場合には0となる)Q(x0,x1)
は、 となる。
Next, a plurality of color area detection algorithms will be described with reference to FIGS. 11, 12 and 13. The pixel position on the image is P (x0, x1), and the yuv data is Cu (x0, x1).
1), Cv (x0, x1), Cy (x0, x1), the image data after passing through the color space filter (1 if it matches the set color space, otherwise 0) Q (x0, x1)
Is Becomes

【0083】色照合画像(0)において、各(x0,x1)で
マッチしている(Q(x0,x1)=1)場合、その周辺の画素が
マッチしているかを探索し、マッチしている場合には、
同一領域とみなす。
In the color collation image (0), when each (x0, x1) matches (Q (x0, x1) = 1), it is searched for whether the surrounding pixels match, and they are matched. If
Consider the same area.

【0084】画素(X,Y)についての条件は、 (Q(X+1,Y)==1‖Q(X-1,Y)==1‖Q(X,Y+1)==1‖Q(X,Y-1)==1‖ Q(X+1,Y+1)==1‖Q(X+1,Y-1)==1‖Q(X-1,Y+1)==1‖Q(X-1,Y-1)==1) と表せる。これを図11の色照合画像(0)に対してフ
ィルタリングすると、図12の色照合画像(1)と図1
3の色照合画像(2)が得られる。
The condition for the pixel (X, Y) is (Q (X + 1, Y) == 1‖Q (X-1, Y) == 1‖Q (X, Y + 1) == 1 ‖Q (X, Y-1) == 1‖Q (X + 1, Y + 1) == 1‖Q (X + 1, Y-1) == 1‖Q (X-1, Y + 1) ) == 1‖Q (X-1, Y-1) == 1) When this is filtered for the color matching image (0) of FIG. 11, the color matching image (1) of FIG.
A color matching image (2) of 3 is obtained.

【0085】色検出信号は、色検出結果に、色空間idを
付加したものであり、以下の式によって表される。 ColorDetectResult(id,color,centerX,centerY,sizeX,s
izeY) ここで、idはシリアル番号、colorはセグメントに使用
する色空間を示す。したがって、colorは顔であれば、
肌色領域(この例では、SKIN)になる。また、centerX,c
enterYは、色検出領域における重心座標を示す。また、
sizeX,sizeYは、色検出領域のサイズを示す。
The color detection signal is obtained by adding the color space id to the color detection result and is represented by the following equation. ColorDetectResult (id, color, centerX, centerY, sizeX, s
izeY) where id is the serial number and color is the color space used for the segment. Therefore, if color is a face,
It becomes the skin color area (SKIN in this example). Also, centerX, c
enterY indicates the barycentric coordinates in the color detection area. Also,
sizeX and sizeY indicate the size of the color detection area.

【0086】前記色照合画像(1)、(2)のそれぞれ
について、centerとsizeXとsizeYを算出し、色検出信号
ColorDetectResult=(id,color,centerX,centerY,sizeX,
sizeY)を求める。
For each of the color matching images (1) and (2), center, sizeX and sizeY are calculated, and a color detection signal is calculated.
ColorDetectResult = (id, color, centerX, centerY, sizeX,
sizeY) is calculated.

【0087】すると、色照合画像(1)の色検出領域に
おける色検出信号は、idを10とすると、ColorDetectRes
ult[0]=(10,“SKIN”,3,4,3,3)となる。
Then, the color detection signal in the color detection area of the color collation image (1) is ColorDetectRes when id is 10.
ult [0] = (10, “SKIN”, 3,4,3,3).

【0088】また、色照合画像(2)の色検出領域にお
ける色検出信号は、idを11とすると、ColorDetectResul
t[0]=(11,“SKIN”,6,8,3,3)となる。
Further, the color detection signal in the color detection area of the color matching image (2) is ColorDetectResul when id is 11.
t [0] = (11, “SKIN”, 6,8,3,3).

【0089】そして、前述のように検出された色検出領
域における前記色検出信号を色検出モジュールで格納し
ておき、フレーム間でオーバーラップ(Overlap)する領
域が大きい場合には、同一のものが移動したと考え、同
一のidをナンバリング(numbering)する。例えば、図1
4に示すように新しく検出した色検出領域newとOld(id=
10)の色検出領域とのオーバーラップOverlap領域の面積
overlapがある閾値Sthresouldより
も大きいならば新しい色検出領域newの色検出信号のID
newはidoldと同じとする。すなわち、S
overlap>Sth resouldならば、ID
new=idoldとする。
Then, when the color detection signal in the color detection area detected as described above is stored in the color detection module and the area where the frame overlaps is large, the same one is detected. It is considered that they have moved, and the same id is numbered. For example, in FIG.
As shown in 4, newly detected color detection areas new and Old (id =
ID threshold S new color detection area new color detection signal if greater than thresould with the area S overlap overlap Overlap regions between the color detection area 10)
new is the same as id old . That is, S
If overlap > S th result, then ID
Let new = id old .

【0090】前記図7に示した状況では、10フレーム
毎に顔の肌色の領域が検出される。このように所定数の
フレーム毎に検出される色検出領域における色検出結果
信号ColorSegmentResultを、ここでは、(frameNumber,i
d,x,y,sizeX,sizeY,c.m.)のように示す。c.m.(Confiden
ce measure)は色認識の信頼度である。算出結果は後述
する。なお、同一画像中での複数の肌色領域の検出アル
ゴリズムは前述した通りである。
In the situation shown in FIG. 7, the skin color area of the face is detected every 10 frames. In this way, the color detection result signal ColorSegmentResult in the color detection area detected for each predetermined number of frames is represented by (frameNumber, i
d, x, y, sizeX, sizeY, cm). cm (Confiden
ce measure) is the reliability of color recognition. The calculation result will be described later. The detection algorithm for a plurality of skin color areas in the same image is as described above.

【0091】したがって、図15に示すように、10フ
レーム毎の画像における二つの色検出領域の色検出結果
信号は、idを1,2とした場合、 ColorSegmentResult(10,1,x2,y2,sizex2,sizey2,0.8) ColorSegmentResult(10,2,x3,y3,sizex3,sizey3,0.8) となる。
Therefore, as shown in FIG. 15, the color detection result signals of the two color detection areas in the image of every 10 frames are ColorSegmentResult (10,1, x2, y2, sizex2 when id is 1 and 2. , sizey2,0.8) ColorSegmentResult (10,2, x3, y3, sizex3, sizey3,0.8).

【0092】なお、色認識の信頼度の算出は、複数の同
一色検出領域、例えば肌色領域を検出した場合に、その
数で割る方法がある。よって、c.m.=1/(画像に含まれる
同一色領域)となる。次に、音検出器72は、マイクな
どの音声入力装置からの音声データを受け取って、音声
認識(声検出)を行う。このため、音検出器72は、Ar
thurDecoderを備え、音声特徴量と音声辞書及び構文辞
書を使って音声認識を行う。また、音検出器72は、音
声認識だけでなく、その音の方向、すなわち音源方向を
検出する。音源方向の検出は、マイクがステレオである
場合に得られる図16のようなRigt micからの出力レベ
ルRと、Left micからの出力レベルLとの時間差から水
平方向の音源方向推定を行うことにより可能である。こ
こで検出された音検出信号は短期記憶部75及び後述す
る首部動作生成部77に送られる。
There is a method of calculating the reliability of color recognition, when a plurality of identical color detection areas, for example, a skin color area is detected, it is divided by the number. Therefore, cm = 1 / (the same color area included in the image). Next, the sound detector 72 receives voice data from a voice input device such as a microphone and performs voice recognition (voice detection). Therefore, the sound detector 72 is
It is equipped with thurDecoder and performs voice recognition using voice features, voice dictionary and syntax dictionary. The sound detector 72 detects not only the voice recognition but also the direction of the sound, that is, the sound source direction. The sound source direction is detected by estimating the sound source direction in the horizontal direction from the time difference between the output level R from the Rigt mic and the output level L from the Left mic as shown in FIG. 16 obtained when the microphone is stereo. It is possible. The sound detection signal detected here is sent to the short-term storage unit 75 and a neck motion generation unit 77 described later.

【0093】この音源方向の検出アルゴリズムは一般的
な方法である。以下に音検出アルゴリズムの具体例を説
明する。図17において音源Ssからの音速をv[m/s]、
左右のマイクロホンにおける時間差をt[s]とすると、左
右の音の経路差uは、tv[m]となる。そこで、φ=θと近
似し、首部中心oからマイクまでの距離をa[m]とする
と、cosθ=a/(tv)となり、θ=cos−1(a/(tv))となる。
This sound source direction detection algorithm is a general method. A specific example of the sound detection algorithm will be described below. In FIG. 17, the sound velocity from the sound source Ss is v [m / s],
When the time difference between the left and right microphones is t [s], the path difference u between the left and right sounds is tv [m]. Therefore, if it is approximated by φ = θ and the distance from the neck center o to the microphone is a [m], cos θ = a / (tv) and θ = cos −1 (a / (tv)).

【0094】よって、音声認識の結果(word)と音源方
向(θ)とを合わせた声の検出結果は、SoundRecogResu
lt(frameNumber,word,θ,c.m.)となる。ここでのc.m.
は、声認識の信頼度を示すものである。詳細については
後述する。
Therefore, the voice detection result obtained by combining the voice recognition result (word) and the sound source direction (θ) is SoundRecogResu.
It becomes lt (frameNumber, word, θ, cm). Cm here
Indicates the reliability of voice recognition. Details will be described later.

【0095】したがって、前記図7の状況で、50フレ
ーム目の音検出結果は、 SoundRecogResult(50,“OHAYO”,30度,0.9) となる。
Therefore, in the situation of FIG. 7, the sound detection result of the 50th frame is SoundRecogResult (50, "OHAYO", 30 degrees, 0.9).

【0096】声認識の信頼度c.m.は、以下のようにして
得られる。すなわち、サンプリング(ここでは、50フレ
ーム(1フレーム5msec)分の周波数領域(10kHz-7kHz)の
平均パワーとそれまでの最大値max値に応じて算出す
る。80%以上なら、0.8に応じて算出する。
The voice recognition reliability cm is obtained as follows. That is, it is calculated according to the average power of the sampling (here, 50 frames (1 frame 5msec) frequency domain (10kHz-7kHz) and the maximum value max value up to that point. If it is 80% or more, it is calculated according to 0.8. To do.

【0097】すなわち、Pcurrent=Σp
frame/50とし、もし平均パワーPcur rent
それまでのパワーの最大値Pmaの80%以上なら前記信頼
度c.m.は0.8となる。また、平均パワーPcurrent
&&Pcurrenが最大値Pmaの50%以上であり、かつ
最大値Pmaの80%より小さいなら前記信頼度c.m.は0.5
となる。さらにまた、Pcurrent&&Pcurren
が最大値Pmaの30%以上であり、かつ最大値Pmaの50%
より小さいなら前記信頼度c.m.は0.3となる。
That is, P current = Σp
frame / 50, and if the average power P cur rent is 80% or more of the maximum value P ma of the power so far, the reliability cm is 0.8. Also, the average power P current
&& P curren is not less than 50% of the maximum value P ma, and the reliability cm if smaller than 80% of the maximum value P ma is 0.5
Becomes Furthermore, P current && P curren
Is a but more than 30% of the maximum value P ma, and 50% of the maximum value P ma
If it is smaller, the reliability cm is 0.3.

【0098】以下に前記信頼度c.m.の決定アルゴリズム
を式にて示す。 If(Pcurrent>=Pmax*0.8) c.m.=0.8 elseIf(Pmax*0.5<=Pcurrent&&Pcurrent<Pmax*0.8) c.m.=0.5 Else if(Pmax*0.3<=Pcurrent&&Pcurren<Pmax*0.5) c.m. = 0.3 となる。
The algorithm for determining the reliability cm is shown below by an equation. If (P current> = P max * 0.8) cm = 0.8 elseIf (P max * 0.5 <= P current && P current <P max * 0.8) cm = 0.5 Else if (P max * 0.3 <= P current && P curren <Pmax * 0.5) cm = 0.3.

【0099】次に、短期記憶部75は、前述したように
ロボット装置1の外部環境に関する情報、すなわち、音
検出部72から音(声)検出結果、色検出部71から色
検出結果、また顔検出部73から顔検出結果、さらには
関節角度検出部74から関節角度のセンサ出力を受け取
る。そして、これらの複数の検出結果を時間的及び空間
的に整合性を保つように統合して、意味を持った統合情
報として扱い、比較的短い時間、例えば15秒間保持す
る。
Next, the short-term storage unit 75 stores the information about the external environment of the robot apparatus 1, that is, the sound (voice) detection result from the sound detection unit 72, the color detection result from the color detection unit 71, and the face as described above. The face detection result is received from the detection unit 73, and the joint angle sensor output is received from the joint angle detection unit 74. Then, these plural detection results are integrated so as to maintain consistency in terms of time and space, treated as meaningful integrated information, and held for a relatively short time, for example, 15 seconds.

【0100】短期記憶部75にて保持する短期記憶情報
は、 ShortTermMemory(targetID,sensorType,id,data,更新し
たframeNumber,c.m.) という情報の配列になる。ここで、sensorTypeは、顔認
識結果、色検出結果、声検出結果を表す。
The short-term memory information stored in the short-term memory unit 75 is an array of information called ShortTermMemory (targetID, sensorType, id, data, updated frameNumber, cm). Here, sensorType represents a face recognition result, a color detection result, and a voice detection result.

【0101】図18には、短期記憶部75が動作する様
子を模式的に示している。同図に示す例では、顔の認識
結果(FACE)と音声認識、及び、その音源方向の認
識結果(VOICE)が別々のタイミングで処理され
て、短期記憶部75に通知されたときの動作を表してい
る(但し、ロボット装置1の機体を原点とする極座標系
で描かれている)。この場合、各認識結果faceとvo
iceは時間的にも空間的に近い(オーバーラップしてい
る)ことから、顔の属性と音声の属性を持った1つの物
体であると判断して、検出器の情報を統合して、現在認
識している物体をメモリに記憶として保持する。
FIG. 18 schematically shows how the short-term storage section 75 operates. In the example shown in the figure, the operation when the face recognition result (FACE) and the voice recognition, and the sound source direction recognition result (VOICE) are processed at different timings and notified to the short-term storage unit 75, It is shown (however, it is drawn in a polar coordinate system whose origin is the machine body of the robot apparatus 1). In this case, each recognition result face and vo
Since ice is temporally spatially close (overlapping), it is determined that it is one object having face attributes and voice attributes, and the information from the detectors is integrated. The recognized object is stored in the memory as a memory.

【0102】短期記憶部75内には、外部環境からター
ゲットを検出するターゲット検出器が設けられている。
このターゲット検出器は、顔の認識結果や音声認識結
果、色認識結果などの各検出器71,72及び73によ
る検出(認識)結果を基に、新規ターゲットを追加した
り、既存のターゲットを認識結果に反映するように更新
したりする。検出されたターゲットは、図示しないター
ゲット・メモリ内に保持される。
A target detector for detecting a target from the external environment is provided in the short-term storage unit 75.
This target detector adds a new target or recognizes an existing target based on the detection (recognition) results of the detectors 71, 72 and 73 such as the face recognition result, the voice recognition result, and the color recognition result. Update to reflect the results. The detected target is held in a target memory (not shown).

【0103】また、ターゲット・メモリには、もはや観
測されなくなったターゲットを探して消去するガーベッ
ジ・コレクタ(GarbageCollector)
や、複数のターゲットの関連性を判別して同じターゲッ
トに結び付けるターゲット・アソシエート(Targe
tAssociate)などの機能がある。ガーベッジ
・コレクタは、時間の経過に従ってターゲットの確信度
をデクリメントしていき、確信度が所定値を下回ったタ
ーゲットを削除(delete)することで実現され
る。また、ターゲット・アソシエートは、同じ属性(認
識タイプ)の特徴量が近いターゲット間で空間的・時間
的な近さをもつことで、同じターゲットを同定すること
ができる。
Further, in the target memory, a garbage collector that searches for a target that is no longer observed and erases it
Or a target associate (Target) that determines the relationship between multiple targets and associates them with the same target.
There are functions such as tAssociate). The garbage collector is realized by decrementing the certainty factor of the target over time and deleting the target whose certainty factor is below a predetermined value. In addition, the target associate can identify the same target by having spatial and temporal closeness between the targets whose feature values of the same attribute (recognition type) are close to each other.

【0104】次に、前記図6に示したように、Aさんの
顔85の近くに肌色のボール87があるとき、ロボット
装置1がCCDセンサーよりなるPSDセンサ80にて
得た情報に基づいてAさんの顔85にトラッキングをし
ようという実施例における、短期記憶部75の一連の処
理の具体例について図19〜図23を用いて説明する。
Next, as shown in FIG. 6, when the skin-colored ball 87 is near the face 85 of Mr. A, the robot apparatus 1 is based on the information obtained by the PSD sensor 80 which is a CCD sensor. A specific example of a series of processes of the short-term storage unit 75 in the embodiment for tracking the face 85 of Mr. A will be described with reference to FIGS.

【0105】この場合、図7に示した状況設定に基づけ
ば、29フレーム目までは図19に示すように色検出器
71による色検出のみである。そして、色検出器71か
ら送信されてきた色検出結果信号ColorSegmentResult(2
9,1,x2,y2,sizex2,sizey2,0.8)を前記ターゲット検出器
が検出する。ここで、短期記憶部75は、肌色のボール
87を肌色物体として検出した肌色領域(id=1)をtarg
etID=0の短期記憶情報ShortTermMemoryとし、 ShortTermMemory(0,“COLOR”,1,“SKIN_COLOR”,20,0.
8) として前記ターゲットメモリに記憶する。前述したよう
に、ShortTermMemoryは(targetID,sensorType,id,data,
更新したframeNumber,c.m.)という配列であるので、2
9フレーム目までに記憶される短期記憶情報は、target
IDが0の、色検出結果“COLOR”の、id=1の、肌色領域
“SKIN_COLOR”の、更新したframeNumberが20の、認識
信頼度0.8の情報である。
In this case, based on the situation setting shown in FIG. 7, only the color detection by the color detector 71 is performed up to the 29th frame as shown in FIG. Then, the color detection result signal ColorSegmentResult (2
9,1, x2, y2, sizex2, sizey2,0.8) is detected by the target detector. Here, the short-term storage unit 75 targ the skin color area (id = 1) in which the skin color ball 87 is detected as a skin color object.
Let shortTermMemory (0, “COLOR”, 1, “SKIN_COLOR”, 20,0.
8) is stored in the target memory as. As mentioned above, ShortTermMemory is (targetID, sensorType, id, data,
Since it is an array of updated frameNumber, cm), 2
The short-term memory information stored by the 9th frame is target
This is information with an ID of 0, a color detection result of “COLOR”, an id of 1, a skin color region of “SKIN_COLOR”, an updated frameNumber of 20, and a recognition reliability of 0.8.

【0106】また、この29フレーム目までに短期記憶
部75は、Aさんの顔85についても、肌色物体として
検出した肌色領域(id=2)をtargetID=1の短期記憶情報
ShortTermMemoryとし、 ShortTermMemory(1,“COLOR”,2,“SKIN_COLOR”,20,0.
8) として前記ターゲットメモリに記憶する。
By the 29th frame, the short-term storage unit 75 also sets the skin-color area (id = 2) detected as a skin-colored object for Mr. A's face 85 as short-term memory information of targetID = 1.
ShortTermMemory as ShortTermMemory (1, “COLOR”, 2, “SKIN_COLOR”, 20,0.
8) is stored in the target memory as.

【0107】次に、30フレーム目になると、短期記憶
部75は、色検出器71の色検出結果から短期記憶情報
を、 ShortTermMemory(0,“COLOR”,1,“SKIN_COLOR”,30,0.
8) ShortTermMemory(1,“COLOR”,2,“SKIN_COLOR”,30,0.
8) として前記ターゲットメモリに記憶する。
Next, in the 30th frame, the short-term storage section 75 stores the short-term storage information from the color detection result of the color detector 71 as ShortTermMemory (0, "COLOR", 1, "SKIN_COLOR", 30, 0.
8) ShortTermMemory (1, “COLOR”, 2, “SKIN_COLOR”, 30,0.
8) is stored in the target memory as.

【0108】この30フレーム目において顔検出器73
は顔検出を行う。例えば、図20に示すように、顔検出
結果FaceRecogResult(30,human-A,x1,y1,sizex1,sizey
1,0.3)が、targetID=1の肌色領域にオーバーラップす
る方向に検出されると、短期記憶部75は、 ShortTermMemory(1,“FACE”,A-san,“”,30,0.3) を、targetID=1に統合する。
In the 30th frame, the face detector 73
Performs face detection. For example, as shown in FIG. 20, face detection result FaceRecogResult (30, human-A, x1, y1, sizex1, sizey
1,0.3) is detected in the direction in which it overlaps with the skin color area of targetID = 1, the short-term memory unit 75 stores ShortTermMemory (1, “FACE”, A-san, “”, 30,0.3) Integrate with targetID = 1.

【0109】そして、図21に示すように50フレーム
目までにおいて短期記憶部75は、 ShortTermMemory(0,“COLOR”,1,“SKIN_COLOR”,30,0.
8) ShortTermMemory(1,“COLOR”,2,“SKIN_COLOR”,30,0.
8) ShortTermMemory(1,“FACE”,A-san,“”,30,0.3) をターゲットメモリ部に記憶する。
Then, as shown in FIG. 21, up to the 50th frame, the short-term storage section 75 stores the ShortTermMemory (0, "COLOR", 1, "SKIN_COLOR", 30, 0.
8) ShortTermMemory (1, “COLOR”, 2, “SKIN_COLOR”, 30,0.
8) Store ShortTermMemory (1, “FACE”, A-san, “”, 30,0.3) in the target memory section.

【0110】次に、50フレーム目になると図22に示
すように音検出器72が音声をθ=30度の方向から肌色
物体の肌色領域とオーバーラップする領域を大として検
出し、音声検出結果、 SoundRecogResult(50,“OHAYO”,30度,0.9) を短期記憶部75に送信する。
Next, at the 50th frame, as shown in FIG. 22, the sound detector 72 detects the sound as a large area overlapping with the skin color area of the skin color object from the direction of θ = 30 degrees, and the sound detection result is obtained. , SoundRecogResult (50, “OHAYO”, 30 degrees, 0.9) is transmitted to the short-term storage unit 75.

【0111】短期記憶部75は、ターゲット検出器にて
前記音声検出結果を検出し、図23に示す51フレーム
目において、短期記憶情報、 ShortTermMemory(1,“SOUND”,1,“OHAYO”,50,0.9) を、targetID=1に統合する。
The short-term memory unit 75 detects the voice detection result by the target detector, and in the 51st frame shown in FIG. 23, the short-term memory information, ShortTermMemory (1, "SOUND", 1, "OHAYO", 50. , 0.9) into targetID = 1.

【0112】この時点で、短期記憶部75は、 ShortTermMemory(0,“COLOR”,1,“SKIN_COLOR”,50,0.
8) ShortTermMemory(1,“COLOR”,2,“SKIN_COLOR”,50,0.
8) ShortTermMemory(1,“FACE”,A-san,“”,30,0.3) ShortTermMemory(1,“SOUND”,1,“OHAYO”,50,0.9) をターゲットメモリ部に記憶する。
At this time, the short-term storage unit 75 stores the ShortTermMemory (0, "COLOR", 1, "SKIN_COLOR", 50, 0.
8) ShortTermMemory (1, “COLOR”, 2, “SKIN_COLOR”, 50,0.
8) ShortTermMemory (1, “FACE”, A-san, “”, 30,0.3) Stores ShortTermMemory (1, “SOUND”, 1, “OHAYO”, 50,0.9) in the target memory.

【0113】このように、短期記憶部75は、画像情報
については、そのセンシングされた時間と画像上の位置
から、そのときの首の角度情報から首中心座標における
位置を算出し、その方向情報を得る。また、音声情報に
ついても、そのセンシングされた時間と音のした角度情
報から首中心座標系における位置を算出する。
As described above, the short-term storage unit 75 calculates the position in the center coordinates of the neck from the angle information of the neck at that time from the sensed time and the position on the image for the image information, and the direction information thereof. To get Also, for the voice information, the position in the neck center coordinate system is calculated from the sensed time and the angle information of the sound.

【0114】そののち、これらの情報が既存の情報のま
とまり(targetID)にマッピングされるか否かを検出
し、マッピングできない場合には、新しいtargetIDを作
成する。
After that, it is detected whether or not these pieces of information are mapped to a group (targetID) of existing information, and if they cannot be mapped, a new targetID is created.

【0115】ところで、前記図5に示した注視行動制御
部70において動作命令部76は、短期記憶部75のク
ライアントであり、ターゲット・メモリからは各ターゲ
ットに関する情報の通知(Notify)を受け取る。
そして、動作命令部76は、以下に示すようにしてtarg
etIDを探索し、コマンドを首部動作生成部77に送る。
By the way, in the gaze behavior control unit 70 shown in FIG. 5, the operation command unit 76 is a client of the short-term storage unit 75, and receives notification (Notify) of information about each target from the target memory.
The operation command unit 76 then targ as shown below.
The etID is searched, and the command is sent to the neck motion generation unit 77.

【0116】動作命令部76は全ての短期記憶情報Shor
tTermMemory()のtargetIDについて、sensorTypeが“FAC
E”でかつidが“A-san”を、 IF(sensorType==“FACE”&& id==“A-san”) の条件で探索する。上記条件にマッチした探索結果が得
られたら、コマンドを送信する。一度コマンドを送信し
たら、targetIDが短期記憶情報からなくなるまで待つ。
The operation command unit 76 stores all the short-term memory information Short.
For targetID of tTermMemory (), sensorType is “FAC
Search for “E” and id “A-san” under the condition of IF (sensorType == “FACE” && id == “A-san”). If a search result that matches the above conditions is obtained, command After sending the command, wait until the targetID is no longer in the short-term memory information.

【0117】すなわち、図24に処理手順を示すよう
に、動作命令部76はトラッキングコマンドを送信済み
である(ステップS1にてYes)と、ステップS2に
進み、トラッキングコマンドの基になったtargetIDが最
新の短期記憶情報に存在するか否かをチェックし、もし
存在するのであればステップS1からの処理を繰り返
す。ここで、最新の短期記憶情報に前記targetIDが存在
しないのであればステップS3に進んでトラッキング停
止のアクションコマンドを首部動作生成部77に送信す
る。もし、ステップS1にてトラッキングコマンドを送
信済みでないと判定するとステップS4に進み、短期記
憶情報の中に上述したようにsensorTypeが“FACE”でか
つidが“A-san”のtargetIDがあるか否かをチェックす
る。ここで、そのようなtargetIDが無いのであれば(N
O)ステップS5に進んで新しいtargetIDを短期記憶部
75に格納し、アクションコマンドを送信する。一方、
ステップS4にて短期記憶情報の中に上述したようなse
nsorTypeが有る(YES)のであればステップS1に戻
る。
That is, as shown in the processing procedure in FIG. 24, if the operation command section 76 has already transmitted the tracking command (Yes in step S1), the process proceeds to step S2, and the targetID on which the tracking command is based is determined. It is checked whether or not it exists in the latest short-term memory information, and if it exists, the processing from step S1 is repeated. Here, if the targetID does not exist in the latest short-term storage information, the process proceeds to step S3, and an action command to stop tracking is transmitted to the neck motion generation unit 77. If it is determined in step S1 that the tracking command has not been transmitted, the process proceeds to step S4, and there is a targetID in which the sensorType is "FACE" and the id is "A-san" in the short-term memory information as described above. I will check. Here, if there is no such targetID (N
O) Proceed to step S5, store a new targetID in the short-term storage unit 75, and send an action command. on the other hand,
In step S4, the above-mentioned se is included in the short-term memory information.
If nsorType is present (YES), the process returns to step S1.

【0118】ここで、動作命令部76から首部動作生成
部77に送信される動作命令信号(コマンド)は、Acti
onCommand(COMMAND,targetID)となる。この具体例で
は、短期記憶部75からframeNumber=30のデータを受信
したときにActionCommand(“Tracking”,1)を送信す
る。
Here, the motion command signal (command) transmitted from the motion command unit 76 to the neck motion generator 77 is Acti
It is onCommand (COMMAND, targetID). In this specific example, ActionCommand (“Tracking”, 1) is transmitted when the data of frameNumber = 30 is received from the short-term storage unit 75.

【0119】次に、動作命令部76から前記動作命令信
号を受信し、注視行動(トラッキング)を行う首動作生
成部77の詳細な構成及び動作について図25を参照し
ながら説明する。首部動作生成部77は、動作命令解釈
器771と、目標対象物情報選択器772と、目標情報
受信器773と、目標位置検出器774と、目標関節角
度生成器775からなる。
Next, the detailed configuration and operation of the neck motion generating unit 77 that receives the motion command signal from the motion command unit 76 and performs a gaze motion (tracking) will be described with reference to FIG. The neck motion generator 77 includes a motion command interpreter 771, a target object information selector 772, a target information receiver 773, a target position detector 774, and a target joint angle generator 775.

【0120】動作命令解釈器771は、動作命令生成部
76から送られてくる前記動作命令信号を受信する。目
標対象物情報選択器772は、動作命令信号に付随して
受信する動作対象物情報をためておく。目標情報受信器
773は、目標対象物情報選択器772からトラッキン
グ動作用センサ情報信号を受信し、目標情報を取得す
る。目標位置検出器774は、目標情機受信器773か
ら目標情報信号を受信し、さらに関節角度検出部74か
ら関節角度信号を受信する。目標関節角度生成器775
は、目標位置検出器774から目標位置信号を受信す
る。
The operation command interpreter 771 receives the operation command signal sent from the operation command generator 76. The target object information selector 772 stores the operation object information received along with the operation command signal. The target information receiver 773 receives the tracking operation sensor information signal from the target object information selector 772 and acquires the target information. The target position detector 774 receives the target information signal from the target information receiver 773 and further receives the joint angle signal from the joint angle detection unit 74. Target joint angle generator 775
Receives a target position signal from the target position detector 774.

【0121】以下に、首部動作生成部77の動作の詳細
について図26〜図29を用いて説明する。動作命令解
釈器771は、コマンドが首関節の向きを指定するもの
なのか、それともある目標IDを追従するためのコマンド
なのかを判断する。ここでいう目標IDは、短期記憶のta
rgetIDに一致する。ここで、首関節の向きを指定するも
のの場合には、図26のように直接目標関節角度生成器
775に送信される。
The details of the operation of the neck motion generator 77 will be described below with reference to FIGS. 26 to 29. The motion command interpreter 771 determines whether the command specifies the direction of the neck joint or a command for following a certain target ID. The target ID here is the short-term memory ta
Matches rgetID. Here, in the case of designating the direction of the neck joint, it is directly transmitted to the target joint angle generator 775 as shown in FIG.

【0122】目標対象物選択器772は、図27に示す
ように、短期記憶部75で生成されるtargetIDとセンサ
情報が関連付けられた情報、つまり図示するような、 ShortTermMemory(0,“COLOR”,1,“SKIN_COLOR”,30,0.
8) ShortTermMemory(1,“COLOR”,2,“SKIN_COLOR”,30,0.
8) ShortTermMemory(1,“FACE”,A-san,“”,30,0.3) を受信し、データベースに保持しており、動作命令解釈
器771から送信された信号(targetID=1)に基づいてt
argetIDに関する最新の情報を保持する。また、保持し
ているtargetIDに関する情報が短期記憶部75から更新
された場合にも動作し、トラッキング動作用センサ情報
信号(useTrackingInfo=color)を目標情報受信器77
3に送信する。
As shown in FIG. 27, the target object selector 772 allows the target ID generated in the short-term storage unit 75 to be associated with the sensor information, that is, as shown in the figure, ShortTermMemory (0, "COLOR", 1, “SKIN_COLOR”, 30,0.
8) ShortTermMemory (1, “COLOR”, 2, “SKIN_COLOR”, 30,0.
8) ShortTermMemory (1, “FACE”, A-san, “”, 30,0.3) is received and stored in the database, based on the signal (targetID = 1) sent from the motion command interpreter 771. t
Holds the latest information about argetID. Also, it operates even when the information about the held targetID is updated from the short-term storage unit 75, and outputs the tracking operation sensor information signal (useTrackingInfo = color) to the target information receiver 77.
Send to 3.

【0123】目標情報受信器773は、図28に示すよ
うに、目標対象物情報選択器772からのトラッキング
動作用センサ情報信号(useTrackingInfo=color)によ
って、決定されたセンサ情報を用いて、音もしくは、色
信号の情報からトラッキング動作に使用するセンサ情報
を選択する。
As shown in FIG. 28, the target information receiver 773 uses the sensor information determined by the tracking operation sensor information signal (useTrackingInfo = color) from the target object information selector 772 to generate a sound or , Sensor information used for tracking operation is selected from the color signal information.

【0124】目標位置検出器774は、図29に示すよ
うに、センサ情報に付随するframeNumberから、そのと
きの関節角度を算出し、目標関節角度生成器775に渡
す。目標関節角度生成器775は、目標情報受信器77
3からのセンサ情報と目標位置検出器774からの関節
角度から目標の関節角度を生成して動作命令実行部80
に送信する。
As shown in FIG. 29, the target position detector 774 calculates the joint angle at that time from the frameNumber attached to the sensor information, and sends it to the target joint angle generator 775. The target joint angle generator 775 is used by the target information receiver 77.
The motion command execution unit 80 generates a target joint angle from the sensor information from the target position detector 3 and the joint angle from the target position detector 774.
Send to.

【0125】動作命令実行部80では、首部動作生成部
77の目標関節角度生成器775にて生成された目標関
節角度信号に従い、ロボットのアクチュエータを制御
し、ロボット装置1をトラッキング動作させる。
The motion command execution unit 80 controls the actuator of the robot according to the target joint angle signal generated by the target joint angle generator 775 of the neck motion generation unit 77, and causes the robot apparatus 1 to perform the tracking operation.

【0126】このように、動作命令生成部76が短期記
憶部75で付けられたtargetIDを前記動作命令信号Acti
onCommandに、(COMMAND,targetID)のように付けるだけ
で、目標対象物情報選択器772がセンサの状況に応じ
た最適なトラッキングに使用するセンサ情報を選択し、
そして目標情報受信器773がトラッキング動作用セン
サ情報信号によってトラッキング動作に使用するセンサ
情報を受信し、目標関節角度生成器775に送る。目標
関節角度生成器775は、前記センサ情報に付随するfr
ameNumberから算出された関節角度も供給されており、
この関節角度と前記センサ情報とから目標の関節角度を
生成して動作命令実行部80に送信する。
As described above, the operation command generator 76 uses the targetID attached in the short-term memory 75 as the operation command signal Acti.
By simply adding (COMMAND, targetID) to onCommand, the target object information selector 772 selects sensor information to be used for optimal tracking according to the sensor status,
Then, the target information receiver 773 receives the sensor information used for the tracking operation by the tracking operation sensor information signal and sends it to the target joint angle generator 775. The target joint angle generator 775 uses fr associated with the sensor information.
The joint angle calculated from ameNumber is also supplied,
A target joint angle is generated from this joint angle and the sensor information, and is transmitted to the operation command execution unit 80.

【0127】注視行動制御システム70にあって、動作
命令生成部76は、何に対してトラッキングするのかを
指定するだけで、首動作生成部77はトラッキングを行
うことができる。
In the gaze behavior control system 70, the motion command generator 76 only needs to specify what to track, and the neck motion generator 77 can perform tracking.

【0128】[0128]

【発明の効果】本発明に係るロボット装置は、統合情報
生成記憶手段が複数の認識手段によって認識された各属
性情報を受け取り、対象物毎に時間的及び空間的に整合
性を保つように統合し、識別番号を付して記憶し、動作
命令生成手段が前記統合情報生成記憶手段に記憶されて
いる前記対象物の統合情報から、注視の対象となる所定
動作生成手段が対象物の統合情報を探索して対象物の識
別番号に基づいた動作命令を生成し、動作生成手段が前
記動作命令生成手段から前記対象物の識別番号に基づい
た動作命令を受け取ると、前記対象物の識別番号が付さ
れた統合情報を前記統合情報生成記憶手段から受信し
て、注視行動に使用する属性情報を選択して注視行動の
ための制御信号を生成するので、動作命令生成部(上位
モジュール)では、何に対して注視するのかを指定する
だけでトラッキングが可能となる。
In the robot apparatus according to the present invention, the integrated information generation / storage means receives each piece of attribute information recognized by the plurality of recognition means, and integrates the objects so as to maintain consistency in terms of time and space. Then, from the integrated information of the object stored in the integrated information generation / storage means by the operation command generation means, the predetermined operation generation means to be watched is integrated information of the object. To generate an operation command based on the identification number of the object, and the operation generation unit receives the operation command based on the identification number of the object from the operation command generation unit, the identification number of the object is Since the attached integrated information is received from the integrated information generating and storing means and the attribute information used for the gaze action is selected to generate the control signal for the gaze action, the operation command generation unit (upper module), Only need to specify whether to gaze allows tracking respect.

【0129】本発明に係るロボット装置の制御方法は、
統合情報生成記憶工程が複数の認識手段によって認識さ
れた各属性情報を受け取り、対象物毎に時間的及び空間
的に整合性を保つように統合し、識別番号を付して記憶
し、動作命令生成工程が前記統合情報生成記憶工程に記
憶されている前記対象物の統合情報から、注視の対象と
なる所定動作生成工程が対象物の統合情報を探索して対
象物の識別番号に基づいた動作命令を生成し、動作生成
工程が前記動作命令生成工程から前記対象物の識別番号
に基づいた動作命令を受け取ると、前記対象物の識別番
号が付された統合情報を前記統合情報生成記憶工程から
受信して、注視行動に使用する属性情報を選択して注視
行動のための制御信号を生成するので、ロボット装置の
動作命令生成部(上位モジュール)では、何に対して注
視するのかを指定するだけでトラッキングが可能とな
る。
The control method of the robot apparatus according to the present invention is as follows.
The integrated information generating / storing process receives each attribute information recognized by the plurality of recognizing means, integrates it so as to maintain temporal and spatial consistency for each object, stores it with an identification number, and stores it. From the integrated information of the object stored in the integrated information creating / storing step, a predetermined motion that is a gaze target The creating process searches for integrated information of the object and operates based on the identification number of the object. When a command is generated and the motion generation step receives a motion command based on the identification number of the object from the motion command generation step, integrated information with the identification number of the object is added from the integrated information generation / storage step. Since it receives and selects the attribute information to be used for the gaze action and generates the control signal for the gaze action, the motion command generation unit (upper module) of the robot device specifies what to gaze at. Only it becomes possible tracking that.

【図面の簡単な説明】[Brief description of drawings]

【図1】ロボット装置の外観斜視図である。FIG. 1 is an external perspective view of a robot device.

【図2】ロボット装置の関節自由度を示す模式図であ
る。
FIG. 2 is a schematic diagram showing joint degrees of freedom of a robot apparatus.

【図3】ロボット装置の制御システム構成を模式的に示
す図である。
FIG. 3 is a diagram schematically showing a control system configuration of a robot apparatus.

【図4】ロボット装置の行動制御システムの基本アーキ
テクチャを示す図である。
FIG. 4 is a diagram showing a basic architecture of a behavior control system of a robot device.

【図5】注視行動制御システムを構成する各モジュール
を示す図である。
FIG. 5 is a diagram showing each module that constitutes the gaze behavior control system.

【図6】ロボット装置がAさんの顔にトラッキングする
という実施例を示す図である。
FIG. 6 is a diagram showing an example in which the robot apparatus tracks on Mr. A's face.

【図7】ロボット装置がAさんの顔にトラッキングする
という実施例の状況設定を説明するための図である。
FIG. 7 is a diagram for explaining the situation setting of an embodiment in which the robot device tracks on Mr. A's face.

【図8】顔検出器の検出アルゴリズムを説明するための
図である。
FIG. 8 is a diagram for explaining a detection algorithm of a face detector.

【図9】色空間を示す図である。FIG. 9 is a diagram showing a color space.

【図10】平面における色領域を示す図である。FIG. 10 is a diagram showing a color region on a plane.

【図11】色照合画像(0)を示す図である。FIG. 11 is a diagram showing a color matching image (0).

【図12】色照合画像(1)を示す図である。FIG. 12 is a diagram showing a color matching image (1).

【図13】色照合画像(2)を示す図である。FIG. 13 is a diagram showing a color matching image (2).

【図14】新しく検出した色検出領域newとOld(id=10)
の色検出領域とのオーバーラップOverlap領域を示す図
である。
[Figure 14] Newly detected color detection area new and Old (id = 10)
It is a figure which shows the overlap Overlap area | region with the color detection area of.

【図15】10フレーム毎の画像における二つの色検出
領域を示す図である。
FIG. 15 is a diagram showing two color detection areas in an image every 10 frames.

【図16】音源方向の検出について説明するための図で
ある。
FIG. 16 is a diagram for explaining detection of a sound source direction.

【図17】音源方向の検出について説明するための図で
ある。
FIG. 17 is a diagram for explaining detection of a sound source direction.

【図18】短期記憶部が動作する様子を模式的に示す図
である。
FIG. 18 is a diagram schematically showing how the short-term storage unit operates.

【図19】前記図7に示した状況設定における、短期記
憶部が動作する29フレーム目までを示す図である。
FIG. 19 is a diagram showing up to the 29th frame in which the short-term storage section operates in the situation setting shown in FIG. 7;

【図20】前記図7に示した状況設定における、短期記
憶部が動作する30フレーム目を示す図である。
20 is a diagram showing a 30th frame in which the short-term storage section operates in the situation setting shown in FIG.

【図21】前記図7に示した状況設定における、短期記
憶部が動作する50フレーム目までを示す図である。
FIG. 21 is a diagram showing up to the 50th frame in which the short-term storage section operates in the situation setting shown in FIG. 7.

【図22】前記図7に示した状況設定における、短期記
憶部が動作する50フレーム目を示す図である。
22 is a diagram showing the 50th frame in which the short-term storage section operates in the situation setting shown in FIG. 7. FIG.

【図23】前記図7に示した状況設定における、短期記
憶部が動作する51フレーム目を示す図である。
23 is a diagram showing the 51st frame in which the short-term storage section operates in the situation setting shown in FIG. 7.

【図24】動作命令部の処理手順を示す図である。FIG. 24 is a diagram showing a processing procedure of an operation command unit.

【図25】首動作生成部の詳細な構成を示す図である。FIG. 25 is a diagram showing a detailed configuration of a neck motion generation unit.

【図26】首動作生成部の動作の詳細を説明するための
図である。
FIG. 26 is a diagram for explaining the details of the operation of the neck operation generation unit.

【図27】首動作生成部の動作の詳細を説明するための
図である。
FIG. 27 is a diagram for explaining the details of the operation of the neck operation generation unit.

【図28】首動作生成部の動作の詳細を説明するための
図である。
FIG. 28 is a diagram for explaining the details of the operation of the neck operation generation unit.

【図29】首動作生成部の動作の詳細を説明するための
図である。
FIG. 29 is a diagram for explaining the details of the operation of the neck operation generation unit.

【符号の説明】[Explanation of symbols]

1 ロボット装置、70 注視行動制御システム、71
色検出器、72 音検出器、73 顔検出器、74
関節角度検出器、75 短期記憶部、76 動作命令
部、77 首動作生成部
1 robot device, 70 gaze behavior control system, 71
Color detector, 72 Sound detector, 73 Face detector, 74
Joint angle detector, 75 short-term memory unit, 76 motion command unit, 77 neck motion generation unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 河本 献太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 森平 智久 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 3C007 AS27 AS32 AS36 CS08 KS01 KS11 KS21 KS31 KS36 KS39 KT01 KT04 LT06 LT08 MT08 WA03 WA13 WB17 WB19    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kenta Kawamoto             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Tomohisa Morihira             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F term (reference) 3C007 AS27 AS32 AS36 CS08 KS01                       KS11 KS21 KS31 KS36 KS39                       KT01 KT04 LT06 LT08 MT08                       WA03 WA13 WB17 WB19

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 外部環境に対する認識結果に基づいて自
律的に対象物を注視する自律型のロボット装置におい
て、 前記外部環境に存在する対象物に関する属性情報を認識
する複数の認識手段と、 前記複数の認識手段によって認識された各属性情報を受
け取り、対象物毎に時間的及び空間的に整合性を保つよ
うに統合し、識別番号を付して記憶する統合情報生成記
憶手段と、 前記統合情報生成記憶手段に記憶されている前記対象物
の統合情報から、注視の対象となる所定の対象物の統合
情報を探索して対象物の識別番号に基づいた動作命令を
生成する動作命令生成手段と、 前記動作命令生成手段から前記対象物の識別番号に基づ
いた動作命令を受け取ると、前記対象物の識別番号が付
された統合情報を前記統合情報生成記憶手段から受信し
て、注視行動に使用する属性情報を選択して注視行動の
ための制御信号を生成する動作生成手段とを備えること
を特徴とするロボット装置。
1. In an autonomous robot apparatus that autonomously gazes at an object based on the recognition result for the external environment, a plurality of recognition means for recognizing attribute information regarding the object existing in the external environment, Integrated information generating and storing means for receiving each attribute information recognized by the recognizing means, integrating so as to maintain consistency temporally and spatially for each object, and storing with an identification number, Motion command generation means for searching the integrated information of the object stored in the generation storage means for integrated information of a predetermined object to be watched and generating an operation command based on the identification number of the object; When an operation command based on the identification number of the object is received from the operation command generation means, integrated information with the identification number of the object is received from the integrated information generation storage means. Robotic device characterized by comprising an operation generating means for generating a control signal for watching action by selecting the attribute information to be used for watching action.
【請求項2】 前記統合情報生成記憶手段は、少なくと
も二つの認識手段からの各認識結果が所定の範囲にてオ
ーバーラップしているときに同一の対象物に関する属性
情報であるとし、同じ識別符号を付した統合情報として
記憶することを特徴とする請求項1記載のロボット装
置。
2. The integrated information generation / storage means is assumed to be attribute information regarding the same object when the recognition results from at least two recognition means overlap in a predetermined range, and the same identification code. The robot device according to claim 1, wherein the robot device is stored as integrated information with a mark.
【請求項3】 前記統合情報生成記憶手段は、前記複数
の認識手段のうちの一の認識手段からの時間的に新たな
認識結果が前回の認識結果と所定の範囲でオーバーラッ
プするときには、同一の対象物が移動したとして同一の
属性情報であると判断することを特徴とする請求項1記
載のロボット装置。
3. The integrated information generating / storing means is the same when a temporally new recognition result from one of the plurality of recognizing means overlaps with a previous recognition result within a predetermined range. 2. The robot apparatus according to claim 1, wherein it is determined that the target objects have the same attribute information as having moved.
【請求項4】 前記統合情報生成記憶手段は、前記複数
の認識手段のうちの一の認識手段からの時間的に新たな
認識結果が前回の認識結果とマッピングしないときには
新たな対象物の属性情報として識別符号を付して記憶す
ることを特徴とする請求項1記載のロボット装置。
4. The attribute information of the new object when the integrated information generation / storage means does not map a temporally new recognition result from one of the plurality of recognition means to a previous recognition result. The robot device according to claim 1, wherein the robot device is stored with an identification code as.
【請求項5】 外部環境に対する認識結果に基づいて自
律的に対象物を注視する自律型のロボット装置の制御方
法において、 前記外部環境に存在する対象物に関する属性情報を認識
する複数の認識手段によって認識された各属性情報を受
け取り、対象物毎に時間的及び空間的に整合性を保つよ
うに統合し、識別番号を付して記憶する統合情報生成記
憶工程と、 前記統合情報生成記憶工程に記憶されている前記対象物
の統合情報から、注視の対象となる所定の対象物の統合
情報を探索して対象物の識別番号に基づいた動作命令を
生成する動作命令生成工程と、 前記動作命令生成工程から前記対象物の識別番号に基づ
いた動作命令を受け取ると、前記対象物の識別番号が付
された統合情報を前記統合情報生成記憶工程から受信し
て、注視行動に使用する属性情報を選択して注視行動の
ための制御信号を生成する動作生成工程とを備えること
を特徴とするロボット装置の制御方法。
5. A control method for an autonomous robot apparatus that autonomously gazes at an object based on the recognition result for the external environment, comprising: a plurality of recognition means for recognizing attribute information about the object existing in the external environment. An integrated information generating and storing step of receiving each recognized attribute information, integrating so as to maintain temporal and spatial consistency for each object, and storing with an identification number, and the integrated information generating and storing step. An operation command generation step of searching for integration information of a predetermined target object to be watched from the stored integrated information of the target object and generating an operation command based on an identification number of the target object; When an operation command based on the identification number of the object is received from the generation step, the integrated information with the identification number of the object is received from the integrated information generation / storage step and used for the gazing action. And a motion generating step of generating control signals for gazing behavior by selecting attribute information to be used.
【請求項6】 前記統合情報生成記憶工程は、少なくと
も二つの認識手段からの各認識結果が所定の範囲にてオ
ーバーラップしているときに同一の対象物に関する属性
情報であるとし、同じ識別符号を付した統合情報として
記憶することを特徴とする請求項5記載のロボット装置
の制御方法。
6. The integrated information generating / storing step, when the recognition results from at least two recognizing means are overlapped in a predetermined range, the attribute information is the same and the same identification code is used. 6. The control method for the robot apparatus according to claim 5, wherein the control information is stored as integrated information with a mark.
【請求項7】 前記統合情報生成記憶工程は、前記複数
の認識手段のうちの一の認識手段からの時間的に新たな
認識結果が前回の認識結果と所定の範囲でオーバーラッ
プするときには、同一の対象物が移動したとして同一の
属性情報であると判断することを特徴とする請求項5記
載のロボット装置の制御方法。
7. The integrated information generating and storing step is the same when a new recognition result temporally from one of the plurality of recognition means overlaps with a previous recognition result within a predetermined range. 6. The method for controlling a robot apparatus according to claim 5, wherein it is determined that the target objects have the same attribute information as having moved.
【請求項8】 前記統合情報生成記憶工程は、前記複数
の認識手段のうちの一の認識手段からの時間的に新たな
認識結果が前回の認識結果とマッピングしないときには
新たな対象物の属性情報として識別符号を付して記憶す
ることを特徴とする請求項5記載のロボット装置の制御
方法。
8. The integrated information generating and storing step includes attribute information of a new object when a temporally new recognition result from one of the plurality of recognizing means does not map to a previous recognition result. 6. The method for controlling a robot apparatus according to claim 5, wherein the identification number is added and stored.
JP2002075144A 2002-03-18 2002-03-18 Robot apparatus and control method thereof Expired - Fee Related JP4281286B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002075144A JP4281286B2 (en) 2002-03-18 2002-03-18 Robot apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002075144A JP4281286B2 (en) 2002-03-18 2002-03-18 Robot apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2003266348A true JP2003266348A (en) 2003-09-24
JP4281286B2 JP4281286B2 (en) 2009-06-17

Family

ID=29204331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002075144A Expired - Fee Related JP4281286B2 (en) 2002-03-18 2002-03-18 Robot apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4281286B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148915A (en) * 2003-11-12 2005-06-09 Noritsu Koki Co Ltd Proper face discrimination method and apparatus for implementing the method
US7680667B2 (en) 2004-12-24 2010-03-16 Kabuhsiki Kaisha Toshiba Interactive robot, speech recognition method and computer program product
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
CN109719702A (en) * 2017-10-31 2019-05-07 株式会社安川电机 The back-off method of robot system, robot controller and robot
WO2019123769A1 (en) * 2017-12-19 2019-06-27 ソニー株式会社 Limb unit and robot
WO2020022122A1 (en) * 2018-07-27 2020-01-30 ソニー株式会社 Information processing device, action determination method, and program
WO2020158641A1 (en) * 2019-01-31 2020-08-06 ソニー株式会社 Robot control device, robot control method, and program
JPWO2019138619A1 (en) * 2018-01-09 2021-01-28 ソニー株式会社 Information processing equipment, information processing methods, and programs
CN116311860A (en) * 2023-03-17 2023-06-23 麦岩智能科技(北京)有限公司 Data processing method, device, electronic equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH0797059A (en) * 1993-09-28 1995-04-11 Toyota Motor Corp Object takeout device
JP2000094374A (en) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd Picking device
JP2001076151A (en) * 1999-09-08 2001-03-23 Denso Corp Method for recognizing recognition object contained in picture information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH0797059A (en) * 1993-09-28 1995-04-11 Toyota Motor Corp Object takeout device
JP2000094374A (en) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd Picking device
JP2001076151A (en) * 1999-09-08 2001-03-23 Denso Corp Method for recognizing recognition object contained in picture information

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148915A (en) * 2003-11-12 2005-06-09 Noritsu Koki Co Ltd Proper face discrimination method and apparatus for implementing the method
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
US7680667B2 (en) 2004-12-24 2010-03-16 Kabuhsiki Kaisha Toshiba Interactive robot, speech recognition method and computer program product
CN109719702A (en) * 2017-10-31 2019-05-07 株式会社安川电机 The back-off method of robot system, robot controller and robot
JP2019081234A (en) * 2017-10-31 2019-05-30 株式会社安川電機 Robot system, robot controller, and method for retracting robot
WO2019123769A1 (en) * 2017-12-19 2019-06-27 ソニー株式会社 Limb unit and robot
EP3739415A4 (en) * 2018-01-09 2021-03-03 Sony Corporation Information processing device, information processing method and program
JPWO2019138619A1 (en) * 2018-01-09 2021-01-28 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7120254B2 (en) 2018-01-09 2022-08-17 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2020022122A1 (en) * 2018-07-27 2020-01-30 ソニー株式会社 Information processing device, action determination method, and program
WO2020158641A1 (en) * 2019-01-31 2020-08-06 ソニー株式会社 Robot control device, robot control method, and program
EP3919146A4 (en) * 2019-01-31 2022-04-06 Sony Group Corporation Robot control device, robot control method, and program
JP7415956B2 (en) 2019-01-31 2024-01-17 ソニーグループ株式会社 Robot control device, robot control method, and program
CN116311860A (en) * 2023-03-17 2023-06-23 麦岩智能科技(北京)有限公司 Data processing method, device, electronic equipment and medium

Also Published As

Publication number Publication date
JP4281286B2 (en) 2009-06-17

Similar Documents

Publication Publication Date Title
KR100898435B1 (en) Robot apparatus and control method thereof
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP3714268B2 (en) Robot device
JP4086024B2 (en) Robot apparatus and behavior control method thereof
JP4239635B2 (en) Robot device, operation control method thereof, and program
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JP3945279B2 (en) Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus
JP2004298977A (en) Action control device, action control method, action control program and mobile robot device
JP3855812B2 (en) Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
JP2004110802A (en) Device, method for identifying environment, program, recording medium and robot device
JP2002301674A (en) Leg type moving robot, its motion teaching method and storage medium
WO2004018159A1 (en) Environment identification device, environment identification method, and robot device
JP2001322079A (en) Leg type mobile robot and its action teaching method
JP2003266345A (en) Path planning device, path planning method, path planning program, and moving robot device
JP4179230B2 (en) Robot apparatus and operation control method thereof
JP2002144260A (en) Leg type moving robot and its control method
JP2003266349A (en) Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP4281286B2 (en) Robot apparatus and control method thereof
JP4449372B2 (en) Robot apparatus and behavior control method thereof
JP2003271958A (en) Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor
JP2004302645A (en) Face registration device, face registration method, recording medium and robot device
JP2003266352A (en) Robot device and control method therefor
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
JP2005271137A (en) Robot device and control method thereof
JP2002205290A (en) Device and method for controlling leg type mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees