JP5145569B2 - Object identification method and apparatus - Google Patents

Object identification method and apparatus Download PDF

Info

Publication number
JP5145569B2
JP5145569B2 JP2007326924A JP2007326924A JP5145569B2 JP 5145569 B2 JP5145569 B2 JP 5145569B2 JP 2007326924 A JP2007326924 A JP 2007326924A JP 2007326924 A JP2007326924 A JP 2007326924A JP 5145569 B2 JP5145569 B2 JP 5145569B2
Authority
JP
Japan
Prior art keywords
article
line
sight
pointing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007326924A
Other languages
Japanese (ja)
Other versions
JP2009151419A (en
Inventor
一彦 篠沢
敬宏 宮下
高明 秋本
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007326924A priority Critical patent/JP5145569B2/en
Publication of JP2009151419A publication Critical patent/JP2009151419A/en
Application granted granted Critical
Publication of JP5145569B2 publication Critical patent/JP5145569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、対象物特定方法および装置に関し、特にたとえばコミュニケーションロボットが人間とコミュニケーションしながら人間が指示した物品または物体(以下、「対象物」という。)を特定してその物品を運搬した移動させたりするために利用される、対象物特定方法および装置ならびにそれを備えるコミュニケーションロボットに関する。   The present invention relates to an object identification method and apparatus, and in particular, for example, an article or an object (hereinafter referred to as an “object”) designated by a person while a communication robot communicates with the person is identified and transported. The present invention relates to a method and apparatus for identifying an object and a communication robot including the same.

特許文献1には、人間が指差す方向に存在する対象物を特定する、対象物特定装置が開示されている。この特許文献1に示す装置によれば、人間が指差す対象物を特定することができる
特開2007−80060号[G06F 3/038 G01C 21/00 G08G 1/0969 G09B 29/00 G09B 29/10]
Patent Document 1 discloses an object specifying device that specifies an object that exists in a direction in which a human points. According to the apparatus shown in Patent Document 1, it is possible to specify an object pointed by a human.
JP 2007-80060 [G06F 3/038 G01C 21/00 G08G 1/0969 G09B 29/00 G09B 29/10]

特許文献1の技術では、指差し方向だけに基づいて対象物を特定するので、たとえば、人間の指差す方向は正確に対象物に向かっているとは限らず、したがって、間違って対象物を特定する可能性がある。   In the technique of Patent Document 1, since the object is specified based only on the pointing direction, for example, the direction in which a human is pointing is not always directed toward the object, and therefore the object is specified incorrectly. there's a possibility that.

それゆえに、この発明の主たる目的は、新規な、対象物特定方法および装置を提供することである。   Therefore, a main object of the present invention is to provide a novel object identification method and apparatus.

この発明の他の目的は、対象物を正確に特定できる、対象物特定方法および装置を提供することである。   Another object of the present invention is to provide an object specifying method and apparatus capable of accurately specifying an object.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を対象物として特定する方法であって、検索対象である物品毎に名称、属性、位置などの必要な情報を検索辞書に登録しておき、(a)繰り返しの時間毎に、指差し方向を示す指差し直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成し、(b)繰り返しの時間毎に、視線方向を示す視線直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成し、そして(c)指差し方向確信度表と視線方向確信度表とを同時に参照して対象物を特定する、対象物特定方法である。 The first invention among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, a method of identifying a target object, each to be retrieved article Register necessary information such as name, attribute, and position in the search dictionary, and (a) the distance between the pointing straight line indicating the pointing direction and each item registered in the search dictionary at each repetition time And create a pointing direction confidence table by finding the article with the shortest distance, and (b) for each repetition time, the line of sight indicating the line of sight and each article registered in the search dictionary. Create a gaze direction confidence table by calculating the distance and finding the item with the shortest distance, and (c) identify the object by simultaneously referring to the pointing direction confidence table and the gaze direction confidence table This is an object identification method.

第2の発明は、第1の発明に従属し、ステップ(a)は、(a1)繰り返しの時間毎に、指先と顔の中心とを通る第1指差し直線との距離が最小の物品を推定するステップ、および(a2)繰り返しの時間毎に、指先と肘とを通る第2指差し直線との距離が最小の物品を推定するステップを含み、ステップ(b)は、(b1)繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2)繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、ステップ(a)では、ステップ(a1)およびステップ(a2)の結果に基づいて指差し方向確信度作成し、ステップ(b)では、ステップ(b1)およびステップ(b2)の結果に基づいて視線方向確信度作成する、対象物特定方法である。 The second invention is dependent on the first invention, and step (a) comprises: (a1) an article having the smallest distance between the fingertip and the first pointing straight line passing through the center of the face for each repetition time. And (a2) estimating an article having a minimum distance between the fingertip and the second pointing straight line passing through the elbow at each repetition time, and step (b) includes (b1) A step of estimating an article having a minimum distance from the first line of sight indicating the eye vector of one eye for each time; and (b2) a second line of sight indicating the line of sight of the other eye at each repeated time. And a step (a) to create a pointing direction confidence table based on the results of step (a1) and step (a2), and in step (b), to create a line-of-sight direction confidence table based on the result of the step (b1) and step (b2), the object JP It is a method.

たとえば、モーションキャプチャによって、第1指差し直線および第2指差し直線を推定し、それらの直線と、人間の近傍の各物品との間の距離を計算することによって各線ごとの各物品に対する「確信度」を評価する。同様に、人間の両目のそれぞれの視線方向直線と各物品との間の距離を計算して、各視線毎の各物品に対する確信度を評価する。   For example, the first and second pointing straight lines are estimated by motion capture, and the distance between these straight lines and each article in the vicinity of the human being is calculated to calculate the “confidence for each article for each line. Evaluate "degree". Similarly, the distance between each gaze direction straight line of each human eye and each article is calculated, and the certainty factor for each article for each gaze is evaluated.

繰り返しの時間毎にこのような確信度を評価し、最も多くの確信度を獲得した物品を対象物として特定する。   Such a certainty factor is evaluated at each repetition time, and an article that has acquired the most certainty factor is specified as an object.

第3の発明は、間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を対象物として特定する装置であって、検索対象である物品毎に名称、属性、位置などの必要な情報を登録する検索辞書、繰り返しの時間毎に、指差し方向を示す指差し直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成する指差し方向確信度表作成手段、繰り返しの時間毎に、視線方向を示す視線直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成する視線方向確信度表作成手段、および指差し方向確信度表と視線方向確信度表とを同時に参照して対象物を特定する手段を備える、対象物特定装置である。 A third invention is, among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, an apparatus for identifying a target object, each to be retrieved article Search dictionary for registering necessary information such as name, attribute, position, etc., and for each repetition time, calculate the distance between the pointing straight line indicating the pointing direction and each article registered in the search dictionary, and the shortest distance A pointing direction confidence table creating means for creating a pointing direction confidence table by obtaining an article having a distance between a line of sight indicating a viewing direction and each article registered in the search dictionary for each repetition time And a gaze direction certainty table creation means for creating a gaze direction certainty table by obtaining an article having the shortest distance, and a target object by simultaneously referring to the pointing direction certainty table and the gaze direction certainty table Comprising means for identifying A elephant-specifying device.

第4の発明は、第3の発明に従った対象物特定装置、および対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボットである。   4th invention is a communication robot provided with the instruction | indication means which instruct | indicates the target object specified with the target object specifying apparatus according to 3rd invention, and the target object specifying apparatus.

第5の発明は、第4の発明に従属し、対象物特定装置で特定した対象物を運ぶ手段をさらに備える、コミュニケーションロボットである。   A fifth invention is a communication robot according to the fourth invention, further comprising means for carrying the object specified by the object specifying device.

この発明によれば、人間の視線方向と指差し方向とを同時に参照して対象物を特定するようにしたので、対象物を正確に特定することができる。   According to the present invention, since the object is specified by simultaneously referring to the human gaze direction and the pointing direction, the object can be specified accurately.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボットシステム10は、コミュニケーションロボット(以下、単に「ロボット」ということがある。)12を含む。このロボット12は、たとえば無線LANなどのネットワーク14にアクセスすることができる。ロボット12は、人間16の指示する対象物を特定し、たとえばその対象物を人間16に持っていくなどの動作を実行する。   Referring to FIG. 1, a communication robot system 10 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 12. The robot 12 can access a network 14 such as a wireless LAN. The robot 12 specifies an object designated by the human 16 and performs an operation such as taking the object to the human 16.

人間16は、その人物が誰であるかを示す無線タグ18を装着しているとともに、図示しないが、モーションキャプチャのためのマーカが付着されている。マーカは、典型的には、人間の頭頂、両肩、両肘、両手の人差し指の先端などに設定されていて、それらのマーカが、人間16の全体とともに、サーバ20に制御されるカメラ22によって撮影される。カメラ22は、実施例では、3つ設けられ、人間16を3方向から撮影し、そのカメラ映像をサーバ20に供給する。   The human 16 is wearing a wireless tag 18 indicating who the person is, and a marker for motion capture is attached, although not shown. The markers are typically set on the top of the human head, both shoulders, both elbows, the tip of the index finger of both hands, etc., and these markers together with the entire human 16 are controlled by the camera 22 controlled by the server 20. Taken. In the embodiment, three cameras 22 are provided, take a picture of the person 16 from three directions, and supply the camera video to the server 20.

サーバ20は無線LANのようなネットワーク14に結合され、上述のようにして入力されるカメラ映像データに基づいて、マーカの動きを検出するモーションキャプチャ処理を実行するとともに、たとえば肌色領域を検出することによって、人間16の顔の位置を特定することができる。   The server 20 is coupled to a network 14 such as a wireless LAN, and executes a motion capture process that detects the movement of the marker based on the camera video data input as described above, and also detects a skin color area, for example. Thus, the position of the face of the human 16 can be specified.

このシステム10では、上述のように、ロボット12が人間16の指示する物品を対象物として特定するものである。対象物となり得る物品の例として、この実施例では、本(書籍)を用いる。本24には、その本がどのような本であるかを示す無線タグ18が付着されている。本24は本棚26に収納される。   In the system 10, as described above, the robot 12 specifies an article designated by the human 16 as an object. In this embodiment, a book (book) is used as an example of an article that can be an object. A radio tag 18 indicating what kind of book the book is attached to the book 24. The book 24 is stored in a bookshelf 26.

ただし、対象物となり得る物品は実施例の書籍だけでなく、もし家庭用のシステムであれば、家庭内のあらゆる物品が考えられる。また、当然、家庭用としてだけではなく、人間と一緒に働く任意の場所(会社、事務所、工場など)での利用が考えられる。   However, the articles that can be the object are not only the books of the embodiment, but any household article can be considered if it is a home system. Naturally, it can be used not only for home use but also in any place (company, office, factory, etc.) that works with people.

そして、このコミュニケーションロボットシステム10が対象とするすべての物品は、サーバ20に付設された物品辞書28に登録される。物品辞書28については後述する。   All articles targeted by the communication robot system 10 are registered in the article dictionary 28 attached to the server 20. The article dictionary 28 will be described later.

なお、図1では、簡単のため、1台のロボット12を示してあるが、2台以上であってよい。また、人間は1人に限定される必要はなく、無線タグ18で識別できるので、複数であってよい。   In FIG. 1, one robot 12 is shown for simplicity, but two or more robots may be used. Further, the number of humans does not have to be limited to one, and can be identified by the wireless tag 18 and may be plural.

また、図1に示す実施例では、このシステム10を設置している空間のワールド座標を用いてロボット12、人間16、物品24などの位置が表現されていて、他方、ロボット12の制御はロボット座標で行なわれるので、詳細は説明しないが、ロボット12は、後述の処理における必要に応じて、ロボット座標とワールド座標との間の座標変換処理を実行するものである。   In the embodiment shown in FIG. 1, the positions of the robot 12, the human 16, the article 24, and the like are expressed using the world coordinates of the space where the system 10 is installed. Since it is performed in coordinates, details will not be described, but the robot 12 performs a coordinate conversion process between the robot coordinates and the world coordinates as necessary in the process described later.

図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。   The hardware configuration of the robot 12 will be described with reference to FIG. FIG. 2 is a front view showing the appearance of the robot 12 of this embodiment. The robot 12 includes a carriage 30, and two wheels 32 and one slave wheel 34 for autonomously moving the robot 12 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 12 can be moved in any direction, front, back, left, and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32. Therefore, the robot 12 can move in the arranged space by autonomous control.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance to the sensor mounting panel 38, that is, the object (human being, obstacle, etc.) around the robot 12.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. Further, the above-described infrared distance sensor 40 is further provided in the upper front upper portion of the body 42 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 12. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 photographs the surroundings of the robot 12 and is distinguished from an eye camera 70 described later. As this omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 40 and the omnidirectional camera 46 are not limited to the portions, and can be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R,56Lの形状は実施例の形状に限らず、人間の手に酷似した形状や機能を持たせるようにしてもよい。   At the tip of each of the forearm 54R and the forearm 54L, a hand 56R and a hand 56L corresponding to a human hand are provided. Although the detailed illustration is omitted, these hands 56R and 56L are configured to be openable and closable so that the robot 12 can grip or hold an object using the hands 56R and 56L. However, the shape of the hands 56R and 56L is not limited to the shape of the embodiment, and may have a shape and a function very similar to a human hand.

また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   Although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L, A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, the robot 12 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 32 to suddenly stop the movement of the robot 12. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 12 to communicate with humans around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball part 68R and the left eyeball part 68L may be collectively referred to as the eyeball part 68. The right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人間16の左右両目のそれぞれの視線方向(ベクトル)を検出する。その視線検出方法は具体的には、2つのカメラを用いるものとして特開2004‐255074号公報に、1つのカメラを用いるものとして特開2006‐172209号公報や特開2006‐285531号公報開示されるが、ここではその詳細は重要ではないので、これらの公開公報を引用するにとどめる。   The eye camera 70 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. In this embodiment, the robot 12 detects the line-of-sight directions (vectors) of the left and right eyes of the human 16 from the video signal from the eye camera 70. Specifically, the line-of-sight detection method is disclosed in Japanese Patent Application Laid-Open No. 2004-255074 as using two cameras, and Japanese Patent Application Laid-Open No. 2006-172209 and Japanese Patent Application Laid-Open No. 2006-285531 as using one camera. However, the details are not important here, so only those publications are cited.

ただし、人間16の視線ベクトルの検出のためには、よく知られているアイマークレコーダなどが利用されてもよい。   However, a well-known eye mark recorder or the like may be used for detecting the line-of-sight vector of the human 16.

また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right), It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。   FIG. 3 is a block diagram showing the electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The memory 84 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the robot 12 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from external computers (such as the central control device 14 and the operation terminal 16), etc. To be recorded. The RAM is used as a work memory or a buffer memory.

さらに、この実施例では、ロボット12は、人間16とのコミュニケーションをとるために発話したり、ジェスチャできるように構成されているが、メモリ84に、このような発話やジェスチャのための発話/ジェスチャ辞書85Aが設定されている。   Further, in this embodiment, the robot 12 is configured to be able to speak and make a gesture for communication with the human 16, but the memory 84 has a speech / gesture for such a speech or gesture. A dictionary 85A is set.

また、メモリ84には検索辞書85Bが設定されているが、この検索辞書85Bは、ロボット12が人間16の指示する物品(実施例では本。)を対象物として特定するために、当該人間の近傍に存在する物品(本)だけを物品辞書28から抜き出して登録する辞書で、人間16の位置の変化に応じて、動的に書き換えられるものである。   In addition, a search dictionary 85B is set in the memory 84, and this search dictionary 85B is used for the robot 12 to identify an article (in the embodiment, a book) designated by the human 16 as an object. A dictionary in which only articles (books) existing in the vicinity are extracted from the article dictionary 28 and registered, and can be dynamically rewritten according to a change in the position of the person 16.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。   The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives control data from the CPU 80, and controls two motors (collectively indicated as “right eyeball motor 92” in FIG. 3) that control the angles of the two axes of the right eyeball portion 68R. Control the rotation angle. Similarly, the motor control board 86 receives control data from the CPU 80, and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) To control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。   Further, the motor control board 86 receives control data from the CPU 80, and controls three motors that control the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively indicated as “head motor 100”). Control the rotation angle. The motor control board 86 receives control data from the CPU 80 and controls the rotation angles of the two motors (collectively indicated as “wheel motor 36” in FIG. 3) that drive the wheels 32.

モータ制御ボード86にはさらにハンドアクチュエータ108が結合され、モータ制御ボード86は、CPU80からの制御データを受け、ハンド56R,56Lの開閉を制御する。   A hand actuator 108 is further coupled to the motor control board 86, and the motor control board 86 receives control data from the CPU 80 and controls the opening and closing of the hands 56R and 56L.

なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is configured by a DSP and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. Further, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 80 is output from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク14を介してサーバ20に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12からサーバ20への信号(コマンド)であったり、ロボット12が行ったコミュニケーションについての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーションが実行される度に、サーバ20に送信されたが、一定時間または一定量の単位でサーバ20に送信されるようにしてもよい。   The CPU 80 is connected to the communication LAN board 102 via the bus 82. The communication LAN board 102 is configured by a DSP, for example, and provides transmission data provided from the CPU 80 to the wireless communication device 104, and the wireless communication device 104 transmits the transmission data to the server 20 via the network 14. In addition, the communication LAN board 102 receives data via the wireless communication device 104 and provides the received data to the CPU 80. For example, the transmission data may be a signal (command) from the robot 12 to the server 20, or operation history information (history data) regarding communication performed by the robot 12. The reason why the history data is transmitted as well as the command is to reduce the capacity of the memory 84 and to reduce power consumption. In this embodiment, the history data is transmitted to the server 20 every time communication is performed. However, the history data may be transmitted to the server 20 in units of a fixed time or a fixed amount.

さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間16に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 106 is connected to the CPU 80 via the bus 82. The wireless tag reader 106 receives a radio wave superimposed with identification information transmitted from the wireless tag 18 (RFID tag) via an antenna (not shown). Then, the RFID tag reader 106 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and supplies the identification information to the CPU 80. According to FIG. 1, the wireless tag 18 is attached to the person 16 in the reception of the company where the robot 12 is disposed or in the living room of a general household, and the wireless tag reader 106 detects the wireless tag 18 within the communicable range. To do. Note that the wireless tag 18 may be an active type or a passive type that is driven according to a radio wave transmitted from the wireless tag reader 106.

次に、図4を参照して物品辞書28を説明する。この図4に示す物品辞書28は、たとえばユーコード(Ucode)のようなIDをそれぞれの物品の1つに割り当て、物品毎にその名称、属性、位置(座標)などの必要な情報を文字列として登録している。なお、ユーコードは、具体的には、128ビットの数字からなり、340兆の1兆倍のさらに1兆倍の数の物品を個別に識別できるものである。ただし、この物品辞書28に使うIDは必ずしもこのようなユーコードである必要はなく、適宜の数字や記号の組み合わせからなるものであってよい。   Next, the article dictionary 28 will be described with reference to FIG. The article dictionary 28 shown in FIG. 4 assigns an ID such as a Ucode to one of the articles, and stores necessary information such as the name, attribute, and position (coordinates) for each article as a character string. Registered as. The U-code is specifically a 128-bit number, and can individually identify articles that are 1 trillion times more than 1 trillion times 340 trillion. However, the ID used for the article dictionary 28 does not necessarily need to be such a U-code, and may consist of a combination of appropriate numbers and symbols.

このような物品辞書28は、ロボットが識別すべき対象物となるすべての、たとえば家庭内の物品をIDと文字列とで登録するものであり、いわばグローバル辞書に相当する。   Such an article dictionary 28 registers all articles, for example, household articles, which are objects to be identified by the robot, with an ID and a character string, and is equivalent to a global dictionary.

ロボット12が人間16とのコミュニケーションに従って対象物を特定する場合には、ロボット12は、人間16の近傍(人間16から所定距離範囲内)に存在する物品についてのみ登録した、図5に例示する検索辞書85Bを作成する。この検索辞書85Bは、上述のように人間16からの所定距離範囲内にある物品についてだけ登録するものであるため、いわばローカル辞書として機能する。人間16の位置の変化に応じてその近傍に存在する物品にも変化を生じるため、この検索辞書85Bは動的に書き換えられると考えられる。この物品辞書85Bの登録内容は、物品辞書28から抽出したものであってよい。   When the robot 12 specifies an object in accordance with communication with the human 16, the robot 12 registers only the articles existing in the vicinity of the human 16 (within a predetermined distance range from the human 16), and the search illustrated in FIG. 5. A dictionary 85B is created. The search dictionary 85B functions as a local dictionary because it is registered only for articles within a predetermined distance range from the human 16 as described above. The search dictionary 85B is considered to be dynamically rewritten because an article existing in the vicinity of the person 16 changes in accordance with the change in the position of the person 16. The registered contents of the article dictionary 85B may be extracted from the article dictionary 28.

次に、図1に示す実施例におけるロボット12の動作について、図6に示すフロー図を参照して説明する。   Next, the operation of the robot 12 in the embodiment shown in FIG. 1 will be described with reference to the flowchart shown in FIG.

図6の最初のステップS1において、ロボット12のCPU80(図3)は、同じく図3に例示するセンサ入力/出力ボード88からのセンサ入力に従って、人間16(図1)を認識したかどうか判断する。具体的には、たとえば赤外線センサ40で人体を検知し、そのとき無線タグ読取装置106でユーザ16が装着している無線タグ18を認識したとき、人間(ユーザ)16を認識したと判断する。   In the first step S1 of FIG. 6, the CPU 80 (FIG. 3) of the robot 12 determines whether or not the person 16 (FIG. 1) has been recognized in accordance with the sensor input from the sensor input / output board 88 also illustrated in FIG. . Specifically, for example, when a human body is detected by the infrared sensor 40 and the wireless tag reader 106 recognizes the wireless tag 18 worn by the user 16 at that time, it is determined that the human (user) 16 has been recognized.

そして、ステップS1でユーザ(人間16)を認識すると、次のステップS3で、ロボット12のCPU80は、先に説明したように、ユーザ16から所定距離範囲内にある物品、図1の例では本24を個別に示すIDと文字列とを含む検索辞書85Bを、物品辞書28から内容を抽出することによって、メモリ84内に作成する。   When the user (human 16) is recognized in step S1, the CPU 80 of the robot 12 in the next step S3, as described above, is an article within a predetermined distance range from the user 16, such as a book in the example of FIG. A search dictionary 85B including an ID and a character string indicating 24 individually is created in the memory 84 by extracting the contents from the article dictionary 28.

次のステップS5において、CPU80は、メモリ84内に設定している発話/ジェスチャ辞書85Aを用いて、スピーカ64から、たとえば、「何か本を持って来ましょうか?」のような発話を行なわせる。その後、ユーザがたとえば「持ってきて」のような発話をしたとすると、ステップS7において、CPU80がユーザの指示を確認し、“YES”を判断する。このとき、ユーザ16は、「持ってきて」と発話するとともに、該当の本を指差すことによって、どの本を持ってきてほしいかを指示するものとする。   In the next step S5, the CPU 80 uses the utterance / gesture dictionary 85A set in the memory 84 to make an utterance such as “Would you like to bring some books?” From the speaker 64. Make it. Thereafter, if the user utters, for example, “bring it in”, the CPU 80 confirms the user's instruction and determines “YES” in step S7. At this time, the user 16 utters “bring” and indicates the book he / she wants to bring by pointing to the corresponding book.

ステップS7でユーザの指示を確認すると、次のステップS9において、CPU80は、メモリ84内に設定したカウンタ85Cをインクリメントする。初期状態ではカウンタに「1」を設定する。このカウンタ85Cは、ユーザ16の近傍に存在する物品の数をカウントするもので、検索辞書85B(図5)のポインタとして機能する。したがって、カウンタ85Cのカウント値によって、検索辞書85B内において、異なる物品を指定する。カウンタ85Cのカウント値が、検索辞書85B内にリストアップしている物品の数「n」に等しくなるまで、以下の動作が各物品について、実行されるものと理解されたい。   When the user's instruction is confirmed in step S7, the CPU 80 increments the counter 85C set in the memory 84 in the next step S9. In the initial state, “1” is set in the counter. The counter 85C counts the number of articles existing in the vicinity of the user 16, and functions as a pointer for the search dictionary 85B (FIG. 5). Therefore, different articles are designated in the search dictionary 85B according to the count value of the counter 85C. It should be understood that the following operations are performed for each article until the count value of the counter 85C is equal to the number of articles “n” listed in the search dictionary 85B.

ステップS9に続いて、CPU80は、ユーザ(人間16)の視線を推定してそれの確信度を求める動作と、指差し方向を推定してそれの確信度を求める動作とを並行して実行するが、ここでは便宜上、まず視線を推定し次いで指差し方向を推定する順序で説明する。   Subsequent to step S <b> 9, the CPU 80 executes in parallel the operation of estimating the user's (human 16) line of sight and obtaining the certainty thereof, and the operation of estimating the pointing direction and obtaining the certainty thereof. However, here, for the sake of convenience, description will be made in the order of first estimating the line of sight and then estimating the pointing direction.

図6のステップS9‐ステップS23の動作は、ステップS5での発話時間T内に一定の繰り返しの時間(t1,t2,t3,…,tn)毎に実行されるが、実施例では、50Hz(1秒間に50回)で実行されるものとし、時間Tが0.5‐1秒と設定した。   6 are executed at regular repetition times (t1, t2, t3,..., Tn) within the utterance time T in step S5. In the embodiment, 50 Hz ( The time T is set to 0.5-1 seconds.

ステップS11では、CPU80は、たとえば眼カメラ70からのカメラ映像を処理することによって、先に挙げた公開公報に記載したいずれかの方法に従って、ユーザ16の左右のそれぞれの眼の視線ベクトルを推定する。この左右それぞれの眼の視線方向は図7において直線L1およびL2で示される。このようにして、各視線L1およびL2を推定した後、CPU80は、次のステップS13において、カウンタ85Cがそのとき検索辞書85B内で指定している物品と、各視線L1およびL2との距離を計算する。   In step S <b> 11, the CPU 80 processes the camera video from the eye camera 70, for example, thereby estimating the eye gaze vectors of the left and right eyes of the user 16 according to any of the methods described in the above publications. . The line-of-sight directions of the left and right eyes are indicated by straight lines L1 and L2 in FIG. After estimating each line of sight L1 and L2 in this way, in the next step S13, the CPU 80 determines the distance between the line of sight that the counter 85C designates in the search dictionary 85B and the line of sight L1 and L2. calculate.

指差し方向を推定するためには、ステップS17において、まず、CPU80は、人間16が指差し動作をした腕を特定する。具体的には、モーションキャプチャのデータを参照して、たとえば、人間16の指先と肩の高さとの差が小さい側の腕を指差し腕として推定する。なぜなら、指差し動作をする場合には、腕を持ち上げる動作をまずするであろうからである。このようにして、ステップS17でどちらの腕を用いて指差し動作をするかを推定した後、CPU80は、次のステップS19において、指差し方向を推定する。   In order to estimate the pointing direction, in step S <b> 17, first, the CPU 80 specifies the arm on which the human 16 has performed the pointing operation. Specifically, referring to the motion capture data, for example, the arm on the side where the difference between the fingertip and shoulder height of the human 16 is small is estimated as the pointing arm. This is because when the pointing operation is performed, the arm lifting operation will be performed first. Thus, after estimating which arm is used to perform the pointing operation in step S17, the CPU 80 estimates the pointing direction in the next step S19.

この実施例では、図7に示すように、指差し腕の指先と顔の中心(重心)とを通る直線L3、および指差し腕の指先とその腕の肘とを通る直線L4を想定する。そして、モーションキャプチャのデータを参照して、その直線L3およびL4を推定する。次のステップS21において、各直線L3およびL4と各物品との間の距離を計算する。   In this embodiment, as shown in FIG. 7, a straight line L3 passing through the fingertip of the pointing arm and the center (center of gravity) of the face and a straight line L4 passing through the fingertip of the pointing arm and the elbow of the arm are assumed. Then, the straight lines L3 and L4 are estimated with reference to the motion capture data. In the next step S21, the distance between each straight line L3 and L4 and each article is calculated.

上述のステップS11‐S13およびS17‐S21は、発話時間T内の各繰返し時間毎に行われる。そして、各繰返しの時間(t1,t2,t3,...,tn)毎に、線L1,L2,L3,およびL4との距離が最小になる物品を求める。各線において、最小になった物品に対して高い確信度(図8でいえば「○」印)を付与する。このようにして、たとえば図8に示すような確信度表を作成する。   Steps S11-S13 and S17-S21 described above are performed at each repetition time within the utterance time T. Then, for each repetition time (t1, t2, t3,..., Tn), an article having a minimum distance from the lines L1, L2, L3, and L4 is obtained. In each line, a high certainty factor (“◯” in FIG. 8) is assigned to the minimized article. In this way, for example, a certainty factor table as shown in FIG. 8 is created.

このように直線毎に最短距離を持つ物品を算出することによって確信度表を作成するようにすれば、1つの物品について2以上の直線について確信度(○)が付与されることがある。このことによって、後にステップS25で説明するような物品リストを作成することができるのである。   If the certainty factor table is created by calculating the article having the shortest distance for each straight line as described above, the certainty factor (○) may be given to two or more straight lines for one article. As a result, an article list as will be described later in step S25 can be created.

この図8の確信度表において、視線L1およびL2のそれぞれについて評価される確信度は「視線確信度」ということができ、指差し方向線L3およびL4のそれぞれについて評価される確信度が「指差し方向確信度」であるということができる。   In the reliability table of FIG. 8, the reliability evaluated for each of the lines of sight L1 and L2 can be referred to as “line of sight reliability”, and the reliability evaluated for each of the pointing direction lines L3 and L4 is “finger”. It can be said that it is the “direction direction certainty”.

図8に示す例で説明すると、「123…000001」のIDを持つ物品、実施例でいえば図1に示す「地球温暖化」という名称の本についていえば、時間t1に一方の視線L2とこの本との間の距離が最小になったものの、その他の時間区間ではどの線も当該本に最接近することはなかったと判断できる。次の、「123…000035」のIDを持つ物品、実施例でいえば図1に示す「カメラ」という名称の雑誌についていえば、時間t1を除いて、各時間にどれかの線がこの物品に再接近したことがわかる。このようにして、図8に示す確信度表がステップS13およびS21で作成される。   Referring to the example shown in FIG. 8, for an article having an ID of “123... 000001”, in the example, a book named “global warming” shown in FIG. Although the distance to the book is minimized, it can be determined that no line is closest to the book in other time intervals. For the next article having an ID of “123... 000035”, in the example, the magazine named “Camera” shown in FIG. 1, any line is present at each time except for time t1. It can be seen that it has approached again. In this way, the certainty factor table shown in FIG. 8 is created in steps S13 and S21.

ステップS25においてCPU80は、図8に示す確信度表を参照して、そのとき人間16(ユーザ)が指示したと考える対象物を特定する。具体的には、確信度評価(図8で言えば丸印)が単に多い順や、繰返し時間で視線(L1またはL2)と指差し(L3またはL4)の両方に○が入っている回数が多い順などに従って、物品リストを作成し、その最上位のものをまず対象物として特定する。このことによって、確信度評価の多様性が得られる。   In step S <b> 25, the CPU 80 refers to the certainty factor table shown in FIG. 8, and specifies an object that the human 16 (user) thinks instructed at that time. Specifically, the number of times that ○ is included in both the line of sight (L1 or L2) and the pointing (L3 or L4) in the order in which the confidence evaluations (circles in FIG. 8) are simply large or in repetition time. An article list is created according to the descending order, and the highest item is first identified as an object. This provides a variety of confidence assessments.

この確信度評価について、たとえば、図8に示す例で説明すると、「123…000001」のIDを持つ「地球温暖化」という名称の本についていえば、確信度評価は「1」(1つの○印が付与された。)であり、「123…000035」のIDを持つ「カメラ」という雑誌の確信度は「3」ということになる。したがって、この場合には、物品リストには、ID「123…000035」、ID「123…000001」の順で登録される。そのため、まず、雑誌「カメラ」(ID「123…000035」)が対象物として特定される。   This reliability evaluation will be described with reference to the example shown in FIG. 8, for example, if the book named “global warming” having the ID “123. And the certainty factor of the magazine “camera” having the ID “123... 000035” is “3”. Therefore, in this case, ID “123... 000035” and ID “123. Therefore, first, a magazine “camera” (ID “123... 000035”) is specified as an object.

ただし、確信度(○印)の数が同じ場合であるとか、確信度(○印)の数が所定の閾値より小さい場合など、判断に迷う場合には、たとえば、図8に示す各繰り返しの時間の全区間の半分以上で確信度が付与されているような物品を対象物として特定すればよい。   However, when the number of certainty degrees (circles) is the same, or when the number of certainty degrees (circles) is smaller than a predetermined threshold, for example, each repetition shown in FIG. What is necessary is just to specify the articles | goods to which confidence is provided in the half or more of all the sections of time as a target object.

ステップS25で対象物を特定した後、CPU80は、次のステップS27において、S25で特定した対象物を示すように、発話/ジェスチャ辞書85Aを参照して、発話および指差し動作を行う。対象物を「カメラ」というタイトルの雑誌であると特定した場合、このステップS27では、図1において右から3番目に置かれている本を指差しジェスチャで示すとともに、たとえば「カメラという白色の雑誌ですね」のような発話を行う。   After specifying the object in step S25, the CPU 80 performs utterance and pointing operation in the next step S27 with reference to the utterance / gesture dictionary 85A so as to indicate the object specified in S25. When it is specified that the object is a magazine titled “Camera”, in this step S27, the book placed third from the right in FIG. Talk like "

その後、CPU80は、マイク66を通して入力されたユーザ(人間16)の声を音声認識処理する。そして、ステップS31で、そのときユーザが、ロボット12が特定した対象物を肯定したのか否定したのかを判断し、否定したときには、次のステップS33に進み、ステップS25で物品リストに未特定の物品がまだ残っているかどうかを判断する。このステップS33で“YES”と判断したときにはステップS25に戻って処理を繰り返すが、“NO”と判断したときには、対象物が特定できなかったものとして処理を終了する。   Thereafter, the CPU 80 performs voice recognition processing on the voice of the user (human 16) input through the microphone 66. Then, in step S31, the user determines whether the object identified by the robot 12 has been affirmed or denied, and if not, the process proceeds to the next step S33, and the unspecified article in the article list in step S25. To determine if is still left. If “YES” is determined in the step S33, the process returns to the step S25 to repeat the process. However, if “NO” is determined, the process is ended because it is not possible to specify the object.

ステップS31でユーザ16の肯定的な音声を認識した場合、ロボット12は、該当する対象物の方向に移動し、該当する対象物を把持してユーザ16の位置に運ぶ。つまり、対象物が存在する位置の座標が既にわかっているので、ロボット12のCPU80は、車輪モータ36を制御して、ロボット12をその対象物の位置に移動させ、次いでアクチュエータ108(図3)を制御することによってハンド56R(または56L)開閉して対象物をハンド56R(または56L:図2)で把持させ、その状態で再び車輪モータ36を制御してロボット12をユーザ16の位置にまで移動させる。このようにして、ステップS35で、ロボット12がステップS25で特定した対象物をユーザ16に運ぶことができる。   When the positive voice of the user 16 is recognized in step S31, the robot 12 moves in the direction of the corresponding object, holds the corresponding object, and carries it to the position of the user 16. That is, since the coordinates of the position where the object exists are already known, the CPU 80 of the robot 12 controls the wheel motor 36 to move the robot 12 to the position of the object, and then the actuator 108 (FIG. 3). By controlling the hand 56R (or 56L), the object is gripped by the hand 56R (or 56L: FIG. 2), and in this state, the wheel motor 36 is controlled again to bring the robot 12 to the position of the user 16. Move. In this way, the object specified by the robot 12 in step S25 can be carried to the user 16 in step S35.

このように、上述の実施例では、視線L1およびL2ならびに指差し方向線L3およびL4を推定して各物品に対する距離を計算した上で、確信度に基づいて判断するようにしたので、人間の指示が曖昧であったり、時間ごとに変動するような場合であっても、かなり正確に対象物を特定することができる。   Thus, in the above-described embodiment, the line of sight L1 and L2 and the pointing direction lines L3 and L4 are estimated and the distance to each article is calculated, and then the determination is made based on the certainty factor. Even if the instruction is ambiguous or fluctuates from time to time, the object can be specified fairly accurately.

ただし、たとえば、ユーザの視線L1およびL2がロボット12に向けられていて、明らかに対象物には向けられていないと推定できる場合には、視線L1およびL2について推定することなく、指差し方向直線L3およびL4だけを推定するようにしてもよい。   However, for example, when it can be estimated that the user's lines of sight L1 and L2 are directed to the robot 12 and are not clearly directed to the object, the pointing direction straight line is not estimated for the lines of sight L1 and L2. Only L3 and L4 may be estimated.

また、上述の実施例において個々の説明は省略したが、各線L1-L4を定義したり、物品や人間の位置を特定したり、各線と各物品の間の距離を計算したりするためには、全てワールド座標系の座標を用いるようにしている。したがって、ロボット12は必要な場合には、ロボット座標系との間で座標変換を実行する。   In addition, although individual explanation is omitted in the above-described embodiment, in order to define each line L1-L4, specify the position of an article or a person, or calculate the distance between each line and each article. All the coordinates of the world coordinate system are used. Therefore, when necessary, the robot 12 performs coordinate conversion with the robot coordinate system.

さらに、この発明の対象物特定方法および装置をコミュニケーションロボットシステムに適用した実施例について説明したが、コミュニケーションロボット以外の用途にも適用できるのはいうまでもない。   Furthermore, although the Example which applied the target object identification method and apparatus of this invention to the communication robot system was demonstrated, it cannot be overemphasized that it can apply also to uses other than a communication robot.

図1はこの発明の一実施例を示すコミュニケーションロボットシステムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a communication robot system showing an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1の実施例で用いられる物品辞書の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of an article dictionary used in the embodiment of FIG. 図5は図1の実施例で用いられる検索辞書の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a search dictionary used in the embodiment of FIG. 図6は図1の実施例におけるロボットの動作を示すフロー図である。FIG. 6 is a flowchart showing the operation of the robot in the embodiment of FIG. 図7はユーザ(人間)の視線および指差し方向を示す図解図である。FIG. 7 is an illustrative view showing a user's (human) line of sight and pointing direction. 図8は図6の実施例で用いる確信度表の一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a certainty factor table used in the embodiment of FIG.

符号の説明Explanation of symbols

10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
14 …ネットワーク
18 …無線タグ
20 …サーバ
22 …カメラ
24 …物品(本)
80 …CPU
DESCRIPTION OF SYMBOLS 10 ... Communication robot system 12 ... Communication robot 14 ... Network 18 ... Wireless tag 20 ... Server 22 ... Camera 24 ... Goods (book)
80 ... CPU

Claims (5)

間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を対象物として特定する方法であって、
検索対象である物品毎に名称、属性、位置などの必要な情報を検索辞書に登録しておき、
(a)繰り返しの時間毎に、指差し方向を示す指差し直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成し、
(b)繰り返しの時間毎に、視線方向を示す視線直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成し、そして
(c)前記指差し方向確信度表と前記視線方向確信度表とを同時に参照して対象物を特定する、対象物特定方法。
Among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, a method of identifying a target object,
Register necessary information such as name, attribute, and position for each article to be searched in the search dictionary,
(a) At each repetition time, the distance between the pointing straight line indicating the pointing direction and each article registered in the search dictionary is calculated, and the pointing direction confidence table is obtained by obtaining the article having the shortest distance. Create
(b) For each repetition time, calculate the distance between the line of sight indicating the line-of-sight direction and each article registered in the search dictionary, and create a line-of-sight confidence table by finding the article with the shortest distance. And
(c) An object specifying method for specifying an object by simultaneously referring to the pointing direction certainty table and the gaze direction certainty table.
前記ステップ(a)は、(a1)繰り返しの時間毎に、指先と顔の中心とを通る第1指差し直線との距離が最小の物品を推定するステップ、および(a2)繰り返しの時間毎に、前記指先と肘とを通る第2指差し直線との距離が最小の物品を推定するステップを含み、
前記ステップ(b)は、(b1)繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2)繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、
前記ステップ(a)では、前記ステップ(a1)および前記ステップ(a2)の結果に基づいて前記指差し方向確信度表を作成し、
前記ステップ(b)では、前記ステップ(b1)および前記ステップ(b2)の結果に基づいて前記視線方向確信度表を作成する、請求項1記載の対象物特定方法。
The step (a) includes: (a1) estimating an article having a minimum distance between the fingertip and the first pointing straight line passing through the center of the face at every repetition time; and (a2) at every repetition time. Estimating the article having the smallest distance between the fingertip and the second pointing straight line passing through the elbow,
The step (b) includes (b1) a step of estimating an article having a minimum distance from the first line of sight indicating the line-of-sight vector of one eye for each repetition time, and (b2) for each repetition time. Estimating an article having a minimum distance from a second line of sight indicating a line-of-sight vector of the other eye,
In the step (a), based on the results of the step (a1) and the step (a2), create the pointing direction confidence table,
2. The object specifying method according to claim 1, wherein in the step (b), the line-of-sight direction certainty table is created based on the results of the step (b1) and the step (b2).
間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を対象物として特定する装置であって、
検索対象である物品毎に名称、属性、位置などの必要な情報を登録する検索辞書、
繰り返しの時間毎に、指差し方向を示す指差し直線と前記検索辞書に登録している各物
品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成する指差し方向確信度表作成手段、
繰り返しの時間毎に、視線方向を示す視線直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成する視線方向確信度表作成手段、および
前記指差し方向確信度表と前記視線方向確信度表とを同時に参照して対象物を特定する手段を備える、対象物特定装置。
Among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, an apparatus for identifying a target object,
A search dictionary that registers necessary information such as name, attribute, and position for each article to be searched,
For each repetition time, the distance between the pointing line indicating the pointing direction and each article registered in the search dictionary is calculated, and the pointing direction confidence table is created by obtaining the article having the shortest distance. Pointing direction confidence table creation means,
For each repetition time, calculate the distance between the line of sight indicating the line of sight and each item registered in the search dictionary, and create the line of sight direction confidence table by finding the item with the shortest distance An object specifying device comprising: a degree table creating means; and means for simultaneously specifying the object with reference to the pointing direction reliability table and the line-of-sight direction reliability table.
コミュニケーションロボットであって、
請求項3記載の対象物特定装置、および
前記対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボット。
A communication robot,
A communication robot comprising: the object specifying device according to claim 3; and an instruction unit that indicates an object specified by the object specifying device.
前記対象物特定装置で特定した対象物を運ぶ手段をさらに備える、請求項4記載のコミュニケーションロボット。   The communication robot according to claim 4, further comprising means for carrying an object specified by the object specifying device.
JP2007326924A 2007-12-19 2007-12-19 Object identification method and apparatus Active JP5145569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007326924A JP5145569B2 (en) 2007-12-19 2007-12-19 Object identification method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007326924A JP5145569B2 (en) 2007-12-19 2007-12-19 Object identification method and apparatus

Publications (2)

Publication Number Publication Date
JP2009151419A JP2009151419A (en) 2009-07-09
JP5145569B2 true JP5145569B2 (en) 2013-02-20

Family

ID=40920534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007326924A Active JP5145569B2 (en) 2007-12-19 2007-12-19 Object identification method and apparatus

Country Status (1)

Country Link
JP (1) JP5145569B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5120754B2 (en) * 2008-03-28 2013-01-16 株式会社国際電気通信基礎技術研究所 Motion detection device
EP2843507A1 (en) * 2013-08-26 2015-03-04 Thomson Licensing Display method through a head mounted device
JP2016053880A (en) * 2014-09-04 2016-04-14 株式会社ランディード On-vehicle system, information processing method, and computer program
JP6430340B2 (en) 2015-07-31 2018-11-28 株式会社東芝 Position input device and position input method
AU2018256365A1 (en) 2017-04-19 2019-10-31 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
KR102191488B1 (en) * 2017-10-27 2020-12-15 서울대학교산학협력단 Power and motion sensitized education robot
JP2020052875A (en) * 2018-09-28 2020-04-02 株式会社デンソー Gesture input apparatus
JP7198416B2 (en) 2019-05-29 2023-01-04 トヨタ紡織株式会社 Vehicle lighting system
CN112847357B (en) * 2020-12-31 2022-04-19 宁波知行物联科技有限公司 Gear-taking robot control method and system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337756A (en) * 1993-05-28 1994-12-06 Daikin Ind Ltd Three-dimensional position specifying method and virtual space stereoscopic device
JP4035610B2 (en) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 Interface device
JP2004265222A (en) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> Interface method, system, and program
JP4328136B2 (en) * 2003-06-19 2009-09-09 国立大学法人 奈良先端科学技術大学院大学 Interest level estimation device
JP4221330B2 (en) * 2004-05-07 2009-02-12 日本電信電話株式会社 Interface method, apparatus, and program
JP4399603B2 (en) * 2005-02-28 2010-01-20 株式会社国際電気通信基礎技術研究所 Communication robot
JP4969462B2 (en) * 2006-01-24 2012-07-04 本田技研工業株式会社 System and method for estimating attention area
JP5120249B2 (en) * 2006-03-15 2013-01-16 オムロン株式会社 Monitoring device and monitoring method, control device and control method, and program

Also Published As

Publication number Publication date
JP2009151419A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
JP5145569B2 (en) Object identification method and apparatus
JP5429462B2 (en) Communication robot
JP5366048B2 (en) Information provision system
JP4822319B2 (en) Communication robot and attention control system using the same
JP2007260822A (en) Guide robot
CN102902271A (en) Binocular vision-based robot target identifying and gripping system and method
JP4599522B2 (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5318623B2 (en) Remote control device and remote control program
JP2007139710A (en) Walking-aid robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
WO2019138619A1 (en) Information processing device, information processing method and program
JP6134894B2 (en) Robot control system and robot
JP4399603B2 (en) Communication robot
JP4962940B2 (en) Route guidance system
WO2019087495A1 (en) Information processing device, information processing method, and program
JP2017170568A (en) Service providing robot system
JP2007160427A (en) Robot control system
JP2006205343A (en) Communication robot system, and robot control device
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP2011000656A (en) Guide robot
JP2009223172A (en) Article estimation system
JP6142306B2 (en) Robot control system, robot, output control program, and output control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121102

R150 Certificate of patent or registration of utility model

Ref document number: 5145569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250