JP5145569B2 - Object identification method and apparatus - Google Patents
Object identification method and apparatus Download PDFInfo
- Publication number
- JP5145569B2 JP5145569B2 JP2007326924A JP2007326924A JP5145569B2 JP 5145569 B2 JP5145569 B2 JP 5145569B2 JP 2007326924 A JP2007326924 A JP 2007326924A JP 2007326924 A JP2007326924 A JP 2007326924A JP 5145569 B2 JP5145569 B2 JP 5145569B2
- Authority
- JP
- Japan
- Prior art keywords
- article
- line
- sight
- pointing
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000004891 communication Methods 0.000 claims description 26
- 241000282412 Homo Species 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 6
- 210000001508 eye Anatomy 0.000 description 24
- 210000005252 bulbus oculi Anatomy 0.000 description 19
- 210000000323 shoulder joint Anatomy 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 8
- 210000002310 elbow joint Anatomy 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 210000000245 forearm Anatomy 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000010792 warming Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明は、対象物特定方法および装置に関し、特にたとえばコミュニケーションロボットが人間とコミュニケーションしながら人間が指示した物品または物体(以下、「対象物」という。)を特定してその物品を運搬した移動させたりするために利用される、対象物特定方法および装置ならびにそれを備えるコミュニケーションロボットに関する。 The present invention relates to an object identification method and apparatus, and in particular, for example, an article or an object (hereinafter referred to as an “object”) designated by a person while a communication robot communicates with the person is identified and transported. The present invention relates to a method and apparatus for identifying an object and a communication robot including the same.
特許文献1には、人間が指差す方向に存在する対象物を特定する、対象物特定装置が開示されている。この特許文献1に示す装置によれば、人間が指差す対象物を特定することができる
特許文献1の技術では、指差し方向だけに基づいて対象物を特定するので、たとえば、人間の指差す方向は正確に対象物に向かっているとは限らず、したがって、間違って対象物を特定する可能性がある。
In the technique of
それゆえに、この発明の主たる目的は、新規な、対象物特定方法および装置を提供することである。 Therefore, a main object of the present invention is to provide a novel object identification method and apparatus.
この発明の他の目的は、対象物を正確に特定できる、対象物特定方法および装置を提供することである。 Another object of the present invention is to provide an object specifying method and apparatus capable of accurately specifying an object.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、人間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を、対象物として特定する方法であって、検索対象である物品毎に名称、属性、位置などの必要な情報を検索辞書に登録しておき、(a)繰り返しの時間毎に、指差し方向を示す指差し直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成し、(b)繰り返しの時間毎に、視線方向を示す視線直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成し、そして(c)指差し方向確信度表と視線方向確信度表とを同時に参照して対象物を特定する、対象物特定方法である。 The first invention among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, a method of identifying a target object, each to be retrieved article Register necessary information such as name, attribute, and position in the search dictionary, and (a) the distance between the pointing straight line indicating the pointing direction and each item registered in the search dictionary at each repetition time And create a pointing direction confidence table by finding the article with the shortest distance, and (b) for each repetition time, the line of sight indicating the line of sight and each article registered in the search dictionary. Create a gaze direction confidence table by calculating the distance and finding the item with the shortest distance, and (c) identify the object by simultaneously referring to the pointing direction confidence table and the gaze direction confidence table This is an object identification method.
第2の発明は、第1の発明に従属し、ステップ(a)は、(a1)繰り返しの時間毎に、指先と顔の中心とを通る第1指差し直線との距離が最小の物品を推定するステップ、および(a2)繰り返しの時間毎に、指先と肘とを通る第2指差し直線との距離が最小の物品を推定するステップを含み、ステップ(b)は、(b1)繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2)繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、ステップ(a)では、ステップ(a1)およびステップ(a2)の結果に基づいて指差し方向確信度表を作成し、ステップ(b)では、ステップ(b1)およびステップ(b2)の結果に基づいて視線方向確信度表を作成する、対象物特定方法である。 The second invention is dependent on the first invention, and step (a) comprises: (a1) an article having the smallest distance between the fingertip and the first pointing straight line passing through the center of the face for each repetition time. And (a2) estimating an article having a minimum distance between the fingertip and the second pointing straight line passing through the elbow at each repetition time, and step (b) includes (b1) A step of estimating an article having a minimum distance from the first line of sight indicating the eye vector of one eye for each time; and (b2) a second line of sight indicating the line of sight of the other eye at each repeated time. And a step (a) to create a pointing direction confidence table based on the results of step (a1) and step (a2), and in step (b), to create a line-of-sight direction confidence table based on the result of the step (b1) and step (b2), the object JP It is a method.
たとえば、モーションキャプチャによって、第1指差し直線および第2指差し直線を推定し、それらの直線と、人間の近傍の各物品との間の距離を計算することによって各線ごとの各物品に対する「確信度」を評価する。同様に、人間の両目のそれぞれの視線方向直線と各物品との間の距離を計算して、各視線毎の各物品に対する確信度を評価する。 For example, the first and second pointing straight lines are estimated by motion capture, and the distance between these straight lines and each article in the vicinity of the human being is calculated to calculate the “confidence for each article for each line. Evaluate "degree". Similarly, the distance between each gaze direction straight line of each human eye and each article is calculated, and the certainty factor for each article for each gaze is evaluated.
繰り返しの時間毎にこのような確信度を評価し、最も多くの確信度を獲得した物品を対象物として特定する。 Such a certainty factor is evaluated at each repetition time, and an article that has acquired the most certainty factor is specified as an object.
第3の発明は、人間と同じ空間座標系に存在する物品のうち、その人間が指差しかつ視線を向けている物品を、対象物として特定する装置であって、検索対象である物品毎に名称、属性、位置などの必要な情報を登録する検索辞書、繰り返しの時間毎に、指差し方向を示す指差し直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成する指差し方向確信度表作成手段、繰り返しの時間毎に、視線方向を示す視線直線と検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成する視線方向確信度表作成手段、および指差し方向確信度表と視線方向確信度表とを同時に参照して対象物を特定する手段を備える、対象物特定装置である。 A third invention is, among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, an apparatus for identifying a target object, each to be retrieved article Search dictionary for registering necessary information such as name, attribute, position, etc., and for each repetition time, calculate the distance between the pointing straight line indicating the pointing direction and each article registered in the search dictionary, and the shortest distance A pointing direction confidence table creating means for creating a pointing direction confidence table by obtaining an article having a distance between a line of sight indicating a viewing direction and each article registered in the search dictionary for each repetition time And a gaze direction certainty table creation means for creating a gaze direction certainty table by obtaining an article having the shortest distance, and a target object by simultaneously referring to the pointing direction certainty table and the gaze direction certainty table Comprising means for identifying A elephant-specifying device.
第4の発明は、第3の発明に従った対象物特定装置、および対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボットである。 4th invention is a communication robot provided with the instruction | indication means which instruct | indicates the target object specified with the target object specifying apparatus according to 3rd invention, and the target object specifying apparatus.
第5の発明は、第4の発明に従属し、対象物特定装置で特定した対象物を運ぶ手段をさらに備える、コミュニケーションロボットである。 A fifth invention is a communication robot according to the fourth invention, further comprising means for carrying the object specified by the object specifying device.
この発明によれば、人間の視線方向と指差し方向とを同時に参照して対象物を特定するようにしたので、対象物を正確に特定することができる。 According to the present invention, since the object is specified by simultaneously referring to the human gaze direction and the pointing direction, the object can be specified accurately.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のコミュニケーションロボットシステム10は、コミュニケーションロボット(以下、単に「ロボット」ということがある。)12を含む。このロボット12は、たとえば無線LANなどのネットワーク14にアクセスすることができる。ロボット12は、人間16の指示する対象物を特定し、たとえばその対象物を人間16に持っていくなどの動作を実行する。
Referring to FIG. 1, a
人間16は、その人物が誰であるかを示す無線タグ18を装着しているとともに、図示しないが、モーションキャプチャのためのマーカが付着されている。マーカは、典型的には、人間の頭頂、両肩、両肘、両手の人差し指の先端などに設定されていて、それらのマーカが、人間16の全体とともに、サーバ20に制御されるカメラ22によって撮影される。カメラ22は、実施例では、3つ設けられ、人間16を3方向から撮影し、そのカメラ映像をサーバ20に供給する。
The human 16 is wearing a
サーバ20は無線LANのようなネットワーク14に結合され、上述のようにして入力されるカメラ映像データに基づいて、マーカの動きを検出するモーションキャプチャ処理を実行するとともに、たとえば肌色領域を検出することによって、人間16の顔の位置を特定することができる。
The
このシステム10では、上述のように、ロボット12が人間16の指示する物品を対象物として特定するものである。対象物となり得る物品の例として、この実施例では、本(書籍)を用いる。本24には、その本がどのような本であるかを示す無線タグ18が付着されている。本24は本棚26に収納される。
In the
ただし、対象物となり得る物品は実施例の書籍だけでなく、もし家庭用のシステムであれば、家庭内のあらゆる物品が考えられる。また、当然、家庭用としてだけではなく、人間と一緒に働く任意の場所(会社、事務所、工場など)での利用が考えられる。 However, the articles that can be the object are not only the books of the embodiment, but any household article can be considered if it is a home system. Naturally, it can be used not only for home use but also in any place (company, office, factory, etc.) that works with people.
そして、このコミュニケーションロボットシステム10が対象とするすべての物品は、サーバ20に付設された物品辞書28に登録される。物品辞書28については後述する。
All articles targeted by the
なお、図1では、簡単のため、1台のロボット12を示してあるが、2台以上であってよい。また、人間は1人に限定される必要はなく、無線タグ18で識別できるので、複数であってよい。
In FIG. 1, one
また、図1に示す実施例では、このシステム10を設置している空間のワールド座標を用いてロボット12、人間16、物品24などの位置が表現されていて、他方、ロボット12の制御はロボット座標で行なわれるので、詳細は説明しないが、ロボット12は、後述の処理における必要に応じて、ロボット座標とワールド座標との間の座標変換処理を実行するものである。
In the embodiment shown in FIG. 1, the positions of the
図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。
The hardware configuration of the
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。
A cylindrical
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。 In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
A
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
An
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R,56Lの形状は実施例の形状に限らず、人間の手に酷似した形状や機能を持たせるようにしてもよい。
At the tip of each of the
また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。
Although not shown, the front surface of the
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
The
眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人間16の左右両目のそれぞれの視線方向(ベクトル)を検出する。その視線検出方法は具体的には、2つのカメラを用いるものとして特開2004‐255074号公報に、1つのカメラを用いるものとして特開2006‐172209号公報や特開2006‐285531号公報開示されるが、ここではその詳細は重要ではないので、これらの公開公報を引用するにとどめる。
The
ただし、人間16の視線ベクトルの検出のためには、よく知られているアイマークレコーダなどが利用されてもよい。 However, a well-known eye mark recorder or the like may be used for detecting the line-of-sight vector of the human 16.
また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
The
このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
As described above, the
図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
FIG. 3 is a block diagram showing the electrical configuration of the
メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
The
さらに、この実施例では、ロボット12は、人間16とのコミュニケーションをとるために発話したり、ジェスチャできるように構成されているが、メモリ84に、このような発話やジェスチャのための発話/ジェスチャ辞書85Aが設定されている。
Further, in this embodiment, the
また、メモリ84には検索辞書85Bが設定されているが、この検索辞書85Bは、ロボット12が人間16の指示する物品(実施例では本。)を対象物として特定するために、当該人間の近傍に存在する物品(本)だけを物品辞書28から抜き出して登録する辞書で、人間16の位置の変化に応じて、動的に書き換えられるものである。
In addition, a search dictionary 85B is set in the
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives control data from the
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
The motor control board 86 receives control data from the
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。
Further, the motor control board 86 receives control data from the
モータ制御ボード86にはさらにハンドアクチュエータ108が結合され、モータ制御ボード86は、CPU80からの制御データを受け、ハンド56R,56Lの開閉を制御する。
A
なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
In this embodiment, a motor other than the
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
Similar to the motor control board 86, the sensor input /
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク14を介してサーバ20に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12からサーバ20への信号(コマンド)であったり、ロボット12が行ったコミュニケーションについての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーションが実行される度に、サーバ20に送信されたが、一定時間または一定量の単位でサーバ20に送信されるようにしてもよい。
The
さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間16に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。
Further, the
次に、図4を参照して物品辞書28を説明する。この図4に示す物品辞書28は、たとえばユーコード(Ucode)のようなIDをそれぞれの物品の1つに割り当て、物品毎にその名称、属性、位置(座標)などの必要な情報を文字列として登録している。なお、ユーコードは、具体的には、128ビットの数字からなり、340兆の1兆倍のさらに1兆倍の数の物品を個別に識別できるものである。ただし、この物品辞書28に使うIDは必ずしもこのようなユーコードである必要はなく、適宜の数字や記号の組み合わせからなるものであってよい。
Next, the
このような物品辞書28は、ロボットが識別すべき対象物となるすべての、たとえば家庭内の物品をIDと文字列とで登録するものであり、いわばグローバル辞書に相当する。
Such an
ロボット12が人間16とのコミュニケーションに従って対象物を特定する場合には、ロボット12は、人間16の近傍(人間16から所定距離範囲内)に存在する物品についてのみ登録した、図5に例示する検索辞書85Bを作成する。この検索辞書85Bは、上述のように人間16からの所定距離範囲内にある物品についてだけ登録するものであるため、いわばローカル辞書として機能する。人間16の位置の変化に応じてその近傍に存在する物品にも変化を生じるため、この検索辞書85Bは動的に書き換えられると考えられる。この物品辞書85Bの登録内容は、物品辞書28から抽出したものであってよい。
When the
次に、図1に示す実施例におけるロボット12の動作について、図6に示すフロー図を参照して説明する。
Next, the operation of the
図6の最初のステップS1において、ロボット12のCPU80(図3)は、同じく図3に例示するセンサ入力/出力ボード88からのセンサ入力に従って、人間16(図1)を認識したかどうか判断する。具体的には、たとえば赤外線センサ40で人体を検知し、そのとき無線タグ読取装置106でユーザ16が装着している無線タグ18を認識したとき、人間(ユーザ)16を認識したと判断する。
In the first step S1 of FIG. 6, the CPU 80 (FIG. 3) of the
そして、ステップS1でユーザ(人間16)を認識すると、次のステップS3で、ロボット12のCPU80は、先に説明したように、ユーザ16から所定距離範囲内にある物品、図1の例では本24を個別に示すIDと文字列とを含む検索辞書85Bを、物品辞書28から内容を抽出することによって、メモリ84内に作成する。
When the user (human 16) is recognized in step S1, the
次のステップS5において、CPU80は、メモリ84内に設定している発話/ジェスチャ辞書85Aを用いて、スピーカ64から、たとえば、「何か本を持って来ましょうか?」のような発話を行なわせる。その後、ユーザがたとえば「持ってきて」のような発話をしたとすると、ステップS7において、CPU80がユーザの指示を確認し、“YES”を判断する。このとき、ユーザ16は、「持ってきて」と発話するとともに、該当の本を指差すことによって、どの本を持ってきてほしいかを指示するものとする。
In the next step S5, the
ステップS7でユーザの指示を確認すると、次のステップS9において、CPU80は、メモリ84内に設定したカウンタ85Cをインクリメントする。初期状態ではカウンタに「1」を設定する。このカウンタ85Cは、ユーザ16の近傍に存在する物品の数をカウントするもので、検索辞書85B(図5)のポインタとして機能する。したがって、カウンタ85Cのカウント値によって、検索辞書85B内において、異なる物品を指定する。カウンタ85Cのカウント値が、検索辞書85B内にリストアップしている物品の数「n」に等しくなるまで、以下の動作が各物品について、実行されるものと理解されたい。
When the user's instruction is confirmed in step S7, the
ステップS9に続いて、CPU80は、ユーザ(人間16)の視線を推定してそれの確信度を求める動作と、指差し方向を推定してそれの確信度を求める動作とを並行して実行するが、ここでは便宜上、まず視線を推定し次いで指差し方向を推定する順序で説明する。
Subsequent to step S <b> 9, the
図6のステップS9‐ステップS23の動作は、ステップS5での発話時間T内に一定の繰り返しの時間(t1,t2,t3,…,tn)毎に実行されるが、実施例では、50Hz(1秒間に50回)で実行されるものとし、時間Tが0.5‐1秒と設定した。 6 are executed at regular repetition times (t1, t2, t3,..., Tn) within the utterance time T in step S5. In the embodiment, 50 Hz ( The time T is set to 0.5-1 seconds.
ステップS11では、CPU80は、たとえば眼カメラ70からのカメラ映像を処理することによって、先に挙げた公開公報に記載したいずれかの方法に従って、ユーザ16の左右のそれぞれの眼の視線ベクトルを推定する。この左右それぞれの眼の視線方向は図7において直線L1およびL2で示される。このようにして、各視線L1およびL2を推定した後、CPU80は、次のステップS13において、カウンタ85Cがそのとき検索辞書85B内で指定している物品と、各視線L1およびL2との距離を計算する。
In step S <b> 11, the
指差し方向を推定するためには、ステップS17において、まず、CPU80は、人間16が指差し動作をした腕を特定する。具体的には、モーションキャプチャのデータを参照して、たとえば、人間16の指先と肩の高さとの差が小さい側の腕を指差し腕として推定する。なぜなら、指差し動作をする場合には、腕を持ち上げる動作をまずするであろうからである。このようにして、ステップS17でどちらの腕を用いて指差し動作をするかを推定した後、CPU80は、次のステップS19において、指差し方向を推定する。
In order to estimate the pointing direction, in step S <b> 17, first, the
この実施例では、図7に示すように、指差し腕の指先と顔の中心(重心)とを通る直線L3、および指差し腕の指先とその腕の肘とを通る直線L4を想定する。そして、モーションキャプチャのデータを参照して、その直線L3およびL4を推定する。次のステップS21において、各直線L3およびL4と各物品との間の距離を計算する。 In this embodiment, as shown in FIG. 7, a straight line L3 passing through the fingertip of the pointing arm and the center (center of gravity) of the face and a straight line L4 passing through the fingertip of the pointing arm and the elbow of the arm are assumed. Then, the straight lines L3 and L4 are estimated with reference to the motion capture data. In the next step S21, the distance between each straight line L3 and L4 and each article is calculated.
上述のステップS11‐S13およびS17‐S21は、発話時間T内の各繰返し時間毎に行われる。そして、各繰返しの時間(t1,t2,t3,...,tn)毎に、線L1,L2,L3,およびL4との距離が最小になる物品を求める。各線において、最小になった物品に対して高い確信度(図8でいえば「○」印)を付与する。このようにして、たとえば図8に示すような確信度表を作成する。 Steps S11-S13 and S17-S21 described above are performed at each repetition time within the utterance time T. Then, for each repetition time (t1, t2, t3,..., Tn), an article having a minimum distance from the lines L1, L2, L3, and L4 is obtained. In each line, a high certainty factor (“◯” in FIG. 8) is assigned to the minimized article. In this way, for example, a certainty factor table as shown in FIG. 8 is created.
このように直線毎に最短距離を持つ物品を算出することによって確信度表を作成するようにすれば、1つの物品について2以上の直線について確信度(○)が付与されることがある。このことによって、後にステップS25で説明するような物品リストを作成することができるのである。 If the certainty factor table is created by calculating the article having the shortest distance for each straight line as described above, the certainty factor (○) may be given to two or more straight lines for one article. As a result, an article list as will be described later in step S25 can be created.
この図8の確信度表において、視線L1およびL2のそれぞれについて評価される確信度は「視線確信度」ということができ、指差し方向線L3およびL4のそれぞれについて評価される確信度が「指差し方向確信度」であるということができる。 In the reliability table of FIG. 8, the reliability evaluated for each of the lines of sight L1 and L2 can be referred to as “line of sight reliability”, and the reliability evaluated for each of the pointing direction lines L3 and L4 is “finger”. It can be said that it is the “direction direction certainty”.
図8に示す例で説明すると、「123…000001」のIDを持つ物品、実施例でいえば図1に示す「地球温暖化」という名称の本についていえば、時間t1に一方の視線L2とこの本との間の距離が最小になったものの、その他の時間区間ではどの線も当該本に最接近することはなかったと判断できる。次の、「123…000035」のIDを持つ物品、実施例でいえば図1に示す「カメラ」という名称の雑誌についていえば、時間t1を除いて、各時間にどれかの線がこの物品に再接近したことがわかる。このようにして、図8に示す確信度表がステップS13およびS21で作成される。 Referring to the example shown in FIG. 8, for an article having an ID of “123... 000001”, in the example, a book named “global warming” shown in FIG. Although the distance to the book is minimized, it can be determined that no line is closest to the book in other time intervals. For the next article having an ID of “123... 000035”, in the example, the magazine named “Camera” shown in FIG. 1, any line is present at each time except for time t1. It can be seen that it has approached again. In this way, the certainty factor table shown in FIG. 8 is created in steps S13 and S21.
ステップS25においてCPU80は、図8に示す確信度表を参照して、そのとき人間16(ユーザ)が指示したと考える対象物を特定する。具体的には、確信度評価(図8で言えば丸印)が単に多い順や、繰返し時間で視線(L1またはL2)と指差し(L3またはL4)の両方に○が入っている回数が多い順などに従って、物品リストを作成し、その最上位のものをまず対象物として特定する。このことによって、確信度評価の多様性が得られる。
In step S <b> 25, the
この確信度評価について、たとえば、図8に示す例で説明すると、「123…000001」のIDを持つ「地球温暖化」という名称の本についていえば、確信度評価は「1」(1つの○印が付与された。)であり、「123…000035」のIDを持つ「カメラ」という雑誌の確信度は「3」ということになる。したがって、この場合には、物品リストには、ID「123…000035」、ID「123…000001」の順で登録される。そのため、まず、雑誌「カメラ」(ID「123…000035」)が対象物として特定される。 This reliability evaluation will be described with reference to the example shown in FIG. 8, for example, if the book named “global warming” having the ID “123. And the certainty factor of the magazine “camera” having the ID “123... 000035” is “3”. Therefore, in this case, ID “123... 000035” and ID “123. Therefore, first, a magazine “camera” (ID “123... 000035”) is specified as an object.
ただし、確信度(○印)の数が同じ場合であるとか、確信度(○印)の数が所定の閾値より小さい場合など、判断に迷う場合には、たとえば、図8に示す各繰り返しの時間の全区間の半分以上で確信度が付与されているような物品を対象物として特定すればよい。 However, when the number of certainty degrees (circles) is the same, or when the number of certainty degrees (circles) is smaller than a predetermined threshold, for example, each repetition shown in FIG. What is necessary is just to specify the articles | goods to which confidence is provided in the half or more of all the sections of time as a target object.
ステップS25で対象物を特定した後、CPU80は、次のステップS27において、S25で特定した対象物を示すように、発話/ジェスチャ辞書85Aを参照して、発話および指差し動作を行う。対象物を「カメラ」というタイトルの雑誌であると特定した場合、このステップS27では、図1において右から3番目に置かれている本を指差しジェスチャで示すとともに、たとえば「カメラという白色の雑誌ですね」のような発話を行う。
After specifying the object in step S25, the
その後、CPU80は、マイク66を通して入力されたユーザ(人間16)の声を音声認識処理する。そして、ステップS31で、そのときユーザが、ロボット12が特定した対象物を肯定したのか否定したのかを判断し、否定したときには、次のステップS33に進み、ステップS25で物品リストに未特定の物品がまだ残っているかどうかを判断する。このステップS33で“YES”と判断したときにはステップS25に戻って処理を繰り返すが、“NO”と判断したときには、対象物が特定できなかったものとして処理を終了する。
Thereafter, the
ステップS31でユーザ16の肯定的な音声を認識した場合、ロボット12は、該当する対象物の方向に移動し、該当する対象物を把持してユーザ16の位置に運ぶ。つまり、対象物が存在する位置の座標が既にわかっているので、ロボット12のCPU80は、車輪モータ36を制御して、ロボット12をその対象物の位置に移動させ、次いでアクチュエータ108(図3)を制御することによってハンド56R(または56L)開閉して対象物をハンド56R(または56L:図2)で把持させ、その状態で再び車輪モータ36を制御してロボット12をユーザ16の位置にまで移動させる。このようにして、ステップS35で、ロボット12がステップS25で特定した対象物をユーザ16に運ぶことができる。
When the positive voice of the user 16 is recognized in step S31, the
このように、上述の実施例では、視線L1およびL2ならびに指差し方向線L3およびL4を推定して各物品に対する距離を計算した上で、確信度に基づいて判断するようにしたので、人間の指示が曖昧であったり、時間ごとに変動するような場合であっても、かなり正確に対象物を特定することができる。 Thus, in the above-described embodiment, the line of sight L1 and L2 and the pointing direction lines L3 and L4 are estimated and the distance to each article is calculated, and then the determination is made based on the certainty factor. Even if the instruction is ambiguous or fluctuates from time to time, the object can be specified fairly accurately.
ただし、たとえば、ユーザの視線L1およびL2がロボット12に向けられていて、明らかに対象物には向けられていないと推定できる場合には、視線L1およびL2について推定することなく、指差し方向直線L3およびL4だけを推定するようにしてもよい。
However, for example, when it can be estimated that the user's lines of sight L1 and L2 are directed to the
また、上述の実施例において個々の説明は省略したが、各線L1-L4を定義したり、物品や人間の位置を特定したり、各線と各物品の間の距離を計算したりするためには、全てワールド座標系の座標を用いるようにしている。したがって、ロボット12は必要な場合には、ロボット座標系との間で座標変換を実行する。
In addition, although individual explanation is omitted in the above-described embodiment, in order to define each line L1-L4, specify the position of an article or a person, or calculate the distance between each line and each article. All the coordinates of the world coordinate system are used. Therefore, when necessary, the
さらに、この発明の対象物特定方法および装置をコミュニケーションロボットシステムに適用した実施例について説明したが、コミュニケーションロボット以外の用途にも適用できるのはいうまでもない。 Furthermore, although the Example which applied the target object identification method and apparatus of this invention to the communication robot system was demonstrated, it cannot be overemphasized that it can apply also to uses other than a communication robot.
10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
14 …ネットワーク
18 …無線タグ
20 …サーバ
22 …カメラ
24 …物品(本)
80 …CPU
DESCRIPTION OF
80 ... CPU
Claims (5)
検索対象である物品毎に名称、属性、位置などの必要な情報を検索辞書に登録しておき、
(a)繰り返しの時間毎に、指差し方向を示す指差し直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成し、
(b)繰り返しの時間毎に、視線方向を示す視線直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成し、そして
(c)前記指差し方向確信度表と前記視線方向確信度表とを同時に参照して対象物を特定する、対象物特定方法。 Among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, a method of identifying a target object,
Register necessary information such as name, attribute, and position for each article to be searched in the search dictionary,
(a) At each repetition time, the distance between the pointing straight line indicating the pointing direction and each article registered in the search dictionary is calculated, and the pointing direction confidence table is obtained by obtaining the article having the shortest distance. Create
(b) For each repetition time, calculate the distance between the line of sight indicating the line-of-sight direction and each article registered in the search dictionary, and create a line-of-sight confidence table by finding the article with the shortest distance. And
(c) An object specifying method for specifying an object by simultaneously referring to the pointing direction certainty table and the gaze direction certainty table.
前記ステップ(b)は、(b1)繰り返しの時間毎に、一方の目の視線ベクトルを示す第1視線直線との距離が最小の物品を推定するステップ、および(b2)繰り返しの時間毎に、他方の目の視線ベクトルを示す第2視線直線との距離が最小の物品を推定するステップを含み、
前記ステップ(a)では、前記ステップ(a1)および前記ステップ(a2)の結果に基づいて前記指差し方向確信度表を作成し、
前記ステップ(b)では、前記ステップ(b1)および前記ステップ(b2)の結果に基づいて前記視線方向確信度表を作成する、請求項1記載の対象物特定方法。 The step (a) includes: (a1) estimating an article having a minimum distance between the fingertip and the first pointing straight line passing through the center of the face at every repetition time; and (a2) at every repetition time. Estimating the article having the smallest distance between the fingertip and the second pointing straight line passing through the elbow,
The step (b) includes (b1) a step of estimating an article having a minimum distance from the first line of sight indicating the line-of-sight vector of one eye for each repetition time, and (b2) for each repetition time. Estimating an article having a minimum distance from a second line of sight indicating a line-of-sight vector of the other eye,
In the step (a), based on the results of the step (a1) and the step (a2), create the pointing direction confidence table,
2. The object specifying method according to claim 1, wherein in the step (b), the line-of-sight direction certainty table is created based on the results of the step (b1) and the step (b2).
検索対象である物品毎に名称、属性、位置などの必要な情報を登録する検索辞書、
繰り返しの時間毎に、指差し方向を示す指差し直線と前記検索辞書に登録している各物
品との距離を計算し、最短距離を持つ物品を求めることによって指差し方向確信度表を作成する指差し方向確信度表作成手段、
繰り返しの時間毎に、視線方向を示す視線直線と前記検索辞書に登録している各物品との距離を計算し、最短距離を持つ物品を求めることによって視線方向確信度表を作成する視線方向確信度表作成手段、および
前記指差し方向確信度表と前記視線方向確信度表とを同時に参照して対象物を特定する手段を備える、対象物特定装置。 Among the articles that are in the same spatial coordinate system between humans, an article that human is directed to pointing and gaze, an apparatus for identifying a target object,
A search dictionary that registers necessary information such as name, attribute, and position for each article to be searched,
For each repetition time, the distance between the pointing line indicating the pointing direction and each article registered in the search dictionary is calculated, and the pointing direction confidence table is created by obtaining the article having the shortest distance. Pointing direction confidence table creation means,
For each repetition time, calculate the distance between the line of sight indicating the line of sight and each item registered in the search dictionary, and create the line of sight direction confidence table by finding the item with the shortest distance An object specifying device comprising: a degree table creating means; and means for simultaneously specifying the object with reference to the pointing direction reliability table and the line-of-sight direction reliability table.
請求項3記載の対象物特定装置、および
前記対象物特定装置で特定した対象物を指示する指示手段を備える、コミュニケーションロボット。 A communication robot,
A communication robot comprising: the object specifying device according to claim 3; and an instruction unit that indicates an object specified by the object specifying device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007326924A JP5145569B2 (en) | 2007-12-19 | 2007-12-19 | Object identification method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007326924A JP5145569B2 (en) | 2007-12-19 | 2007-12-19 | Object identification method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009151419A JP2009151419A (en) | 2009-07-09 |
JP5145569B2 true JP5145569B2 (en) | 2013-02-20 |
Family
ID=40920534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007326924A Active JP5145569B2 (en) | 2007-12-19 | 2007-12-19 | Object identification method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5145569B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5120754B2 (en) * | 2008-03-28 | 2013-01-16 | 株式会社国際電気通信基礎技術研究所 | Motion detection device |
EP2843507A1 (en) * | 2013-08-26 | 2015-03-04 | Thomson Licensing | Display method through a head mounted device |
JP2016053880A (en) * | 2014-09-04 | 2016-04-14 | 株式会社ランディード | On-vehicle system, information processing method, and computer program |
JP6430340B2 (en) | 2015-07-31 | 2018-11-28 | 株式会社東芝 | Position input device and position input method |
AU2018256365A1 (en) | 2017-04-19 | 2019-10-31 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
KR102191488B1 (en) * | 2017-10-27 | 2020-12-15 | 서울대학교산학협력단 | Power and motion sensitized education robot |
JP2020052875A (en) * | 2018-09-28 | 2020-04-02 | 株式会社デンソー | Gesture input apparatus |
JP7198416B2 (en) | 2019-05-29 | 2023-01-04 | トヨタ紡織株式会社 | Vehicle lighting system |
CN112847357B (en) * | 2020-12-31 | 2022-04-19 | 宁波知行物联科技有限公司 | Gear-taking robot control method and system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06337756A (en) * | 1993-05-28 | 1994-12-06 | Daikin Ind Ltd | Three-dimensional position specifying method and virtual space stereoscopic device |
JP4035610B2 (en) * | 2002-12-18 | 2008-01-23 | 独立行政法人産業技術総合研究所 | Interface device |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system, and program |
JP4328136B2 (en) * | 2003-06-19 | 2009-09-09 | 国立大学法人 奈良先端科学技術大学院大学 | Interest level estimation device |
JP4221330B2 (en) * | 2004-05-07 | 2009-02-12 | 日本電信電話株式会社 | Interface method, apparatus, and program |
JP4399603B2 (en) * | 2005-02-28 | 2010-01-20 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP4969462B2 (en) * | 2006-01-24 | 2012-07-04 | 本田技研工業株式会社 | System and method for estimating attention area |
JP5120249B2 (en) * | 2006-03-15 | 2013-01-16 | オムロン株式会社 | Monitoring device and monitoring method, control device and control method, and program |
-
2007
- 2007-12-19 JP JP2007326924A patent/JP5145569B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009151419A (en) | 2009-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5145569B2 (en) | Object identification method and apparatus | |
JP5429462B2 (en) | Communication robot | |
JP5366048B2 (en) | Information provision system | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP2007260822A (en) | Guide robot | |
CN102902271A (en) | Binocular vision-based robot target identifying and gripping system and method | |
JP4599522B2 (en) | Communication robot | |
JP4386367B2 (en) | Communication robot improvement system | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP2007139710A (en) | Walking-aid robot | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
JP6134895B2 (en) | Robot control system, robot control program, and explanation robot | |
WO2019138619A1 (en) | Information processing device, information processing method and program | |
JP6134894B2 (en) | Robot control system and robot | |
JP4399603B2 (en) | Communication robot | |
JP4962940B2 (en) | Route guidance system | |
WO2019087495A1 (en) | Information processing device, information processing method, and program | |
JP2017170568A (en) | Service providing robot system | |
JP2007160427A (en) | Robot control system | |
JP2006205343A (en) | Communication robot system, and robot control device | |
JP2006231447A (en) | Confirmation method for indicating position or specific object and method and device for coordinate acquisition | |
JP2011000656A (en) | Guide robot | |
JP2009223172A (en) | Article estimation system | |
JP6142306B2 (en) | Robot control system, robot, output control program, and output control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5145569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |