JP4516592B2 - 移動型ロボット - Google Patents

移動型ロボット Download PDF

Info

Publication number
JP4516592B2
JP4516592B2 JP2007316246A JP2007316246A JP4516592B2 JP 4516592 B2 JP4516592 B2 JP 4516592B2 JP 2007316246 A JP2007316246 A JP 2007316246A JP 2007316246 A JP2007316246 A JP 2007316246A JP 4516592 B2 JP4516592 B2 JP 4516592B2
Authority
JP
Japan
Prior art keywords
resolution
image processing
unit
image
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007316246A
Other languages
English (en)
Other versions
JP2009136968A (ja
Inventor
信男 檜垣
龍人 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007316246A priority Critical patent/JP4516592B2/ja
Priority to US12/315,411 priority patent/US8090193B2/en
Publication of JP2009136968A publication Critical patent/JP2009136968A/ja
Application granted granted Critical
Publication of JP4516592B2 publication Critical patent/JP4516592B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、視覚センサが取得した撮影画像を画像処理し、認識対象に関する認識情報を生成する自律移動可能な移動型ロボットに関する。
従来から、入力画像の特徴ある部分(注目部分)を、他の部分より高い解像度とすることによって、遠距離の認識対象を、少ない演算量で正確に認識できる発明が開示されている。例えば、特許文献1に記載の発明は、最明点又は最暗点を注目部分として、他の部分より解像度を高くしている。
特開平5−192895号公報
しかし、特許文献1に記載のロボットは、ロボットの動作、ロボットの周囲に存在する人間や障害物等の認識対象の位置又はロボットが実行するタスクに基づいて注目領域を設定していないので、十分な認識精度が得られていない問題がある。例えば、特許文献1に記載のロボットでは、ロボットが右側に方向転換するときにロボットの左側の最明点を注目部分とする場合があり、十分な認識精度が得られず、結果的に、ロボットのスムーズな移動が妨げられていた。
本発明は、ロボットの動作、ロボットが実行するタスク又はロボットの周囲に存在する認識対象に対応でき、認識対象の認識精度を高くすると共に画像処理での演算量の増加を抑える移動型ロボットを提供することを目的とする。
前記した課題を解決するため、請求項1に係る移動型ロボットは、視覚センサが取得した撮影画像を画像処理し、当該撮影画像に含まれる認識対象に関する認識情報を生成する画像処理部と、前記画像処理部が生成した認識情報に基づいて統括制御を行う制御部と、を備える移動型ロボットであって、前記画像処理部は、前記視覚センサが取得した撮影画像を縮小して前記撮影画像より解像度が低い低解像度画像と、当該低解像度画像より解像度が高い1以上の高解像度画像と、を生成する複数解像度画像生成部と、前記複数解像度画像生成部が生成した低解像度画像を画像処理し、当該低解像度画像に含まれる認識対象に関する対象情報を生成する低解像度画像処理部と、所定の入力情報又は予め設定したルールに基づいて、前記高解像度画像を画像処理するか否かを判定すると共に、前記複数解像度画像生成部が2以上の高解像度画像を生成した場合には何れの解像度の前記高解像度画像を画像処理するかを判定し、前記低解像度画像の一部に解像度処理領域を設定する画像処理判定部と、前記高解像度画像における前記画像処理判定部が設定した解像度処理領域に対応する領域を画像処理し、前記高解像度画像に含まれる認識対象に関する対象情報を生成する高解像度画像処理部と、前記低解像度画像処理部が生成した対象情報と前記高解像度画像処理部が生成した対象情報とが一致するか否かを判定すると共に、両対象情報が一致する場合には前記両対象情報を用いて、前記両対象情報が一致しない場合には前記高解像度画像処理部が生成した対象情報を用いて、前記認識情報を生成する画像処理結果統合部と、を備える構成とした。
かかる構成によれば、移動型ロボットは、低解像度画像処理部によって、低解像度画像に含まれる認識対象に関する対象情報を生成する。また、移動型ロボットは、画像処理判定部によって、入力情報又はルールに基づいて、高解像度画像の画像処理の有無、及び、解像度を判定し、低解像度画像の一部に解像度処理領域を設定する。そして、移動型ロボットは、高解像度画像処理部によって、高解像度画像の一部(解像度処理領域に対応する領域)を画像処理し、高解像度画像に含まれる認識対象に関する対象情報を生成する。さらに、画像処理結果統合部によって、低解像度画像に含まれる対象情報と高解像度画像に含まれる対象情報とが一致するか否かを判定し、その判定結果に基づいて認識情報を生成する。これにより、移動型ロボットは、より鮮明な高解像度画像から認識情報を生成でき、遠距離に位置する認識対象をノイズと切り分け易くなる。また、移動型ロボットは、高解像度画像の一部のみを画像処理し、高解像度画像の全体を画像処理する必要がない。
ここで、移動型ロボットは、撮影画像の歪補正を行い、撮影画像を平均化又は撮影画像から画素を間引いて、撮影画像を縮小する。また、移動型ロボットは、視差画像の生成、過去のフレーム(画像)間で相関演算、2値化処理、エッジ抽出処理、人物の顔領域抽出等の画像処理を行う。
請求項2に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、前記画像処理判定部は、前記ルールに基づいて、前記低解像度画像の中央部分を前記解像度処理領域として設定することを特徴とする。
かかる構成によれば、移動型ロボットは、低解像度画像の中央部分に基づいて、認識情報を生成する。
請求項3に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、前記画像処理判定部は、前記ルールに基づいて、前記解像度処理領域を水平方向に移動させて繰り返し設定することを特徴とする。
かかる構成によれば、移動型ロボットは、低解像度画像の中央部分から左端側若しくは右端側、右端側から左端側又は左端側から右端側と、水平方向に解像度処理領域を移動させ、認識情報を生成する。
請求項4に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、前記低解像度画像処理部は、前記低解像度画像に含まれる人物の顔領域を前記入力情報として抽出し、前記画像処理判定部は、前記低解像度画像処理部が抽出した人物の顔領域を前記解像度処理領域として設定することを特徴とする。
かかる構成によれば、移動型ロボットは、低解像度画像に含まれる人物の顔領域に基づいて、認識情報を生成する。
請求項5に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、当該移動型ロボットの進行予定方向が前記入力情報として前記画像処理判定部に入力され、前記画像処理判定部は、入力された前記進行予定方向に基づいて、前記解像度処理領域を設定することを特徴とする。
かかる構成によれば、移動型ロボットは、移動型ロボットの進行予定方向に基づいて、認識情報を生成する。
請求項6に係る移動型ロボットは、請求項5に係る移動型ロボットにおいて、当該移動型ロボットの移動速度又は移動予定速度が前記入力情報として前記画像処理判定部に入力され、前記画像処理判定部は、入力された前記移動速度又は前記移動予定速度が速くなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする。
かかる構成によれば、移動型ロボットは、移動速度又は移動予定速度が速くなるほど、解像度が高い画像を画像処理すると共に、解像度処理領域を狭くすることで、その演算量の増加を抑える。
請求項7に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、認識対象が発生させる音源の方向及び音圧を特定する音源定位部から、当該音源の方向及び当該音圧が前記入力情報として前記画像処理判定部に入力され、前記画像処理判定部は、入力された前記音源の方向に基づいて、前記解像度処理領域を設定することを特徴とする。
する。
かかる構成によれば、移動型ロボットは、認識対象が発生させる音源の方向に基づいて、認識情報を生成する。
請求項8に係る移動型ロボットは、請求項7に係る移動型ロボットにおいて、前記画像処理判定部は、入力された前記音圧が小さくなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする。
かかる構成によれば、移動型ロボットは、音圧が小さくなるほど、解像度が高い画像を画像処理すると共に、解像度処理領域を狭くすることで、その演算量の増加を抑える。
請求項9に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、検知対象が装着したタグの方向及び前記タグまでの距離を検知する対象検知部から、当該タグの方向及び当該タグまでの距離が前記入力情報として前記画像処理判定部に入力され、前記画像処理判定部は、入力された前記タグの方向に基づいて、前記解像度処理領域を設定することを特徴とする。
かかる構成によれば、検知対象が装着したタグの方向に基づいて、認識情報を生成する。
請求項10に係る移動型ロボットは、請求項9に係る移動型ロボットにおいて、前記画像処理判定部は、入力された前記タグまでの距離が遠くなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする。
かかる構成によれば、移動型ロボットは、タグまでの距離が遠くなるほど、解像度が高い画像を画像処理すると共に、解像度処理領域を狭くすることで、その演算量の増加を抑える。
請求項11に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、当該移動型ロボットは、物品を運搬する運搬タスクを実行し、前記低解像度画像処理部は、前記低解像度画像に含まれる前記物品を載せた所定仕様の運搬容器を前記入力情報として抽出し、前記画像処理判定部は、当該移動型ロボットが実行しているタスクが前記運搬タスクであるか否かを判定すると共に、前記低解像度画像処理部が抽出した前記運搬容器を前記解像度処理領域として設定することを特徴とする。
かかる構成によれば、移動型ロボットが運搬タスクを実行する際に、運搬容器に基づいて、認識情報を生成する。
請求項12に係る移動型ロボットは、請求項1に係る移動型ロボットにおいて、当該移動型ロボットは、人物を案内する案内タスクを実行し、前記人物を案内する案内方向が前記入力情報として前記画像処理判定部に入力され、前記画像処理判定部は、当該移動型ロボットが実行しているタスクが前記案内タスクであるか否かを判定すると共に、入力された前記案内方向に基づいて、前記解像度処理領域を設定することを特徴とする。
かかる構成によれば、移動型ロボットは案内タスクを実行する際に、案内方向に基づいて、認識情報を生成する。
本発明に係る移動型ロボットによれば、以下のような優れた効果を奏する。
請求項1に係る移動型ロボットは、高解像度画像処理部が、所定の入力情報又は予め設定されたルールに基づいて解像度処理領域を設定するので、ロボットの動作、実行タスク又は周囲に存在する認識対象に対応できる。また、請求項1に係る移動型ロボットは、高解像度画像処理部が、より鮮明な高解像度画像の一部のみを画像処理するので、認識対象の認識精度を高くすると共に画像処理での演算量の増加を抑えることができる。
請求項2に係る移動型ロボットは、ロボットの正面又は頭部の方向に位置する認識対象の認識精度を高くでき、スムーズな前進を可能とする。
請求項3に係る移動型ロボットは、人間等、水平方向に移動する認識対象の認識精度を高くすることができる。
請求項4に係る移動型ロボットは、遠距離に位置する人物の顔認識の精度を高くすることができる。
請求項5に係る移動型ロボットは、進行予定方向に位置する認識対象を素早く認識することができるため、スムーズな方向転換を可能とする。
請求項6に係る移動型ロボットは、遠距離に位置する認識対象の認識精度を高くすることができるため、移動速度を速くすることが可能となる。
請求項7に係る移動型ロボットは、音を発生させる認識対象を素早く認識することができる。
請求項8に係る移動型ロボットは、音を発生させる認識対象が遠距離に位置する場合でも、認識対象の認識精度を高くすることができる。
請求項9に係る移動型ロボットは、検知対象が装着したタグを素早く認識することができる。
請求項10に係る移動型ロボットは、検知対象が装着したタグが遠距離に位置する場合でも、認識対象の認識精度を高くすることができる。
請求項11に係る移動型ロボットは、運搬容器を素早く認識することができるため、運搬タスクをスムーズに実行することができる。
請求項12に係る移動型ロボットは、案内方向に位置する認識対象を素早く認識することができるため、案内タスクをスムーズに実行することができる。
以下、図面を参照して本発明の移動型ロボット(以下「ロボット」という)を実施する
ための最良の形態(以下「実施形態」という)について詳細に説明する。まず、本発明の
実施形態に係るロボットを含むロボット制御システムAの全体構成について図1を参照し
て説明する。図1は、本発明の実施形態に係るロボットを含むロボット制御システムの構
成を模式的に示す図である。
(ロボット制御システムAの構成)
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
図1に示すように、このロボット制御システムAは、移動機能を備えた複数のロボットR,R,R(ただし、ロボットを特定しない場合は、単にロボットRという)を有しており、各ロボットRは、管理用コンピュータ3においてロボットR毎に予め設定されたタスクの実行計画(タスクスケジュール)に従って、タスクを実行する。
ここでは、自律移動型の2足歩行ロボットを一例として説明する。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRと、荷物をある人に渡すという内容のタスク(運搬タスク)を実行中のロボットRと、新たなタスクが割り当てられるまで待機中のロボットRとが、例示されている。
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図6参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば、特開2001−62760号公報に開示されている。
このロボットRは、例えば、案内タスクを実行するときには、人物Hを所定の案内領域(オフィスや廊下などの移動領域)で案内する。ここでは、ロボットRは、周囲に光(例えば、赤外光、紫外光、レーザ光など)および電波を発信して周辺領域に、タグTを備えた人物Hが存在するか否かを検知し、検知した人物Hの位置を特定して接近し、タグTに基づいて、人物Hが誰であるのかという個人識別を行う。このタグTは、ロボットRが人物の位置(距離および方向)を特定するために発する赤外光および電波を受信する。このタグTは、受信した赤外光に含まれる受光方向を示す信号と、受信した電波に含まれるロボットIDとに基づいて、タグ識別番号を含む受信報告信号を生成し、当該ロボットRに返信する。この受信報告信号を受信したロボットRは、受信報告信号に基づいて、タグTを装着した人物Hまでの距離と方向とを認識し、当該人物Hに接近することができる。
ロボットRは、あるタスク(例えば案内タスクや運搬タスクなど)を実行するために案内領域内を自律移動する場合に、レーザスリット光または赤外線を照射して、路面状態あるいは路面上のマークを探索するようになっている。すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材である。また、マークMは位置データを有しており、当該位置データは地図データに含まれる形で記憶部30(図6参照)に記憶されている。なお、地図データは、案内領域内の特定の場所に設置されたマークMの位置データと、当該位置データに所定の幅(範囲)を持たせたマークMの設置領域に関するデータとを含んでいる。また、マークMの設置領域とは、マークMから所定距離の範囲内にある領域をいい、例えば、マークMを中心とした半径が1〜3mの円形領域や、マークMの手前(ロボット側)3mの矩形領域などのように任意に設定される。
図1に戻って、ロボット制御システムAの構成の説明を続ける。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
ロボット専用ネットワーク2は、基地局1と、管理用コンピュータ3と、ネットワーク4とを接続するものであり、LAN(Local Area Network)などにより実現されるものである。
管理用コンピュータ3は、複数のロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動・発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、検知された人物の氏名や、ロボットRの周辺の地図(ローカル地図)などがこれに相当し、これらの情報は、管理用コンピュータ3の記憶部3aに記憶されている。
図3は、図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。ここでは、案内領域301は、図3(a)に示すように、建物のあるフロアの長方形の領域である。ロボットRやロボットRが案内すべき人物は、案内領域301の出入口302の外側の廊下303を通って案内領域301に入る。出入口302の内側には、ホール304が広がっており、ホール304の奥の隅には受付305が配置され、案内領域301の壁側には個室として仕切られた複数の会議室306(306a,306b,306c)が設けられている。受付305は、L字型のカウンタテーブル305aと、受付スタッフが配置されるカウンタスペース305bとから成る。カウンタスペース305bには、基地局1が設置されている。なお、管理用コンピュータ3は、通路や部屋などのローカル地図の情報を位置座標データと関連づけて登録したローカルマップ(ローカル地図データ)と、ローカルマップを集積したタスク実行エリアの地図情報であるグローバルマップとを記憶部3a(図1参照)に保持している。
また、管理用コンピュータ3は、ロボットRに実行させるタスクに関する情報(タスクデータ)を記憶するタスク情報データベースを記憶部3a(図1参照)に保持している。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態、などが、情報項目として含まれている。
また、管理用コンピュータ3は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)を、ロボットR毎に設定するものである。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
再び、図1に戻って、ロボット制御システムAの構成の説明を続ける。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
[ロボット]
以下、ロボットRについて詳細に説明する。
ロボットRは、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、図6に示すように、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部(制御部)40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
[カメラ]
カメラ(視覚センサ)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge−Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
[画像処理部]
画像処理部10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物、人物等の認識対象を認識する部分である。この画像処理部10は、複数解像度画像生成部11と、低解像度画像処理部12と、画像処理判定部13と、高解像度画像処理部14と、画像処理結果統合部15と、を含んで構成される。
複数解像度画像生成部11は、カメラC,Cが取得した撮影画像を縮小して撮影画像より解像度が低い低解像度画像と、低解像度画像より解像度が高い1以上の高解像度画像とを生成するものである。ここで、複数解像度画像生成部11は、カメラC,Cが撮影した撮影画像を歪補正し、撮影画像において、2×2画素を1画素に平均化し又は所定間隔で画素を間引いて撮影画像を縮小する。また、複数解像度画像生成部11は、低解像度画像を低解像度画像処理部12に出力し、高解像度画像を画像処理判定部13に出力する。
例えば、カメラC,Cが1280×960画素の撮影画像を撮影する場合、複数解像度画像生成部11は、撮影画像を640×480画素に縮小した低解像度画像と、撮影画像をそのまま用いた高解像度画像と、解像度が異なる2種類の画像を生成する。
また、複数解像度画像生成部11は、解像度が異なる3種類以上の画像を生成しても良い。例えば、複数解像度画像生成部11は、撮影画像を640×480画素に縮小した低解像度画像と、撮影画像を800×600に縮小した高解像度画像(中)と、撮影画像をそのまま用いた高解像度画像(高)と、解像度が異なる3種類の画像を生成する。
なお、認識対象には、人物、障害物、及び、検知対象が装着したタグ、物品を載せる運搬容器が含まれる。また、対象情報には、対象の種別、対象の方向、対象までの距離、人物の顔領域、画像内における認識対象の領域等、認識対象に関する様々な情報が含まれる。
低解像度画像処理部12は、複数解像度画像生成部11が生成した低解像度画像を画像処理し、低解像度画像に含まれる認識対象に関する対象情報を生成するものである。ここで、低解像度画像処理部12は、複数解像度画像生成部11が生成した画像のうち、最も解像度が低い画像を画像処理する。
そして、低解像度画像処理部12は、左右のカメラC,Cのそれぞれが撮影した2枚の撮影画像から一組の低解像度画像を生成し、ブロック相関により一組の低解像度画像中の対応する各画素の視差を計算して視差画像を生成する。なお、この視差は、ロボットRから撮影された認識対象までの距離を表すものである。また、認識対象までの距離に関する情報が不要な場合、低解像度画像処理部12は、前記した一組の低解像度画像のうち、一方のみを画像処理する。
低解像度画像処理部12は、移動体(認識対象)の抽出をするために、過去の数フレーム(コマ)の画像を記憶しており、過去のフレーム(画像)間で相関演算等を行って、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出する。
低解像度画像処理部12は、低解像度画像から抽出した移動体に、頭部領域を設定して顔領域および顔の位置を認識する。なお、同様にして、抽出した移動体の一部分の大きさ、形状などから手の位置も認識される。人物の顔領域の認識の詳細については、例えば、特開2006−171929号公報に開示されている。
低解像度画像処理部12は、障害物(認識対象)を抽出するために、低解像度画像のエッジを抽出したエッジ抽出画像を生成し、又は、その濃度値を基準として、低解像度画像の各画素を白又は黒に変換した2値化画像を生成する。さらに、ロボットRが物品を運搬する場合(運搬タスクを実行)、低解像度画像処理部12は、低解像度画像から、その物品が載せられた運搬容器を抽出する。
ここで、低解像度画像処理部12は、人物の顔領域や運搬容器を入力情報として画像処理判定部13に出力し、生成した対象情報を画像処理結果統合部15に出力する。
画像処理判定部13は、所定の入力情報又は予め設定したルールに基づいて、高解像度画像を画像処理するか否かを判定すると共に、複数解像度画像生成部11が2以上の高解像度画像を生成した場合には何れの解像度の高解像度画像を画像処理するかを判定し、低解像度画像の一部に解像度処理領域を設定するものである。また、画像処理判定部13は、高解像度画像処理部14に、画像処理を行うと判定した解像度の高解像度画像と、解像度処理領域を高解像度画像処理部14に出力する。一方、画像処理判定部13は、解像度画像を画像処理しないと判定した場合には、その判定情報を画像処理結果統合部15に出力する。
以下、画像処理判定部13での判定及び解像度処理領域の設定について、第1例〜第11例を示して具体的に説明する。なお、以下の例では、音源定位部21c、主制御部40、内部状態検出部45、行動計画管理部46、対象検知部80等の説明を省略し、後記することとした。
<第1例:中央部分に解像度処理領域を設定>
画像処理判定部13は、ルールに基づいて、低解像度画像の中央部分を解像度処理領域として設定する。ここでは、画像処理判定部13は、低解像度画像の中央部分に、例えば、横200×縦100画素の矩形状の解像度処理領域を設定する。
この場合、入力情報が入力されないので、画像処理判定部13は、以下のルールに基づいて、解像度処理領域を設定する。例えば、ロボットRの稼働中、常に、解像度処理領域を設定するというルールがある。また、ロボットRが移動する場合に解像度処理領域を設定し、ロボットRが停止する場合には解像度処理領域の設定を解除するルールとしても良い。さらに、解像度処理領域を設定し、その後、所定時間内に認識対象が認識されなかった場合、解像度処理領域の設定を解除するルールとしても良い。ここで、画像処理判定部13は、解像度処理領域を設定する場合、高解像度画像を画像処理すると判定し、解像度処理領域の設定を解除する場合、高解像度画像を画像処理しないと判定する。
なお、解像度処理領域の大きさ(面積)、形状は特に制限されず、解像度処理領域を矩形状、円形状又は水平方向が長軸となる楕円形状としても良い。
<第2例:水平方向に繰り返し解像度処理領域を設定>
画像処理判定部13は、ルールに基づいて、解像度処理領域を水平方向に移動させて繰り返し設定する。ここで、画像処理判定部13は、先のフレームとなる低解像度画像の中央部分に解像度処理領域として設定しておき、次のフレームとなる低解像度画像では、その解像度処理領域を右側又は左側に所定画素数移動させる。そして、画像処理判定部13は、解像度処理領域が低解像度画像の右端又は左端に達するまでこれを繰り返す。解像度処理領域が低解像度画像の右端又は左端に達した場合、画像処理判定部13は、低解像度画像の中央部分に解像度処理領域を再度設定し、又は、反対側の端に向けて解像度処理領域を再度移動させても良い。
また、画像処理判定部13は、予め、低解像度画像の右端又は左端に解像度処理領域を設定し、反対側の端に向けて解像度処理領域を移動させても良い。
なお、解像度処理領域の大きさ(面積)、形状は特に制限されず、解像度処理領域を矩形状、円形状又は水平方向が長軸となる楕円形状としても良い。
<第3例:人物の顔領域に解像度処理領域を設定>
画像処理判定部13は、低解像度画像処理部12が抽出した人物の顔領域を解像度処理領域として設定する。図7は、低解像度画像処理部12が低解像度画像から顔領域を抽出した例を示す図である。ここで、低解像度画像処理部12は、4人分の顔領域を抽出した顔領域画像を生成する。この顔領域画像が入力された画像処理判定部13は、この顔領域を解像度処理領域(図8下段のハッチング以外の部分参照)として設定する。
なお、画像処理判定部13は、低解像度画像に、1箇所の解像度処理領域を設定し、又は、2箇所以上の解像度処理領域を設定しても良い。
<第4例:進行予定方向に基づいて解像度処理領域を設定>
画像処理判定部13は、入力された進行予定方向に基づいて、解像度処理領域を設定する。ここで、ロボットRの進行予定方向が正面、すなわち、ロボットRが前進する場合、画像処理判定部13は、低解像度画像の中央部分に解像度処理領域を設定する。また、画像処理判定部13は、ロボットRの進行予定方向が右側、すなわち、ロボットRが右方向に方向転換する場合、低解像度画像の右側に解像度処理領域を設定し、ロボットRの進行予定方向が左側、すなわち、ロボットRが左方向に方向転換する場合、低解像度画像の左側に解像度処理領域を設定する。
ロボットRが現在向いている方向と進行予定方向との差が小さい場合、すなわち、ロボットRの方向転換量が小さい場合、画像処理判定部13は、低解像度画像の中央部分から進行予定方向側に少しずらして解像度処理領域を設定する。一方、ロボットRの方向転換量が大きい場合、画像処理判定部13は、低解像度画像において、進行予定方向側の端(右端又は左端)に近づけて解像度処理領域を設定する。
また、ロボットRの方向転換量が大きく、その進行予定方向がカメラC,Cの撮影可能範囲から外れる場合がある。この場合、画像処理判定部13は、進行予定方向側の端(右端又は左端)に解像度処理領域を設定する。このように解像度処理領域を設定することで、ロボットRの頭部R1を進行予定方向に向けて、進行予定方向から認識対象を素早く認識することができ、また、認識対象を認識するためのロボットRの方向転換量を最小限に抑えることができる。
なお、行動計画管理部46が、管理する行動計画からロボットRの進行予定方向を入力情報として画像処理判定部13に出力する。また、自律移動制御部50が、ロボットRの進行予定方向を入力情報として情報を画像処理判定部13に出力する。
この場合、図4に示すように、主制御部40が、管理用コンピュータ3のタスク情報データベース400から実行しているタスクを取得し、ロボットRの進行予定方向を求める。主制御部40は、例えば、ロボットRの現在位置から見て、タスクに含まれる終了位置の方向をロボットRの進行予定方向を入力情報として、画像処理判定部13に出力する。
また、ロボットRが現在向いている方向を示す情報は、主制御部40を介してジャイロセンサSR1から入力され、ロボットRの現在位置を示す情報は、主制御部40を介してGPS受信機SR2から入力される。
<第5例:移動予定速度に基づいて解像度を変更>
画像処理判定部13は、入力された移動速度又は移動予定速度が速くなるほど、解像度が高い高解像度画像を画像処理すると判定すると共に、解像度処理領域の面積を狭くする。このように判定するのは、ロボットRの移動速度又は移動予定速度が速くなるほど、解像度が高い画像を画像処理し、遠距離に位置する認識対象の認識精度を向上させるためのである。ここでは、解像度処理領域は、ロボットRの進行予定方向に基づいて設定する。
画像処理判定部13は、複数解像度画像生成部11が2種類の画像を生成した場合、以下のように判定する。
停止時:高解像度画像を画像処理しないと判定
歩行時:高解像度画像を画像処理すると判定
走行時:高解像度画像を画像処理すると判定
画像処理判定部13は、複数解像度画像生成部11が3種類の画像を生成した場合、以下のように判定する。
停止時:高解像度画像を画像処理しないと判定
歩行時:高解像度画像(中)を画像処理すると判定
走行時:高解像度画像(高)を画像処理すると判定
画像処理判定部13は、解像度処理領域を、歩行時には横200×縦100画素の矩形状に設定し、走行時には横100×縦50画素の矩形状に設定する。ここで、解像度が高い画像を画像処理する場合でも、解像度処理領域を狭くするため、高解像度画像処理部14での演算量の増加を抑えることができる。
ここで、ロボットRの移動予定速度の例を、以下に示す。また、移動速度が入力された場合も以下と同様である。
停止時:ロボットRの移動予定速度=0(m/s)
歩行時:0(m/s)<ロボットRの移動予定速度≦3(m/s)
走行時:ロボットRの移動予定速度>3(m/s)
なお、行動計画管理部46が、管理する行動計画からロボットRの移動予定速度を入力情報として画像処理判定部13に出力する。また、自律移動制御部50が、ロボットRの移動速度を入力情報として画像処理判定部13に出力する。
この場合、図4に示すように、主制御部40が、管理用コンピュータ3のタスク情報データベース400から実行しているタスクを取得し、ロボットRの移動予定速度を求める。主制御部40は、例えば、タスクに含まれる開始位置と終了位置との差から移動距離を求め、その移動距離を所要時間で除算した値を入力情報(移動予定速度)として画像処理判定部13に出力する。
<第6例:音源の方向に基づいて解像度処理領域を設定>
画像処理判定部13は、入力された音源の方向に基づいて、解像度処理領域を設定する。ここで、音源の方向が頭部R1の正面の場合、画像処理判定部13は、低解像度画像の中央部分に解像度処理領域を設定する。また、画像処理判定部13は、音源の方向が頭部R1の右側の場合、低解像度画像の右側に解像度処理領域を設定し、音源の方向が頭部R1の左側の場合、低解像度画像の左側に解像度処理領域を設定する。
頭部R1が現在向いている方向と音源の方向との差が小さい場合、画像処理判定部13は、低解像度画像の中央部分から音源の方向側に少しずらして解像度処理領域を設定する。一方、頭部R1が現在向いている方向と音源の方向との差が大きい場合、画像処理判定部13は、低解像度画像において、音源の方向側の端(右端又は左端)に近づけて解像度処理領域を設定する。
また、その音源がロボットRの背面側に位置する等、その音源がカメラC,Cの撮影可能範囲から外れる場合がある。この場合、画像処理判定部13は、音源の方向側の端(右端又は左端)に解像度処理領域を設定する。このように解像度処理領域を設定することで、ロボットRの頭部R1を音源の方向に向けて、音源の方向から認識対象を素早く認識することができ、また、音源を認識するためのロボットRの方向転換量を最小限に抑えることができる。
なお、主制御部40が、音源定位部21cが特定した音源の方向及び音圧を入力情報として画像処理判定部13に出力する。また、頭部R1が現在向いている方向は、前記したロボットRが現在向いている方向を示す情報に、自律移動制御部50から取得できる頭部R1が現在向いている方向を示す情報を加えて求めることができる。
<第7例:音圧に基づいて解像度を変更>
画像処理判定部13は、入力された音圧が小さくなるほど、解像度が高い高解像度画像を画像処理すると判定すると共に、解像度処理領域の面積を狭くする。このように判定するのは、音圧が小さくなるほど、音源となる認識対象が遠距離に位置すると考えられるためのである。ここでは、解像度処理領域は、音源の方向に基づいて設定する。
画像処理判定部13は、複数解像度画像生成部11が2種類の画像を生成した場合、以下のように判定する。
音圧レベル低:高解像度画像を画像処理すると判定
音圧レベル中:高解像度画像を画像処理すると判定
音圧レベル高:高解像度画像を画像処理しないと判定
画像処理判定部13は、複数解像度画像生成部11が3種類の画像を生成した場合、以下のように判定する。
音圧レベル低:高解像度画像(高)を画像処理すると判定
音圧レベル中:高解像度画像(中)を画像処理すると判定
音圧レベル高:高解像度画像を画像処理しないと判定
画像処理判定部13は、解像度処理領域を、音圧レベル低のときには横200×縦100画素の矩形状に設定し、音圧レベル中のときには横100×縦50画素の矩形状に設定する。ここで、音圧レベルの例を、以下に示す。
音圧レベル低:音圧≦20(dB)
音圧レベル中:20(dB)<音圧≦60(dB)
音圧レベル高:音圧>60(dB)
<第8例:タグの方向に基づいて解像度処理領域を設定>
画像処理判定部13は、入力されたタグTの方向に基づいて、解像度処理領域を設定する。ここで、図8に示すように、検知対象(人物H)が装着したタグTの方向が頭部R1の正面の場合、画像処理判定部13は、低解像度画像の中央部分に解像度処理領域を設定する。また、画像処理判定部13は、タグTの方向が頭部R1の右側の場合、低解像度画像の右側に解像度処理領域を設定し、タグTの方向が頭部R1の左側の場合、低解像度画像の左側に解像度処理領域を設定する。
頭部R1が現在向いている方向とタグTの方向との差が小さい場合、画像処理判定部13は、低解像度画像の中央部分からタグTの方向側に少しずらして解像度処理領域を設定する。一方、頭部R1が現在向いている方向とタグTの方向との差が大きい場合、画像処理判定部13は、低解像度画像において、タグTの方向側の端(右端又は左端)に近づけて解像度処理領域を設定する。
また、そのタグTを装着した人物HがロボットRの背面側に位置する等、タグTがカメラC,Cの撮影可能範囲から外れる場合がある。この場合、画像処理判定部13は、タグTの方向側の端(右端又は左端)に解像度処理領域を設定する。このように解像度処理領域を設定することで、ロボットRの頭部R1をタグTの方向に向けて、タグTの方向から人物Hを素早く認識することができ、また、人物Hを認識するためのロボットRの方向転換量を最小限に抑えることができる。
なお、主制御部40が、対象検知部80が検知したタグの方向及びタグTまでの距離を入力信号として画像処理判定部13に出力する。
<第9例:タグの距離に基づいて解像度を変更>
画像処理判定部13は、入力されたタグTまでの距離が遠くなるほど、解像度が高い高解像度画像を画像処理すると判定すると共に、解像度処理領域の面積を狭くする。ここで、図8に示すように、ロボットRの周辺領域は、ロボットRからの距離に基づいて4つのエリアに区分されている。すなわち、ロボットRからの距離が短い順に、エリア1、エリア2、エリア3、そしてエリア4と定義されている。この各エリアと電波強度(対象検知部80が検知するタグTまでの距離)とは、予め関連づけられている。ここでは、解像度処理領域は、タグTの方向に基づいて設定する。
画像処理判定部13は、複数解像度画像生成部11が2種類の画像を生成した場合、以下のように判定する。
エリア1:高解像度画像を画像処理しないと判定
エリア2:高解像度画像を画像処理しないと判定
エリア3:高解像度画像を画像処理すると判定
エリア4:高解像度画像を画像処理すると判定
画像処理判定部13は、複数解像度画像生成部11が3種類の画像を生成した場合、以下のように判定する。
エリア1:高解像度画像を画像処理しないと判定
エリア2:高解像度画像(中)を画像処理すると判定
エリア3:高解像度画像(中)を画像処理すると判定
エリア4:高解像度画像(高)を画像処理すると判定
画像処理判定部13は、解像度処理領域を、エリア2では横200×縦100画素の矩形状に設定し、エリア3では横150×縦75画素の矩形状に設定し、エリア3では横100×縦50画素の矩形状に設定する。
<第10例:運搬タスクに連携して解像度処理領域を設定>
画像処理判定部13は、ロボットRが実行しているタスクが運搬タスクであるか否かを判定する。ここで、主制御部40が、管理用コンピュータ3のタスク情報データベース400から実行しているタスクを取得し、その内容(種別)を画像処理判定部13に出力する。また、内部状態検出部45がステータス情報に格納されたタスクの内容を画像処理判定部13に出力しても良い。このタスクの内容に基づいて、画像処理判定部13は、ロボットRが運搬タスクを実行しているか判定する。そして、画像処理判定部13は、低解像度画像処理部11が抽出した運搬容器を解像度処理領域として設定する。
ここで、図9に示すように、ロボットRは、物品を所定仕様の運搬容器N(トレイ)に載せて運搬する。また、ロボットRが画像認識しやすいように運搬容器Nの表面には所定の画像認識用パターンが付してある。図9の例では、所定のパターンとして所定のロゴを着けているが、パターンはこれに限らず、運搬容器Nの地の色と異なる色であれば任意の色の任意のマークまたはパターンであれば、何でもよい。運搬容器Nの色は、運搬容器Nの認識のためには、運搬容器Nが置かれる置き場所の表面の色とは異なる方が好ましい。なお、ロボットRが物品を運搬することについての詳細は、例えば、特開2007−160447号公報に開示されている。
<第11例:案内タスクに連携して解像度処理領域を設定>
画像処理判定部13は、ロボットRが実行しているタスクが案内タスクであるか否かを判定すると共に、人物を案内する方向に基づいて、解像度処理領域を設定する。ここで、主制御部40が、管理用コンピュータ3のタスク情報データベース400から実行しているタスクを取得し、その内容を画像処理判定部13に出力する。このタスクの内容に基づいて、画像処理判定部13は、ロボットRが運搬タスクを実行しているか判定する。また、画像処理判定部13は、実行しているタスクに格納された終了位置(図4参照)を入力情報(案内方向)として、解像度処理領域を設定する。なお、ロボットRが人物を案内することについての詳細は、例えば、特開2004−299026号公報に開示されている。
以下、図6に戻り、説明を続ける。
高解像度画像処理部14は、高解像度画像における画像処理判定部13が設定した解像度処理領域に対応する領域を画像処理し、高解像度画像に含まれる認識対象に関する対象情報を生成するものである。ここで、高解像度画像処理部14は、高解像度画像における解像度処理領域に対応する領域を、低解像度画像処理部12と同様に、視差画像の生成、移動体の抽出、人物の顔領域の認識、エッジ抽出処理や2値化処理等の画像処理を行って対象情報を生成し、画像処理結果統合部15に出力する。
画像処理結果統合部15は、低解像度画像処理部12が生成した対象情報と高解像度画像処理部14が生成した対象情報とが一致するか否かを判定すると共に、両対象情報が一致する場合には両対象情報を用いて、両対象情報が一致しない場合には高解像度画像処理部14が生成した対象情報を用いて、認識情報を生成するものである。
例えば、低解像度画像処理部12が生成した対象情報が「ロボットの正面5メートル先に障害物有り」であり、高解像度画像処理部14が生成した対象情報が「ロボットの正面10メートル先に障害物有り」である場合、両対象情報が一致しないと言える。この場合、画像処理結果統合部15は、高解像度画像処理部14が生成した対象情報を用いて、認識情報を生成する。ここでは、画像処理結果統合部15は、認識対象の種別が障害物、認識対象までの距離が10メートル、及び、認識対象の方向がロボットRの正面(ロボットRの向いている方向を基準とした対象の相対的な方向)という認識情報を生成して主制御部40に出力する。
一方、低解像度画像処理部12が生成した対象情報と高解像度画像処理部14が生成した対象情報が一致している場合には、画像処理結果統合部15は、同一内容を示す両対象情報を用いて、認識情報を生成して主制御部40に出力する。
なお、画像処理判定部13が高解像度画像を画像処理しないと判定した場合には、画像処理結果統合部15は、低解像度画像処理部12が生成した対象情報を用いて、認識情報を生成して主制御部40に出力する。ここでは、認識情報には、対象の種別、対象の方向、対象までの距離、人物の顔領域、画像内における認識対象の領域等、認識対象に関する様々な情報が含まれる。
[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bおよび音源定位部21cを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
[記憶部]
記憶部30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
[主制御部]
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
[自律移動制御部]
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2、脚部R3および胴部R4を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1の首関節を駆動させる首制御部、腕部R2の手の先の指関節を駆動させる手制御部、腕部R2の肩関節、肘関節、手首関節を駆動させる腕制御部、脚部R3に対して胴部R4を水平方向に回転駆動させる腰制御部、脚部R3の股関節、膝関節、足首関節を駆動させる足制御部を有している。これら首制御部、手制御部,腕制御部、腰制御部および足制御部は、頭部R1、腕部R2、脚部R3および胴部R4を駆動するアクチュエータに駆動信号を出力する。
[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
バッテリ70は、ロボットRの各部の動作や処理に必要な電力の供給源である。このバッテリ70は、充填式の構成をもつものが使用され、バッテリ補給エリア(図1参照)で電力が補給される。
[対象検知部]
対象検知部80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
[周辺状態検知部]
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
[主制御部の構成]
図10は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、内部状態検出部45と、行動計画管理部46とを備えている。
静止障害物統合部41は、周辺状態検知部90で検知されたロボットRの周辺状態に関する情報を統合し、行動パターン部43に出力するものである。例えば、静止障害物統合部41が、ロボットRの進路の床面に段ボール箱などの障害物を検知した場合や、床面の段差を検知した場合には、行動パターン部43は、この統合された障害物情報に基づいて、図示しない局所回避モジュールによって迂回経路を探索する。
オブジェクトデータ統合部42は、ロボットRの姿勢データ、画像処理部10が生成した認識情報、対象検知部80および音源定位部21cからの入力データに基づいて、対象物(オブジェクト)に関する識別データ(オブジェクトデータ)を統合し、この統合したオブジェクトデータを記憶部30のオブジェクトデータ記憶手段31に出力するものである。これにより、オブジェクトデータ記憶手段31には、オブジェクトデータをオブジェクト別かつ時刻別に記録したデータであるオブジェクトマップが生成される。
行動パターン部43は、行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
本実施形態では、図7に示すように、記憶部30に、オブジェクトデータ記憶手段31のほかに、ローカル地図データ記憶手段32と、シナリオ記憶手段33と、を備えている。
ローカル地図データ記憶手段32は、図3を参照して説明したロボットRの周辺の地図(ローカル地図)を記憶するものである。このローカル地図は、例えば、管理用コンピュータ3から取得される。
シナリオ記憶手段33は、各種行動パターンに対応したシナリオ(台本)を記憶するものである。シナリオは、例えば、歩行中に人物や障害物(オブジェクト)に遭遇したときにオブジェクトの1m手前で立ち止まるといったもの、立ち止まってから10秒後に腕部R2を所定位置まで上げるといったものなど動作に関するものと、発話に関するものとがある。また、シナリオ記憶手段33は、所定の発話を行うときに頭部R1、腕部R2、脚部R3および胴部R4のうちの少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶する。
行動パターン部43は、オブジェクトデータ記憶手段31、ローカル地図データ記憶手段32及びシナリオ記憶手段33を適宜利用して様々な場面や状況に応じた行動パターンを実行するモジュールを備えている。モジュールの例としては、目的地移動モジュール、局所回避モジュール、デリバリモジュール、案内モジュール、人対応モジュール等がある。
目的地移動モジュールは、ロボットRの現在位置から、例えば、タスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
デリバリモジュールは、荷物配達タスクを実行するときに動作するものであり、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
内部状態検出部45は、ロボットRの内部状態を検出するものである。本実施形態では、内部状態検出部45は、バッテリ70の残量を検出する。また、内部状態検出部45は、ロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを所定時間間隔毎にステータス情報として生成し、生成したステータス情報を対話誘発動作制御部47に出力する。また、内部状態検出部45は、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、入力されたステータス情報を記憶部3aに格納された図示しないロボット情報データベースにロボットR毎に登録する。
行動計画管理部46は、行動パターン部43が備える各種モジュールを所定のスケジュールで実行する行動計画を管理するものである。本実施形態では、行動計画管理部46は、管理用コンピュータ3から取得したタスク実行命令に基づいて予め定められたタスクを実行するための行動計画を管理し、現在実行すべき作業に必要なモジュールを適宜選択する。
[画像処理部の動作]
図11は、図6に示した画像処理部の動作を示すフローチャートである。
まず、画像処理部10は、複数解像度画像生成部11によって、視覚センサが取得した撮影画像を歪補正し(ステップS1)、この画像を縮小して撮影画像より解像度が低い低解像度画像と、低解像度画像より解像度が高い1以上の高解像度画像と、を生成する(ステップS2)。また、画像処理部10は、画像処理判定部13によって、所定の入力情報又は予め設定したルールに基づいて、高解像度画像を画像処理するか否かを判定する(ステップS3)。
画像処理判定部13が高解像度画像を画像処理すると判定した場合(ステップS3でYes)、画像処理部10は、低解像度画像処理部12によって、複数解像度画像生成部11が生成した低解像度画像を画像処理し、低解像度画像に含まれる認識対象に関する対象情報を生成する(ステップS4)。また、画像処理部10は、画像処理判定部13によって、複数解像度画像生成部11が2以上の高解像度画像を生成した場合には何れの解像度の高解像度画像を画像処理するかを判定し、低解像度画像の一部に解像度処理領域を設定する(ステップS5)。さらに、画像処理部10は、高解像度画像処理部14によって、高解像度画像における画像処理判定部13が設定した解像度処理領域に対応する領域を画像処理し、高解像度画像に含まれる認識対象に関する対象情報を生成する(ステップS6)。
一方、画像処理判定部13が高解像度画像を画像処理しないと判定した場合(ステップS3でNo)、画像処理部10は、低解像度画像処理部12によって、複数解像度画像生成部11が生成した低解像度画像を画像処理し、低解像度画像に含まれる対象に関する対象情報を生成する(ステップS8)。なお、この場合、画像処理判定部13による解像度処理領域の設定、及び、高解像度画像処理部14による対象情報の生成は、行わない。
ステップS6に続いて、画像処理部10は、画像処理結果統合部15によって、低解像度画像処理部12が生成した対象情報と高解像度画像処理部14が生成した対象情報とが一致するか否かを判定すると共に、両対象情報が一致する場合には両対象情報を用いて、両対象情報が一致しない場合には高解像度画像処理部14が生成した対象情報を用いて、認識情報を生成して主制御部40に出力する(ステップS7)。
なお、ステップS8に続く場合、画像処理部10は、画像処理結果統合部15によって、低解像度画像処理部12が生成した対象情報を用いて、認識情報を生成して主制御部40に出力する。
本実施形態によれば、画像処理判定部13が、ロボットRの動作、ロボットRが実行するタスク又はロボットRの周囲に存在する認識対象に基づいて、画像処理するか否か、及び、画像処理する画像の解像度を判定し、解像度処理領域を設定する。従って、ロボットRは、画像処理の演算量を抑えて認識対象の認識精度を高くすることができる。なお、本発明の好ましい実施形態について説明したが、本発明は前記した実施形態に限定されるものでなく、画像処理判定部13における画像処理を行うか否かの判断、及び、解像度処理領域の形状、大きさは、一例に過ぎない。
また、本実施形態では、ロボットを、2足歩行可能な自律移動型ロボットとして説明したが、これに限定されず、車輪で移動する自律移動型ロボットへの応用も可能である。この場合には、2足歩行可能な自律移動型ロボットの「足」に該等する可動部が「車輪」となる点を除いて、本実施形態と同等の効果を奏することができる。
本発明の実施形態に係るロボットを含むロボットシステムの構成を模式的に示す図である。 本発明の実施形態に係るロボットによる自己位置検出およびオブジェクト検出の一例を模式的に示す図である。 図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスク情報データベースの一例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスクスケジュールテーブルの一例を示す図である。 本発明の実施形態に係るロボットの構成を示すブロック図である。 本発明の実施形態において、低解像度画像から顔領域を抽出した例を示す図である。 本発明の実施形態において、電波強度を基に人物がどのエリアにいるのかを示す情報(エリア情報)を取得する方法を説明する説明図である。 本発明の実施形態に係るロボットが運搬タスクを実行することを説明する説明図である。 図6に示したロボットの主制御部の構成を示すブロック図である。 図6に示した画像処理部の動作を示すフローチャートである。
符号の説明
A ロボットシステム
R ロボット(移動型ロボット)
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部
11 複数解像度画像生成部
12 低解像度画像処理部
13 画像処理判定部
14 高解像度画像処理部
15 画像処理結果統合部
20 音声処理部
21a 音声合成部
21b 音声認識部
21c 音源定位部
30 記憶部
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 シナリオ記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
45 内部状態検出部
46 行動計画管理部
50 自律移動制御部
60 無線通信部
70 バッテリ
80 対象検知部
90 周辺状態検知部
C カメラ(視覚センサ)
H 人物(検知対象)
MC マイク(音声入力部)
M マーク
N 運搬容器
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器
T タグ

Claims (12)

  1. 視覚センサが取得した撮影画像を画像処理し、当該撮影画像に含まれる認識対象に関する認識情報を生成する画像処理部と、前記画像処理部が生成した認識情報に基づいて統括制御を行う制御部と、を備える移動型ロボットであって、
    前記画像処理部は、
    前記視覚センサが取得した撮影画像を縮小して前記撮影画像より解像度が低い低解像度画像と、当該低解像度画像より解像度が高い1以上の高解像度画像と、を生成する複数解像度画像生成部と、
    前記複数解像度画像生成部が生成した低解像度画像を画像処理し、当該低解像度画像に含まれる認識対象に関する対象情報を生成する低解像度画像処理部と、
    所定の入力情報又は予め設定したルールに基づいて、前記高解像度画像を画像処理するか否かを判定すると共に、前記複数解像度画像生成部が2以上の高解像度画像を生成した場合には何れの解像度の前記高解像度画像を画像処理するかを判定し、前記低解像度画像の一部に解像度処理領域を設定する画像処理判定部と、
    前記高解像度画像における前記画像処理判定部が設定した解像度処理領域に対応する領域を画像処理し、前記高解像度画像に含まれる認識対象に関する対象情報を生成する高解像度画像処理部と、
    前記低解像度画像処理部が生成した対象情報と前記高解像度画像処理部が生成した対象情報とが一致するか否かを判定すると共に、両対象情報が一致する場合には前記両対象情報を用いて、前記両対象情報が一致しない場合には前記高解像度画像処理部が生成した対象情報を用いて、前記認識情報を生成する画像処理結果統合部と、
    を備えることを特徴とする移動型ロボット。
  2. 前記画像処理判定部は、前記ルールに基づいて、前記低解像度画像の中央部分を前記解像度処理領域として設定することを特徴とする請求項1に記載の移動型ロボット。
  3. 前記画像処理判定部は、前記ルールに基づいて、前記解像度処理領域を水平方向に移動させて繰り返し設定することを特徴とする請求項1に記載の移動型ロボット。
  4. 前記低解像度画像処理部は、前記低解像度画像に含まれる人物の顔領域を前記入力情報として抽出し、
    前記画像処理判定部は、前記低解像度画像処理部が抽出した人物の顔領域を前記解像度処理領域として設定することを特徴とする請求項1に記載の移動型ロボット。
  5. 当該移動型ロボットの進行予定方向が前記入力情報として前記画像処理判定部に入力され、
    前記画像処理判定部は、入力された前記進行予定方向に基づいて、前記解像度処理領域を設定することを特徴とする請求項1に記載の移動型ロボット。
  6. 当該移動型ロボットの移動速度又は移動予定速度が前記入力情報として前記画像処理判定部に入力され、
    前記画像処理判定部は、入力された前記移動速度又は前記移動予定速度が速くなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする請求項5に記載の移動型ロボット。
  7. 認識対象が発生させる音源の方向及び音圧を特定する音源定位部から、当該音源の方向及び当該音圧が前記入力情報として前記画像処理判定部に入力され、
    前記画像処理判定部は、入力された前記音源の方向に基づいて、前記解像度処理領域を設定することを特徴とする請求項1に記載の移動型ロボット。
  8. 前記画像処理判定部は、入力された前記音圧が小さくなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする請求項7に記載の移動型ロボット。
  9. 検知対象が装着したタグの方向及び前記タグまでの距離を検知する対象検知部から、当該タグの方向及び当該タグまでの距離が前記入力情報として前記画像処理判定部に入力され、
    前記画像処理判定部は、入力された前記タグの方向に基づいて、前記解像度処理領域を設定することを特徴とする請求項1に記載の移動型ロボット。
  10. 前記画像処理判定部は、入力された前記タグまでの距離が遠くなるほど、解像度が高い前記高解像度画像を画像処理すると判定すると共に、前記解像度処理領域の面積を狭くすることを特徴とする請求項9に記載の移動型ロボット。
  11. 当該移動型ロボットは、物品を運搬する運搬タスクを実行し、
    前記低解像度画像処理部は、前記低解像度画像に含まれる前記物品を載せた所定仕様の運搬容器を前記入力情報として抽出し、
    前記画像処理判定部は、当該移動型ロボットが実行しているタスクが前記運搬タスクであるか否かを判定すると共に、前記低解像度画像処理部が抽出した前記運搬容器を前記解像度処理領域として設定することを特徴とする請求項1に記載の移動型ロボット。
  12. 当該移動型ロボットは、人物を案内する案内タスクを実行し、
    前記人物を案内する案内方向が前記入力情報として前記画像処理判定部に入力され、
    前記画像処理判定部は、当該移動型ロボットが実行しているタスクが前記案内タスクであるか否かを判定すると共に、入力された前記案内方向に基づいて、前記解像度処理領域を設定することを特徴とする請求項1に記載の移動型ロボット。
JP2007316246A 2007-12-06 2007-12-06 移動型ロボット Expired - Fee Related JP4516592B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007316246A JP4516592B2 (ja) 2007-12-06 2007-12-06 移動型ロボット
US12/315,411 US8090193B2 (en) 2007-12-06 2008-12-03 Mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007316246A JP4516592B2 (ja) 2007-12-06 2007-12-06 移動型ロボット

Publications (2)

Publication Number Publication Date
JP2009136968A JP2009136968A (ja) 2009-06-25
JP4516592B2 true JP4516592B2 (ja) 2010-08-04

Family

ID=40721734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007316246A Expired - Fee Related JP4516592B2 (ja) 2007-12-06 2007-12-06 移動型ロボット

Country Status (2)

Country Link
US (1) US8090193B2 (ja)
JP (1) JP4516592B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
US8915692B2 (en) 2008-02-21 2014-12-23 Harvest Automation, Inc. Adaptable container handling system
US8250143B2 (en) 2008-12-10 2012-08-21 International Business Machines Corporation Network driven actuator mapping agent and bus and method of use
JP5319433B2 (ja) 2009-07-16 2013-10-16 エンパイア テクノロジー ディベロップメント エルエルシー 撮影システム、移動体、撮影制御方法
KR101611504B1 (ko) * 2009-09-25 2016-04-11 삼성전자 주식회사 로봇 시스템 및 그 영상 처리 방법
JP5468426B2 (ja) * 2010-03-12 2014-04-09 日立オートモティブシステムズ株式会社 ステレオカメラ装置
US8457437B2 (en) * 2010-03-23 2013-06-04 Raytheon Company System and method for enhancing registered images using edge overlays
US9386359B2 (en) * 2010-08-16 2016-07-05 Fujitsu Limited Selecting metadata for sensor data streams
US9107565B2 (en) 2010-08-16 2015-08-18 Fujitsu Limited Identifying an event occurrence from sensor data streams
US9147173B2 (en) 2011-10-31 2015-09-29 Harvest Automation, Inc. Methods and systems for automated transportation of items between variable endpoints
US8937410B2 (en) 2012-01-17 2015-01-20 Harvest Automation, Inc. Emergency stop method and system for autonomous mobile robots
US8525836B1 (en) * 2012-02-07 2013-09-03 Google Inc. Systems and methods for representing information associated with objects in an area
KR20130096539A (ko) * 2012-02-22 2013-08-30 한국전자통신연구원 자율 이동장치 및 그 제어 방법
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US9358684B1 (en) * 2015-02-18 2016-06-07 Merry Electronics Co., Ltd. Wireless transmission device and robot arm using the same
US10012733B2 (en) 2015-06-07 2018-07-03 Geoffrey Louis Barrows Localization method and apparatus
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP6844124B2 (ja) * 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
JP7206583B2 (ja) * 2016-11-25 2023-01-18 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
KR102017148B1 (ko) * 2017-03-03 2019-09-02 엘지전자 주식회사 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
TWI657812B (zh) * 2017-11-14 2019-05-01 緯創資通股份有限公司 助行裝置
JP7084416B2 (ja) * 2017-12-15 2022-06-14 株式会社Fuji 情報処理装置及び情報処理方法
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US11040441B2 (en) * 2018-09-20 2021-06-22 Sony Group Corporation Situation-aware robot
JP7516749B2 (ja) * 2019-12-03 2024-07-17 日本電気株式会社 ショッピングカート、制御方法、及び、プログラム
KR20220083100A (ko) * 2020-12-11 2022-06-20 삼성전자주식회사 로봇 및 그 제어 방법
CN113378684B (zh) * 2021-06-04 2024-03-29 北京顺造科技有限公司 清洁设备及用于清洁设备的光触发事件识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (fr) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004054610A (ja) * 2002-07-19 2004-02-19 Sony Corp トラッキング装置及び方法並びにロボット装置
JP2006192562A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 自律移動ロボット
JP2007160447A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 自律移動ロボットおよび自律移動ロボットによる物品運搬方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4638445A (en) * 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
JPH01134573A (ja) * 1987-11-19 1989-05-26 Kawasaki Heavy Ind Ltd 画像処理方法
JPH01289696A (ja) * 1988-05-18 1989-11-21 Fanuc Ltd 視覚センサシステムにおける画像処理方式
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH05192895A (ja) 1991-01-21 1993-08-03 Hamamatsu Photonics Kk ロボットの視覚装置
JPH08263664A (ja) * 1995-03-22 1996-10-11 Honda Motor Co Ltd 人工的視覚システム及びイメージ認識方法
JP3890099B2 (ja) * 1996-09-30 2007-03-07 キヤノン株式会社 パターン認識装置及びその方法、及びそのプログラムを記憶した記憶媒体
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
JPH11272328A (ja) * 1998-03-25 1999-10-08 Nippon Signal Co Ltd:The 色標識,移動ロボットおよび移動ロボットの誘導方法
US7023913B1 (en) * 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
JP4279416B2 (ja) 1999-08-30 2009-06-17 本田技研工業株式会社 2足歩行ロボット
JP4355158B2 (ja) 2003-04-01 2009-10-28 本田技研工業株式会社 受付案内システム
JP4328286B2 (ja) 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
JP4460528B2 (ja) 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7584020B2 (en) * 2006-07-05 2009-09-01 Battelle Energy Alliance, Llc Occupancy change detection system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (fr) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004054610A (ja) * 2002-07-19 2004-02-19 Sony Corp トラッキング装置及び方法並びにロボット装置
JP2006192562A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 自律移動ロボット
JP2007160447A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 自律移動ロボットおよび自律移動ロボットによる物品運搬方法

Also Published As

Publication number Publication date
US20090148034A1 (en) 2009-06-11
JP2009136968A (ja) 2009-06-25
US8090193B2 (en) 2012-01-03

Similar Documents

Publication Publication Date Title
JP4516592B2 (ja) 移動型ロボット
JP4560078B2 (ja) コミュニケーションロボット
JP4262196B2 (ja) 自律移動ロボット
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
JP4630146B2 (ja) 位置管理システムおよび位置管理プログラム
JP4787813B2 (ja) 検知対象検知システム
KR100729870B1 (ko) 이동체의 위치검지 시스템
JP4976903B2 (ja) ロボット
US7983794B2 (en) Interface apparatus and mobile robot equipped with the interface apparatus
JP5411789B2 (ja) コミュニケーションロボット
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
US20170252925A1 (en) Method and system for localizing mobile robot using external surveillance cameras
JP4886572B2 (ja) ロボット
US20060184274A1 (en) Autonomously moving robot
WO2017057053A1 (ja) 情報処理装置、情報処理方法
CN106292657A (zh) 可移动机器人及其巡逻路径设置方法
JP4764377B2 (ja) 移動型ロボット
JP2009178782A (ja) 移動体、環境地図生成装置、及び環境地図生成方法
WO2017149440A1 (en) Method, apparatus and computer program product for navigation in an indoor space
KR20170115188A (ko) 산업 현장 운반 로봇
JP2010009370A (ja) 移動体制御システムおよび移動体制御方法
JP2022182898A (ja) 情報処理装置、情報処理方法およびプログラム
Vasudevan et al. Autonomous Indoor Pathfinding Using Neural Network in Complex Scenes
JP2024106058A (ja) 移動体制御装置、移動体制御プログラム及び移動体制御方法
WO2021246963A1 (en) Apparatus and method for indoor guiding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100514

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4516592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees