JP2006146551A - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP2006146551A JP2006146551A JP2004335636A JP2004335636A JP2006146551A JP 2006146551 A JP2006146551 A JP 2006146551A JP 2004335636 A JP2004335636 A JP 2004335636A JP 2004335636 A JP2004335636 A JP 2004335636A JP 2006146551 A JP2006146551 A JP 2006146551A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- moving object
- robot
- moving
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 15
- 210000000746 body region Anatomy 0.000 description 10
- 238000000034 method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】ロボットを移動体に追従走行させるために、ロボットが移動体を特定し、高速に移動体までの距離および方向を検知する。
【解決手段】オプティカルフローによる移動体を検出するための対応点位置を算出し配置して、移動体の画像を時系列に取得し、その複数画像間にて対応点の移動量を算出し、移動体の移動に合致する対応点を判断し、得られた対応点群より移動体領域を抽出し、移動体を追従対象として特定し、抽出した移動体領域から特定領域を抽出し、特定領域位置より移動体までの距離と方向を検出するロボットである。
【選択図】図1
【解決手段】オプティカルフローによる移動体を検出するための対応点位置を算出し配置して、移動体の画像を時系列に取得し、その複数画像間にて対応点の移動量を算出し、移動体の移動に合致する対応点を判断し、得られた対応点群より移動体領域を抽出し、移動体を追従対象として特定し、抽出した移動体領域から特定領域を抽出し、特定領域位置より移動体までの距離と方向を検出するロボットである。
【選択図】図1
Description
本発明は、テレビカメラなどの撮像装置により得られる画像に基づいて接近する移動体を検知し、以降継続してトラッキングして、追従走行させるロボットに関するものである。
従来の移動ロボットにおいては、人間(移動体)の持つ高周波発信源からの高周波信号によって人間の存在を検出して、発信源の方向にロボットの向きを変更し、そのロボットの向きが変更されたとき人間を撮像し、その撮像画像に基づいて人間の顔の向きを判定している(例えば、特許文献1参照)。このロボットは、人間の方向を検知することが可能である。
また人間(移動体)を検出する方法としては、赤外線カメラにより得られた画像から人間と推定される領域を切り出し、その切り出した人間推定領域の面積を特徴量として算出し、その算出した統計量が判定閾値より大きいとき、人間推定領域に対応する像が人間であると判定し検出している(例えば、特許文献2参照)。
特開2001−129777号公報
特開2001−28050号公報
しかしながら、従来の技術を適応する場合、以下のような課題がある。
移動ロボットの構成では、移動体の方向は検知されるが、移動体までの距離は検出されず、ロボットが移動体に追従走行する場合、移動体の敏速な動きについていけないおそれを有している。
また、移動体を検出する方法では、背景画像を道路とし赤外線カメラによる移動体の画像撮影などを条件としており、一般風景を背景とし、一般カメラを用いたロボットでの移動体候補領域の特定への適用は難しい。さらに、ロボットを移動体に追従走行させるには、ロボットが移動体をいかに特定するかが課題であり、加えて継続して高速に移動体までの距離および方向を検知することも課題である。
本発明は、このような課題を解決するもので、ロボットが移動体を特定し、高速に移動体までの距離および方向を検知できるロボットを提供することを目的とする。
上記課題を解決するために、本発明のロボットは、オプティカルフローによる移動体を検出するための対応点位置を算出し配置する手段と、移動体の画像を時系列に取得する画像取得手段と、取得された移動体の複数画像にて対応点を検出し、対応点の複数画像間での移動量を算出する手段と、算出した移動量より移動体の移動に合致する対応点を判断する手段と、得られた対応点群より移動体領域を抽出する手段と、移動体を追従対象として特定する手段と、抽出された移動体領域より移動体の特定領域を抽出する手段とを備えることを特徴とする。
本発明のロボットによれば、移動体を特定し、継続して移動体の距離と方向を検出することにより、その検出した情報を用いてロボットが移動体への追従を迅速に行うことができる。
以下に本発明の実施の形態について、図面を参照しながら説明を行う。
(実施の形態1)
図1は、本発明の実施の形態1におけるロボット100の構成図である。図1において、101は対応点を算出し配置する手段であり、102は移動体の画像を時系列に取得する画像取得手段、103は対応点の複数画像間での移動量を算出する手段、104は算出した移動量より移動体の移動に合致する対応点を判断する手段、105は得られた対応点群より移動体領域を抽出する手段、106は移動体を追従対象として特定する手段、107は抽出された移動体領域より移動体の特定領域を抽出する手段ある。なおロボット100が、移動体に追従走行するための動力伝達手段や車輪などその他の構成の図示は省略する。
図1は、本発明の実施の形態1におけるロボット100の構成図である。図1において、101は対応点を算出し配置する手段であり、102は移動体の画像を時系列に取得する画像取得手段、103は対応点の複数画像間での移動量を算出する手段、104は算出した移動量より移動体の移動に合致する対応点を判断する手段、105は得られた対応点群より移動体領域を抽出する手段、106は移動体を追従対象として特定する手段、107は抽出された移動体領域より移動体の特定領域を抽出する手段ある。なおロボット100が、移動体に追従走行するための動力伝達手段や車輪などその他の構成の図示は省略する。
本発明のロボット100が、移動体を検出する方法としてオプティカルフローを用いている。オプティカルフローの説明を図2に示す。図2aは2画像間の物体の移動を模式的に示した図であり、図2bは2画像間の対応点で算出した結果を示した図である。通常オプティカルフローは図2bの対応点201に示すように、カメラで撮像する全画面に、格子点状にフローを算出する対応点201を配置し、時系列に継続する画像上で各対応点201に対応する点201を検出し、対応する点201間の移動量を検出して、対応点201毎のフローを得る。202はフロー算出対応点の中で物体の移動が認められた点群である。
このため、対応点201は、全画面に等間隔に格子点状に配置し、その点毎にフロー算出するため膨大な演算量となる。また、対応点201が多いほど、ノイズフロー検出の可能性が高まり誤検出しやすくなる。本発明の1実施例である全方位光学系を用いた場合、図3で見ると、足元(床に近い)領域となる中央部分の対応点301、および、全方位光学系外となる四隅の領域の対応点301では移動体および物体の移動により発生するオプティカルフロー以外のノイズフローが発生しやすい。
更に、本発明のロボット100では、対応点201を移動体または移動体の特定領域に限定し、演算コストを削減する。全方位カメラを用いた場合の一実施例(対応点配置例)を図3に示す。全方位カメラを用いた画像302の場合、移動体は画像302の外側円周上に現れる。このため、図3に示すように、対応点201は外側円周上に配置する。また、内側円周上は移動体の足元が現れ位置検出には不適切なノイズフローが現れやすい。さらに、全方位画像の場合、画像四隅は、有意な画像範囲外となり対応点によるフロー演算不要である。従って、図3のように、外側円周上にフロー対応点201を配置すると、演算コストおよびノイズ対策両面で有利となる。
以上の方法を利用し、ロボット100の各手段についてさらに詳細に説明する。対応点を算出し配置する手段101は、全方位時系列画像を図3に示すように、円周上に有意な対応点301位置を算出する手段である。手段101で算出した対応点301毎に、移動量を算出する手段103においてオプティカルフローを算出する。
画像取得手段102とは、オプティカルフロー演算向けに適切な時間間隔で画像を取り込む手段である。例えば、図3の全方位カメラ画像302を数百ms毎に画像入力する。全方位カメラ画像302を用いた場合、周囲360度の接近物を検知可能であり、接近物検知のためにカメラ移動および回転の必要がない。時間遅延なく追従対象となる、接近する移動体の検知が可能となる。
時系列に画像間の対応点毎の移動量算出手段103とは、手段101で算出された対応点301毎に、画像取得手段102で取得した時系列画像間で対応点301の位置関係を検知する。通常は時系列画像の古い方の対応点ブロックをテンプレートとし、新しい方の時系列画像上でテンプレートマッチングを行う。得られた一致点と古い方の画像の対応点ブロック位置の位置ズレをフローとして算出する。テンプレートマッチング時の一致度等もフロー演算情報として算出する。対応点毎に算出移動量を移動体の移動に合致か判断する手段104において、位置ズレおよび、フロー演算情報等を用いて、移動体の移動かどうかを判断する。
対応点毎に算出移動量を移動体の移動に合致か判断する手段104とは、前記のごとく移動量算出手段103において算出した位置ズレおよび、フロー演算情報等を用いて、移動体の移動かどうかを判断する手段である。この場合、全画面の同じ判断基準を用いると、例えば移動体の下方部と上方部の場合、移動体の上方部をフローとして検出する可能性が高くなる。また移動体下方部(画像内側)のフローは比較的小さいため移動体上方部(画像外側)に発生するノイズフローと混同しやすい。さらに、実際には、移動体の上方部を優先してフロー検知する必要がある。このため、本発明では、手段101で配置した対応点毎に異なる判断基準を用いた。一実施例として、全方位画像のフロー判断基準として、画像内側では放射方向フローを残し、画像外側では、放射と同心円両方向フローを残す。
合致した対応点群を統合し移動体領域を抽出する手段105とは、手段104にて合格判定した対応点を統合し、移動体領域として抽出する手段である。図4に示すように、合格判定した対応点群401を囲む領域を検出する。その抽出した移動体領域が402の例である。
移動体が追従対象として特定する手段106とは、最も接近し、ロボット100と接触する移動体が移動体追従対象者であるとの知見に基づき、複数対象者混在の場合の識別手段として組み込む。ロボット100の特定位置に設置したスイッチを押す、音声を発声させ音原位置推定する等の方法例がある。これにより、ロボット追従対象者を特定し、同時にロボット移動体追従動作開始のトリガとして利用する。
移動体領域より移動体の特定領域を抽出する手段107とは、合致した対応点群を統合し移動体領域を抽出する手段105にて抽出した移動体領域において、移動体の特徴点、たとえば上方部を抽出する手段である。図5は抽出方法の一例を示す。全方位画像にて移動体領域を抽出した場合、移動体領域は中心部と周辺部で歪む。このため、502に示すように移動体領域をパノラマ展開した。この場合、パノラマ展開画像502の特定濃淡値をタテ方向503およびヨコ方向504に射像し、射像結果の分布を判定し上方部領域を検出した。
事前に教示した特定領域テンレートにて特定領域位置を検出する手段108および検出した移動体の特定領域位置を中心に近接領域を連続して移動体の特定領域位置をトラッキング検出する手段109とは、移動体領域より移動体の特定領域を抽出する手段107にて得られた、例えば上方部領域をテンプレートとし、時系列に上方部を継続してテンプレートマッチングする手段である。本発明では、上方部の特定領域は、既に移動体領域検出にて特定範囲に限定されているため、最初に検出した位置の周囲を検出毎に範囲修正しながらテンプレートマッチングする。
得られた移動体の特定領域位置より移動体の距離と方向を検出する手段110とは、例えば手段108にて得られた上方部の特定領域の位置より、対象者の距離と方向を算出する手段である。一例として、全方位画像の場合、上方部の高さが一定との条件を当てはめると、全方位画像中心点より上方部までの距離より対象者までの距離が換算できる。また、全方位画像中心点より上方部への方向が対象者までの方向である。
図6にロボット100から移動体までの距離と方向の検出方法を示す。図4は、移動体領域を含む全方位画像をパノラマ展開したものである。移動体を全方位光学系より距離50cmの地点に立たせた図601、距離150cmの地点を図602として50cm毎に離れて距離300cmの地点に立たせた図606を上下に並べた。図601から図606の図が示すように、全方位光学系から距離が離れると移動体の上方部の位置が下がる。通常のカメラ画像より顕著に移動体の上下位置の差が出現する。このため、本発明のロボット100では、移動体の特徴位置を基準に移動体との距離を算出する。具体的には、事前に画像上移動体の頭頂のy座標位置を距離毎に教示し、距離−頭y座標の対応表(距離=T(y))を作成する。移動体追従走行時に得られた移動体の頭頂のy座標位置にて、対応表に算入し移動体との距離を得る。
また、パノラマ展開時のx座標は移動体への方向に対応する。以上より移動体への方向と距離が得られる。
また、ロボット100が移動体の距離と方向を検出し、移動体への追従走行においての経路生成を次のように行っている。図7に示すように、移動体の位置をそのまま追いかけた場合、正しい経路生成ができない場合を回避できる。これは移動体の方向のみを検出した場合で、例えば図7aのごとく移動体の経路が直角コーナとなった時、ロボットは直角に移動体を後追いせず、近道を経路として生成することがある。本発明では、移動体の方向と距離を得ることにより直角コーナの移動体の経路の実現を図る(図7b参照)。経路の生成手順を下記する。ロボットが自分の進行経路と移動体の現在の相対位置を見て、移動体の絶対経路を生成し、これを保存する(図7b参照)。その保存したオペレータ経路を現在の自分の経路と比較して進行方向を決め、後追いを行う。
本発明のロボットは、追従走行する移動体に対して、移動体を特定し継続して移動体までの距離と方向を検知することができることにより、ロボットの分野に利用可能である。
100 ロボット
101 対応点位置を算出し配置する手段
102 移動体の画像を時系列に取得する画像取得手段
103 対応点の複数画像間での移動量を算出する手段
104 移動体の移動に合致する対応点を判断する手段
105 対応点群より移動体領域を抽出する手段
106 移動体を追従対象として特定する手段
107 移動体領域より移動体の特定領域を抽出する手段
108 事前に教示した特定領域テンプレートにて特定領域位置を検出する手段
109 移動体の特定領域位置を中心に、近接領域を連続してトラッキングする手段
110 特定領域位置より前記移動体の距離と方向を検出する手段
201 対応点
202 対応点の中で物体の移動が認められた点群
301 対応点
302 全方位カメラ画像
401 合格判定した対応点群
402 抽出した移動体領域
501 移動体領域より上方部を抽出した部分
502 移動体領域のパノラマ展開画像
503 移動体領域パノラマ展開画像の特定濃淡値射像(タテ)
504 移動体領域パノラマ展開画像の特定濃淡値射像(ヨコ)
601 移動体までの距離が50cmの全方位カメラ画像
602 移動体までの距離が100cmの全方位カメラ画像
603 移動体までの距離が150cmの全方位カメラ画像
604 移動体までの距離が200cmの全方位カメラ画像
605 移動体までの距離が250cmの全方位カメラ画像
606 移動体までの距離が300cmの全方位カメラ画像
101 対応点位置を算出し配置する手段
102 移動体の画像を時系列に取得する画像取得手段
103 対応点の複数画像間での移動量を算出する手段
104 移動体の移動に合致する対応点を判断する手段
105 対応点群より移動体領域を抽出する手段
106 移動体を追従対象として特定する手段
107 移動体領域より移動体の特定領域を抽出する手段
108 事前に教示した特定領域テンプレートにて特定領域位置を検出する手段
109 移動体の特定領域位置を中心に、近接領域を連続してトラッキングする手段
110 特定領域位置より前記移動体の距離と方向を検出する手段
201 対応点
202 対応点の中で物体の移動が認められた点群
301 対応点
302 全方位カメラ画像
401 合格判定した対応点群
402 抽出した移動体領域
501 移動体領域より上方部を抽出した部分
502 移動体領域のパノラマ展開画像
503 移動体領域パノラマ展開画像の特定濃淡値射像(タテ)
504 移動体領域パノラマ展開画像の特定濃淡値射像(ヨコ)
601 移動体までの距離が50cmの全方位カメラ画像
602 移動体までの距離が100cmの全方位カメラ画像
603 移動体までの距離が150cmの全方位カメラ画像
604 移動体までの距離が200cmの全方位カメラ画像
605 移動体までの距離が250cmの全方位カメラ画像
606 移動体までの距離が300cmの全方位カメラ画像
Claims (3)
- オプティカルフローによる移動体を検出するための対応点位置を算出し配置する手段と、
前記移動体の画像を時系列に取得する画像取得手段と、
取得された前記移動体の複数画像にて、対応点を検出し、前記対応点の複数画像間での移動量を算出する手段と、
前記算出した移動量より前記移動体の移動に合致する対応点を判断する手段と、
得られた対応点群より移動体領域を抽出する手段と、
前記移動体を追従対象として特定する手段と、
前記抽出された移動体領域より移動体の特定領域を抽出する手段とを備えたロボット。 - 前記画像取得手段は、全方位カメラであることを特徴とする請求項1に記載のロボット。
- 前記移動体の特定領域を抽出する手段は、
事前に教示した特定領域テンプレートにて特定領域位置を検出する手段と、
前記検出した移動体の特定領域位置を中心に、近接領域を連続してトラッキングする手段と、
得られた移動体の特定領域位置より前記移動体の距離と方向を検出する手段とを備えた請求項1または2に記載のロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004335636A JP2006146551A (ja) | 2004-11-19 | 2004-11-19 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004335636A JP2006146551A (ja) | 2004-11-19 | 2004-11-19 | ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006146551A true JP2006146551A (ja) | 2006-06-08 |
Family
ID=36626164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004335636A Pending JP2006146551A (ja) | 2004-11-19 | 2004-11-19 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006146551A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123563A (ja) * | 2009-12-08 | 2011-06-23 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2011192141A (ja) * | 2010-03-16 | 2011-09-29 | Sony Corp | 動体検出装置と動体検出方法およびプログラム |
JP2014119828A (ja) * | 2012-12-13 | 2014-06-30 | Secom Co Ltd | 自律飛行ロボット |
JP2014123306A (ja) * | 2012-12-21 | 2014-07-03 | Secom Co Ltd | 自律飛行ロボット |
JP2014123304A (ja) * | 2012-12-21 | 2014-07-03 | Secom Co Ltd | 自律移動ロボット |
JP2014142828A (ja) * | 2013-01-24 | 2014-08-07 | Secom Co Ltd | 自律移動ロボット |
JP2014149621A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 自律飛行ロボット |
JP2015214282A (ja) * | 2014-05-12 | 2015-12-03 | 株式会社デンソー | 運転支援装置 |
JP2017537484A (ja) * | 2015-09-11 | 2017-12-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 可動物体を検出し、追跡するシステム及び方法 |
JP7411185B2 (ja) | 2018-03-28 | 2024-01-11 | 東日本旅客鉄道株式会社 | 通行人追従型の移動ロボットの誘導 |
-
2004
- 2004-11-19 JP JP2004335636A patent/JP2006146551A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123563A (ja) * | 2009-12-08 | 2011-06-23 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2011192141A (ja) * | 2010-03-16 | 2011-09-29 | Sony Corp | 動体検出装置と動体検出方法およびプログラム |
JP2014119828A (ja) * | 2012-12-13 | 2014-06-30 | Secom Co Ltd | 自律飛行ロボット |
JP2014123306A (ja) * | 2012-12-21 | 2014-07-03 | Secom Co Ltd | 自律飛行ロボット |
JP2014123304A (ja) * | 2012-12-21 | 2014-07-03 | Secom Co Ltd | 自律移動ロボット |
JP2014142828A (ja) * | 2013-01-24 | 2014-08-07 | Secom Co Ltd | 自律移動ロボット |
JP2014149621A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 自律飛行ロボット |
JP2015214282A (ja) * | 2014-05-12 | 2015-12-03 | 株式会社デンソー | 運転支援装置 |
JP2017537484A (ja) * | 2015-09-11 | 2017-12-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 可動物体を検出し、追跡するシステム及び方法 |
US10198634B2 (en) | 2015-09-11 | 2019-02-05 | SZ DJI Technology Co., Ltd. | Systems and methods for detecting and tracking movable objects |
US10650235B2 (en) | 2015-09-11 | 2020-05-12 | SZ DJI Technology Co., Ltd. | Systems and methods for detecting and tracking movable objects |
JP7411185B2 (ja) | 2018-03-28 | 2024-01-11 | 東日本旅客鉄道株式会社 | 通行人追従型の移動ロボットの誘導 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3279479B2 (ja) | 映像監視方法及び装置 | |
JP4815208B2 (ja) | 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器 | |
CN110072673B (zh) | 跟踪人类的机器人及其方法 | |
KR101634355B1 (ko) | 동작 검출 장치 및 방법 | |
US20130215270A1 (en) | Object detection apparatus | |
KR20110047797A (ko) | 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법 | |
KR20140056790A (ko) | 영상 인식 장치 및 그 방법 | |
JP2006146551A (ja) | ロボット | |
JP2017117244A (ja) | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 | |
JP2018205870A (ja) | オブジェクト追跡方法および装置 | |
JP2009157581A (ja) | 歩行者検出装置 | |
JP6579727B1 (ja) | 動体検出装置、動体検出方法、動体検出プログラム | |
JP6599644B2 (ja) | 動き判定装置、動き判定方法、および動き判定プログラム | |
JP6620607B2 (ja) | 画像解析プログラム、画像解析装置、及び画像解析方法 | |
JP3828096B2 (ja) | 物体追跡装置 | |
JP2007036782A (ja) | 移動物体検出装置 | |
US10965876B2 (en) | Imaging system, imaging method, and not-transitory recording medium | |
KR100844640B1 (ko) | 물체 인식 및 거리 계측 방법 | |
KR102201168B1 (ko) | 오버헤드 카메라를 이용한 사람 추적 방법 | |
JP2009064287A (ja) | 侵入者検知装置 | |
KR20200119421A (ko) | 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법 | |
JP3220578B2 (ja) | 道路画像の白線認識装置 | |
KR101455237B1 (ko) | 자동추적 증강현실 제공 장치 및 그 방법 | |
JP4552018B2 (ja) | 動画像処理装置及び動画像処理方法 | |
JP2001194141A (ja) | 移動体の位置検出方法 |