JP2004301796A - Robot, and method and system for localizing landmark, and the landmark - Google Patents

Robot, and method and system for localizing landmark, and the landmark Download PDF

Info

Publication number
JP2004301796A
JP2004301796A JP2003097781A JP2003097781A JP2004301796A JP 2004301796 A JP2004301796 A JP 2004301796A JP 2003097781 A JP2003097781 A JP 2003097781A JP 2003097781 A JP2003097781 A JP 2003097781A JP 2004301796 A JP2004301796 A JP 2004301796A
Authority
JP
Japan
Prior art keywords
landmark
height
estimated
captured image
inner circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003097781A
Other languages
Japanese (ja)
Inventor
Steffen Gutmann
グットマン ステファン
Kotaro Sabe
浩太郎 佐部
Masaki Fukuchi
正樹 福地
Takeshi Ohashi
武史 大橋
Jun Yokono
順 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003097781A priority Critical patent/JP2004301796A/en
Publication of JP2004301796A publication Critical patent/JP2004301796A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately estimate the position of a flat landmark having suitable form pattern and color pattern, according to its installation attitude. <P>SOLUTION: The relative distance from a robot to a landmark is roughly measured with a general range finding technology, however, in order to measure more accurately, calculation methods vary, depending on the installation attitude of the landmark. The landmark in a photographed image is estimated as to whether it is installed horizontally or vertically. Based on the estimation result, an appropriate localization algorithm for the landmark is selected. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ロボットのセンサ情報とロボット自身の動作情報に基づいて自己位置を同定するロボットに係り、特に、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を同定するロボットに関する。
【0002】
さらに詳しくは、本発明は、床や壁に設置されている平面的なランドマークを設置された姿勢に応じて位置を推定するロボット、並びにランドマークの位置推定システム及び推定方法に係り、好適な形状パターン並びに色パターンからなる平面的なランドマークを設置された姿勢に応じて位置を正確に推定するロボット、並びにランドマークの位置推定システム及び位置推定方法に関する。
【0003】
【従来の技術】
電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の”ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0004】
最近では、ヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間形」若しくは「人間型」のロボット(humanoid robot)を始めとして、各種の脚式移動ロボットに関する研究開発が進展し、実用化への期待も高まってきている。
【0005】
人間の作業空間や居住空間のほとんどは、2足直立歩行という人間が持つ身体メカニズムや行動様式に合わせて形成されおり、車輪その他の駆動装置を移動手段とした現状の機械システムが移動するのには多くの障壁が存在する。したがって、機械システムすなわちロボットがさまざまな人的作業を代行し、さらに人間の住空間に深く浸透していくためには、ロボットの移動可能範囲が人間のそれとほぼ同じであることが好ましい。これが、脚式移動ロボットの実用化が大いに期待されている所以でもある。
【0006】
このような人間型ロボットを、産業活動・生産活動などにおける各種作業の代行に適用することができる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃、火災現場その他における救助といったような、人間が容易に踏み込むことができない現場での危険作業・難作業を人間型ロボットに代行してもらう。
【0007】
また、人間型ロボットの他の用途として、人間と居住空間を同一にする「共生」、若しく「エンターティンメント」と呼ばれるものが挙げられる。この種の用途では、ロボットは、家庭環境など人と同じ作業環境に設置されて利用に供される。この場合、作業代行などの生活支援というよりも、生活密着という性格が濃厚である。
【0008】
インテリジェントな移動ロボットは与えられた作業空間内で自立的に経路を探索し、自由行動をとることができる。この際、ロボットが自己位置を同定することは、例えばロボットがデリバリなどのサービスを行なう上で極めて重要な技術である。何故ならば、目標地点までの道順を間違うことは、仮に回復することができたとしても非効率的であり、障害物との衝突や危険区域への進入などの危険を招来する可能性さえあるからである。
【0009】
ロボットが自己同定を行う代表的な手法の1つとして「ランドマーク(Landmark)」の利用を挙げることができる。ランドマークには、通常、視覚的に識別可能な視認情報がその表面に形成されている。ロボットは、視覚認識されたランドマークからの相対位置情報を基に自己位置を地理的に探索することができる。
【0010】
従来から使用されてきたランドマークとして、平面状のプレートに視認性の模様を書き込んだもの、壁面や床面、天井などに貼設された視覚認識用のテープ(例えば、搬送用のロボットを誘導したい経路に沿ってテープをビル構内に張り巡らす)、あるいは、立体的な物体を作業環境内に設置する、などを挙げることができる。
【0011】
この種の平面的なランドマークは、例えば床に貼設される場合や壁に貼設される場合がある。例えば、一般家庭など設置スペースが限られている環境下でランドマークを利用することを考えた場合、ランドマークの設置場所を床又は壁の一方に特定する、あるいはランドマークを必ず一意の姿勢で設置するということは不可能である。
【0012】
ロボットからランドマークまでの相対距離は、例えばカメラを用いた一般的な測距技術によりある程度測定することができる。しかしながら、より正確に距離を測定するためには、ランドマークの画像認識結果に基づいてより厳密な計算処理を行なう必要がある。このとき、ランドマークが床面上に水平に設置されているか、あるいは壁に垂直に貼設されているか、すなわちランドマークの姿勢に応じてランドマークの位置計算方法が相違する。したがって、移動ロボットがランドマークに従ってより正確に自己位置同定を行なうためには、まず発見したランドマークの姿勢を推定しなければならない。
【0013】
例えば、周囲環境からランドマークを同定する技術や(例えば、特許文献1を参照のこと)、物体に異なる色パターンの識別体を設け画像処理により色パターンを検出するように位置を検出するロボット装置(例えば、特許文献2を参照のこと)などについて幾つかの提案がなされているが、これらはいずれもランドマークが設置された姿勢に応じて位置を正確に推定する点についてはまったく開示していない。
【0014】
【特許文献1】
米国特許第5,957,984号明細書
【特許文献2】
米国特許第6,088,469号明細書
【0015】
【発明が解決しようとする課題】
本発明の目的は、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を同定することができる、優れたロボットを提供することにある。
【0016】
本発明のさらなる目的は、床や壁に設置されている平面的なランドマークを設置された姿勢に応じて位置を好適に推定することができる、優れたロボット、並びにランドマークの姿勢推定システム及び推定方法を提供することにある。
【0017】
本発明のさらなる目的は、好適な形状パターン並びに色パターンからなる平面的なランドマークを設置された姿勢に応じて位置を正確に推定することができる、優れたロボット、並びにランドマークの姿勢推定システム及び推定方法を提供することにある。
【0018】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、ランドマークを設置された姿勢に応じて位置を推定するランドマークの位置推定システムであって、
ランドマークの撮影画像を保持する画像保持手段と、
ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第1の位置算出手段と、
ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第2の位置算出手段と、
撮影画像中のランドマークの幅成分に基づいてランドマークの位置を算出する第3の位置算出手段と、
ランドマークが水平又は垂直いずれの姿勢で設置されているかを推定する姿勢推定手段と、
該推定されたランドマークの姿勢に応じて前記第1乃至第3の位置算出手段による算出結果のいずれかを選択する選択出力手段と、
を具備することを特徴とするランドマークの位置推定システムである。
【0019】
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
【0020】
ロボットからランドマークまでの相対距離は、例えばカメラを用いた一般的な測距技術によりある程度測定することができる。しかしながら、より正確に距離を測定するためには、ランドマークの画像認識結果に基づいてより厳密な計算処理を行なう必要がある。このとき、ランドマークが床面上に水平に設置されているか、あるいは壁に垂直に貼設されているか、すなわちランドマークの姿勢に応じて計算方法が相違する。
【0021】
本発明によれば、撮影画像中のランドマークが水平又は垂直いずれの姿勢で設置されているかを推定し、この推定結果に基づいて、適切なランドマークの位置推定アルゴリズムを選択することができる。
【0022】
ここで、ランドマークが水平に設置されているとの仮定で前記第1の位置算出手段により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されているとの仮定で前記第2の位置算出手段により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較し、z>zとなる場合は撮像画像は近くを眺めている撮像手段により撮像されたと判断し、z<zとなる場合は撮像画像は遠くを眺めている撮像画像により撮像されたと判断することができる。
【0023】
このような場合、前記選択出力手段は、撮像画像が近く又は遠くのいずれを眺めたものかに応じて前記第1乃至第3の位置算出手段による算出結果のいずれかを選択するようにすればよい。
【0024】
また、前記姿勢推定手段は、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zとを大小比較し、z>zとなる場合にはランドマークが垂直に設置されていると推定することができる。
【0025】
そして、前記選択出力手段は、ランドマークが垂直に設置されていると推定されたことに応答して、前記第2の位置算出手段による位置算出結果を出力することができる。
【0026】
また、前記姿勢推定手段はz≦zとなる場合には、ランドマークが水平に設置されている可能性とカメラに対して回転していない垂直な姿勢で設置されている可能性が残されている。
【0027】
そこで、前記姿勢推定手段は、ランドマークが水平に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zと撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zとの差分|z−z|と、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zと撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zとの差分|z−z|とを比較して、ランドマークが垂直又は水平いずれに設置されているかどうかを判別する。
【0028】
そして、|z−z|の方が小さい場合にはランドマークはカメラに対して回転していない垂直な姿勢で設置されていると推定することができる。前記選択出力手段は、これに応答して、前記第2の位置算出手段の算出結果を出力すればよい。
【0029】
あるいは、|z−z|の方が小さい場合にはランドマークは水平に設置されていると推定することができる。前記選択出力手段は、これに応答して、前記第1の位置算出手段の算出結果を出力すればよい。
【0030】
前記ランドマークは、例えば、半径dの内円と該内円とは略同心円状に配設された半径dの外円とで構成することができる。
【0031】
このような場合、前記姿勢推定手段は、撮影画像中のランドマークの内円の高さyicと外円の高さyocを大小比較し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)ランドマークは垂直に設置されていると推定し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)ランドマークは垂直に設置されていると推定することができる。
【0032】
前記姿勢推定手段は、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較するようにしてもよい。
【0033】
そして、前記選択出力手段は、zがzよりも大きくない場合には前記第2の位置算出手段による算出結果を出力し、zがzよりも大きい場合には、オクルージョンや視線に対するランドマークの傾きが大きく、誤認識の可能性が高いと推定されることから、前記第3の位置算出手段による算出結果を出力するようにすればよい。
【0034】
また、前記姿勢推定手段は、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較するようにしてもよい。
【0035】
そして、前記選択出力手段は、zがzよりも大きくない場合には前記第1の位置算出手段による算出結果を出力し、zがzよりも大きい場合には、オクルージョンが大きく、誤認識の可能性が高いと推定されることから、前記第3の位置算出手段による算出結果を出力するようにすればよい。
【0036】
また、本発明の第2の側面は、ロボットが視覚認識に基づく環境認識を行なうためのランドマークであって、
平面上に配設された半径dの内円と、
前記内円とは略同心円状に配設された半径dの外円と(但し、d<d)、
を具備することを特徴とするランドマークである。
【0037】
本発明の第2の側面に係る平面ランドマークは、半径dの内円と、この内円とは略同心円状に配設された半径dの外円とで構成される(但し、d<d)。内円と外円とは互いに異なる色には塗布され、より好ましくはUV色空間上で分離し易い配色が施されている。
【0038】
また、内円と外円との識別性をさらに増すために、幅wの内境界線が設けられている。また、この平面ランドマークとこれが貼設された床面や壁との識別性・分離性を確保するために、幅wの外境界線が設けられている。内境界線と外境界線はいずれも黒色でよい。
【0039】
内円と外円、さらには外円とランドマークの設置面との認識性能を向上させるために、以下のパラメータを用いることができる。
【0040】
0mm<w<10mm
0mm<w<50mm
【0041】
また、外円と内円の認識性能を向上させるために、外円半径と内円半径との比を以下の範囲内に設定することがより好ましい。
【0042】
3:4<d:d<1:3
【0043】
例えば、d=60mm、d=120mm、w=2mm、w=20に設定した場合、d:d=1:2となり、上記の条件を満たすことができる。
【0044】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0045】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0046】
A.移動ロボットの構成
図1には、本発明に実施に供される移動ロボット1の機能構成を模式的に示している。同図に示すように、移動ロボット1は、全体の動作の統括的制御やその他のデータ処理を行う制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。
【0047】
入出力部40は、入力部として移動ロボット1の目に相当するCCDカメラ15や、耳に相当するマイクロフォン16、頭部や背中などの部位に配設されてユーザの接触を感知するタッチ・センサ18、各足底に配設された肉球スイッチ、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ17、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)19などを装備している。これら出力部は、脚などによる機械運動パターン以外の形式で移動ロボット1からのユーザ・フィードバックを表現することができる。
【0048】
CCDカメラ15は、例えば、作業空間上の各部位に配設されたランドマークを観測する外界観測手段として機能することができる。勿論、CCDカメラ15以外に(あるいは、これと併せて)、レンジ・ファインダなどを外界観測手段として備えていてもよい。
【0049】
駆動部50は、制御部20が指令する所定の運動パターンに従ってロボット装置の機体動作を実現する機能ブロックであり、行動制御による制御対象である。駆動部50は、ロボット装置00の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど関節軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモータ51と、モータ51の回転位置を検出するエンコーダ52と、エンコーダ52の出力に基づいてモータ51の回転位置や回転速度を適応的に制御するドライバ53の組み合わせで構成される。
【0050】
駆動ユニットの組み合わせ方によって、ハードウェア構成が定まる。例えば、ロボット装置を例えば2足歩行又は4足歩行などの脚式移動ロボットとして構成したり、あるいはタイヤ式のロボットとして構成したりすることができる。
【0051】
各駆動ユニット毎に配設されたエンコーダ52からの出力に基づいて、キネマティクスによりカメラ15の姿勢を特定することができる。
【0052】
電源部60は、その字義通り、移動ロボット1内の各電気回路などに対して給電を行う機能モジュールである。本実施形態に係る移動ロボット1は、バッテリを用いた自律駆動式であり、電源部60は、充電バッテリ61と、充電バッテリ61の充放電状態を管理する充放電制御部62とで構成される。
【0053】
充電バッテリ61は、例えば、複数本のニッケル・カドミウム電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。
【0054】
また、充放電制御部62は、バッテリ61の端子電圧や充電/放電電流量、バッテリ61の周囲温度などを測定することでバッテリ61の残存容量を把握し、充電の開始時期や終了時期などを決定するようになっている。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、移動ロボット1が充電オペレーションを開始及び終了するためのトリガとなる。
【0055】
制御ユニット20は、「頭脳」に相当し、例えば移動ロボット1の頭部あるいは胴体部に搭載されている。
【0056】
図2には、制御ユニット20の構成をさらに詳細に図解している。同図に示すように、制御ユニット20は、メイン・コントローラとしてのCPU(Central Processing Unit)21が、メモリその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス27は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス27上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス28上の特定の装置と通信することができる。
【0057】
RAM(Random Access Memory)22は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データを一時的に保存したりするために使用される。
【0058】
ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、移動ロボット1の電源投入時に実行する自己診断テスト・プログラムや、移動ロボット1の動作を規定する動作制御プログラムなどが挙げられる。
【0059】
ロボット1の制御プログラムには、カメラ15やマイクロフォン16などのセンサ入力を処理する「センサ入力処理プログラム」、センサ入力と所定の動作モデルとに基づいて移動ロボット1の行動すなわち運動パターンを生成する「行動命令プログラム」、生成された運動パターンに従って各モータの駆動やスピーカ17の音声出力などを制御する「駆動制御プログラム」、作業空間に配置されている1以上のランドマークを手がかりに自分の地理的な所在を探索する「自己位置同定プログラム」などが含まれる。本実施形態に係る自己位置同定プログラム内には、カメラ15の撮影画像に基づいて発見・認識されたランドマークの姿勢を推定するアルゴリズムや、ランドマークの姿勢に応じた位置計算アルゴリズムなどが含まれている。
【0060】
不揮発性メモリ24は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、製造番号や暗号鍵などのセキュリティ情報などが挙げられる。
【0061】
インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、カメラ15やマイクロフォン16、スピーカ17との間でデータ入出力を行う。また、インターフェース25は、駆動部50内の各ドライバ53−1…との間でデータやコマンドの入出力を行なう。
【0062】
また、インターフェース25は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and electronics Engineers)1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、メモリ・スティックを受容するメモリ・カード・インターフェース(カード・スロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行なうようにしてもよい。
【0063】
また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行なうようにしてもよい。
【0064】
さらに、制御ユニット20は、無線通信インターフェース26やネットワーク・インターフェース・カード(NIC)27などを含み、Bluetoothのような近接無線データ通信や、IEEE 802.11bのような無線ネットワーク、あるいはインターネットなどの広域ネットワークを経由して、外部のさまざまなホスト・コンピュータとデータ通信を行なうことができる。
【0065】
このような移動ロボット1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、移動ロボット1の複雑な動作制御を演算したり、リモート・コントロールしたりすることができる。
【0066】
B.平面ランドマークの構成
図3には、本発明の実施に供される平面ランドマークの構成を模式的に示している。
【0067】
同図に示すように、本実施形態に係る平面ランドマークは、半径dの内円と、この内円とは略同心円状に配設された半径dの外円とで構成される(但し、d<d)。内円と外円とは互いに異なる色には塗布され、より好ましくはUV色空間上で分離し易い配色が施されている。また、内円と外円との識別性をさらに増すために、幅wの内境界線が設けられている。また、この平面ランドマークとこれが貼設された床面や壁との識別性・分離性を確保するために、幅wの外境界線が設けられている。内境界線と外境界線はいずれも黒色でよい。
【0068】
本実施形態では、内円と外円、さらには外円とランドマークの設置面との認識性能を向上させるために、以下のパラメータを用いている。
【0069】
0mm<w<10mm
0mm<w<50mm
【0070】
また、外円と内円の認識性能を向上させるために、外円半径と内円半径との比を以下の範囲内に設定している。
【0071】
3:4<d:d<1:3
【0072】
例えば、d=60mm、d=120mm、w=2mm、w=20に設定した場合、d:d=1:2となり、上記の条件を満たすことができる。なお、外円半径と内円半径の関係は比のみが重要であり、各々の実寸法は重要ではない。何故ならば、中心投影の基本的性質として、カメラの投影中心Cに近づくにつれて大きな像として投影され、逆に、投影中心Cから遠ざかるにつれ小さく投影されるが、画像認識工程では撮影画像からランドマークのみを切り出して扱う(あるいは、ランドマークにズームを合せる)ことから、距離や十寸法の成分が捨象され、寸法比のみが残るからである。
【0073】
ここで、外円半径dを120mmに固定して、内円半径dを40mmから80mmまで10mm刻みで変化させてゆき(図4を参照のこと)、各々の場合のランドマーク認識率を測定してみた。以下の表1には測定結果を示している。
【0074】
【表1】

Figure 2004301796
【0075】
表1からも判るように、内円半径を小さくし過ぎると、ランドマークの画像に占める内円の比率が低下するため認識率は低下する。逆に、内円半径を大きくしすぎると外円半径が細くなってしまうためやはり認識率が低下してしまう。この結果、上述したように、内円と外円の半径の比率が3:4<d:d<1:3の範囲内において、良好な認識率を確保することができる。
【0076】
また、上述したように、内円と外円とは互いに異なる色には塗布され、UV色空間上で分離し易い配色が施されていることが好ましい。
【0077】
明暗変化に対する色抽出のし易さを考えた場合(照度変化に対してゲインを調整)、ゲイン調整さえ合っていれば、どの色もUV空間上で放射線状に分布する。この観点で、どの色であっても内円、外円の配色に利用することができる。
【0078】
また、ゲインが適切でない場合の色抽出のし易さ(照度固定で、ゲイン変更)王道色と特性色とでUV空間上の分布は相違する。
【0079】
また、色温度変化に対する色抽出のし易さを考えた場合(照明色温度変化に対してホワイト・バランス調整(2700K,4500K,5000K,6500K::9001x))、桃色系は狭い範囲で収まってくる。また、青や緑は周りが広い。
【0080】
ホワイト・バランスが適切でない場合の色抽出のし易さは(照明色温度変化に対してホワイト・バランス調整(2700K,4500K,5000K,6500K::9001x))、黄色系は橙色に変化し、橙色はオーバーラップしてしまう。この観点からは、黄色は使用せず、コンパクトのオレンジを採用することが好ましい。
【0081】
C.ランドマークの認識及び姿勢推定アルゴリズム
ロボットからランドマークまでの相対距離は、例えばカメラを用いた一般的な測距技術によりある程度測定することができる。しかしながら、より正確に距離を測定するためには、ランドマークの画像認識結果に基づいてより厳密な計算処理を行なう必要がある。このとき、ランドマークが床面上に水平に設置されているか、あるいは壁に垂直に貼設されているか、すなわちランドマークの姿勢に応じて計算方法が相違する。
【0082】
この項では、前項Bにおいて説明した色が異なる同心円状の内円と外円からなる平面ランドマークを使用した場合についての、ランドマークの認識及び姿勢推定アルゴリズムについて詳解する。
【0083】
本実施形態では、以下の手順に従ってランドマークの認識及び姿勢推定を行なう。
【0084】
(1)カメラによって画像を取得
(2)色抽出
(3)連結領域分割
(4)連結領域からランドマークを認識
(5)すべてのランドマークに対して、
5−a)水平(床面)に設置されたランドマークであるとの仮定に基づき、3次元位置を推定
5−b)垂直(壁)に設置されたランドマークであるとの仮定に基づき、3次元位置を推定
5−c)ランドマークが水平又は垂直のいずれの姿勢で設置されているかを判断
【0085】
カメラでランドマークを捕捉した画像をピクセル単位で色検出することにより、色抽出を行なう。さらに、同じ色からなる領域毎に取り出すことにより、色連結領域を取り出すことができる。
【0086】
ランドマークの認識過程では、画像を色連結領域に分割することにより、以下の(矩形)領域情報を取得することができる。
【0087】
a)各領域の色
b)領域の左上座標(x’,y’)と右下座標(x’,y’
【0088】
次いで、すべての領域の組み合わせに対して以下のチェックを行なう。
【0089】
a)一方の領域が他方の領域を内包していること
b)領域の幅の比w:w(w:大きい領域の幅、w:小さい領域の幅)が閾値(例えば3:1)を越えないこと
c)領域の高さの比w:w(w:大きい領域の幅、w:小さい領域の幅)が閾値(例えば3:1)を越えないこと
【0090】
そして、上述した条件a〜cをすべて満たす領域の組み合わせをランドマークとして認識する。色の組み合わせによってランドマークを一意に特定することができる。大きい領域をランドマークのサイズとする。
【0091】
ここで、ランドマークの姿勢推定処理について説明する前に、本実施形態において使用されるカメラ・モデルについて述べる。
【0092】
本実施形態では、中心投影を行なうピンホール・カメラを使用するものとする。中心投影とは、投影中心と3次元物体表面の点とを結ぶ直線(「視線」とも言う)とカメラの投影スクリーンとの交点に物体表面の点の色濃度値を配置していくことで、投影画像を形成する。中心投影では、同じ大きさの物体であっても、カメラの投影中心に近づくにつれて大きな像として投影され、逆に、投影中心Cから遠ざかるにつれて小さく投影される性質を持つ。
【0093】
ここで、カメラ中心を原点とし、焦点距離をf、光軸中心を(p,p)、画素サイズを(u,u)、ランドマーク位置の3次元座標を(x,y,z)、この3次元位置に対応する画素座標を(x’,y’)とすると、幾何光学的に以下の式が見出される。
【0094】
【数1】
Figure 2004301796
【0095】
但し、f=f/u、f=f/uと定義する。
【0096】
また、本実施形態では、カメラは、例えば、2腕2足の直立歩行型ロボットの頭部に搭載されている。そして、カメラの姿勢は図6に示すように、ロール、ピッチ、ヨーの各軸回りの回転位置で表現される。
【0097】
以下の説明では、カメラがピッチ軸回りに回転して、前方のランドマークを捕捉するものとする。図7に示すように、カメラがピッチ軸回りに所定の回転位置を以って撮影しているとする。このとき、カメラの撮影画像(camera image)中に同じ大きさでランドマークを検出したとき(picture of landmark)、同図中で参照番号1〜4で示した場合を含め、ランドマークがとりうる姿勢は複数想定される。以下の説明では、ランドマークは、壁又は床面のいずれかにのみ貼設されている、すなわちランドマークは垂直な姿勢1又は水平な姿勢2のいずれか一方であることを前提とする。
【0098】
カメラによって捕捉されたランドマークの位置(又は、カメラとランドマークの相対距離)は、カメラの姿勢(本実施形態ではピッチ軸周りの回転位置pitch)と、カメラレンズの焦点距離f並びに光学中心(p,p)などの与えられたパラメータ値と、撮影画像中のランドマークの高さや幅を用いて算出することができる。但し、ランドマークが床面上に水平に設置されているか、あるいは壁に垂直に貼設されているか、すなわちランドマークの姿勢に応じて計算方法が相違する。
【0099】
図8には、ランドマークが水平に設置されていると仮定した場合に、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する方法を図解している。
【0100】
図示の例では、カメラはピッチ軸回りに所定の回転位置pitchを以ってランドマークを撮影している。3次元空間上でランドマークは、点(y,z)と点(y,y)の間に存在し、その中心位置は(y,z)である。そして、ランドマークは撮影画像上では、高さ方向に点(y’,f)と点(y’,f)の間に存在し、投影平面上に射影された像の高さは点(y,z)と点(y,z)を結ぶ線分に等しい。この場合、幾何光学的に以下の式が成り立つ。
【0101】
【数2】
Figure 2004301796
【0102】
そして、ランドマーク中心の3次元位置は下式のように表される。
【0103】
【数3】
Figure 2004301796
【0104】
また、図9には、ランドマークが垂直に設置されていると仮定した場合に、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する方法を図解している。
【0105】
図示の例では、カメラはピッチ軸回りに所定の回転位置pitchを以ってランドマークを撮影している。3次元空間上でランドマークは点(y,z)と点(y,z)の間に存在し、その中心位置は(y,z)である。そして、ランドマークは撮影画像上では高さ方向に点(y’,f)と点(y’,f)の間に存在し、投影平面上に射影された像の高さは点(y,z)と点(y,z)を結ぶ線分に等しい。この場合、幾何光学的に以下の式が成り立つ。
【0106】
【数4】
Figure 2004301796
【0107】
そして、ランドマーク中心の3次元位置は下式のように表される。
【0108】
【数5】
Figure 2004301796
【0109】
また、図10には、ランドマークが水平に設置されていると仮定した場合に、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する方法を図解している。
【0110】
図示の例では、カメラは、中心位置(x,z)で幅方向に点(x,z)と点(x,z)の間に存在するランドマークを撮影している。ランドマークは撮影画像上では幅方向に点(x’,z)と点(x’,z)の間に存在し、投影平面上に射影された像の幅は、点(x1,z)と点(x2,z)の間を結ぶ線分に等しい。この場合、幾何光学的に以下の式が成り立つ。
【0111】
【数6】
Figure 2004301796
【0112】
そして、ランドマーク中心の3次元位置は下式のように表される。
【0113】
【数7】
Figure 2004301796
【0114】
オクルージョンなどがなく水平に設置されたランドマークが完全に見えている場合、撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zhと、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zwは等しくなる(z=z)。
【0115】
また、図11には、ランドマークが垂直に設置されていると仮定した場合に、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する方法を図解している。
【0116】
この場合、光軸に対しランドマークが垂直であるときを相対距離が最大として、光軸に対してさまざまな回転位置で設置されているランドマークが、撮影画像中で同じ幅方向の位置すなわち点(x,f)から点(x,f)の間に観測される。言い換えれば、光軸に対するランドマークの回転がわからないと、その3次元位置を推定することはできない。
【0117】
光軸に対しランドマークが垂直であるとき、ランドマーク中心の3次元位置は上式[数7]と同様となる。そして、オクルージョンなどがなく垂直に設置されたランドマークが完全に見えている場合、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zは、撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zv以上となる(z≧z)。
【0118】
図10並びに図11に示した原理に従えば、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zとを大小比較することにより、撮影画像中のランドマークが水平又は垂直いずれの姿勢で設置されているかを推定することができる。そして、この推定結果に基づいて、適切なランドマークの位置推定アルゴリズムを選択することができる(後述)。
【0119】
ランドマークが水平又は垂直いずれの姿勢で設置されているか応じて計算方法が相違するが、これとは別に、カメラが遠くを見ているときにランドマークを認識した場合と、カメラが近くを見ているときにランドマークを認識した場合とでは、最適な位置計算方法は変わってくる。
【0120】
図12には、カメラが遠くのランドマークを眺めている様子を示している。図示の例では、カメラはピッチ軸回りに所定の回転位置pitchを以ってランドマークを撮影している。
【0121】
この場合、撮影画像中で同じ高さを持つランドマークが検出されたとすると、水平に設置されたランドマークよりも垂直に設置されたランドマークの方がより遠くに存在することになる。すなわち、カメラが遠くを眺めている場合には、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が大きい値となる(z<z)。
【0122】
また、図13には、カメラが近くのランドマークを眺めている様子を示している。図示の例では、カメラはピッチ軸回りに所定の回転位置pitchを以ってランドマークを撮影している。
【0123】
この場合、撮影画像中で同じ高さを持つランドマークが検出されたとすると、水平に設置されたランドマークよりも垂直に設置されたランドマークの方がより近くに存在することになる。すなわち、カメラが近くを眺めている場合には、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が小さい値となる(z>z)。
【0124】
図12及び図13に示した原理に従えば、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較することにより、カメラが遠く又は近くのいずれを眺めているのかを推定することができる。そして、この推定結果に基づいて、適切なランドマークの位置推定アルゴリズムを選択することができる(後述)。
【0125】
図14には、下を見下ろしているカメラが水平並びに垂直に設置されているランドマークを撮影する様子を示している。ここでは、ランドマークの内円の中心位置を(xic,yic)とし、ランドマークの外円の中心位置を(xoc,yoc)とおく。
【0126】
中心投影では、同じ大きさの物体であっても、カメラの投影中心に近づくにつれて大きな像として投影され、逆に、投影中心から遠ざかるにつれて小さく投影される性質を持つ(前述)。
【0127】
したがって、図14からも判るように、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さい場合には(yic>yoc)、ランドマークは垂直に設置されていると推定される。逆に、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きい場合には(yic<yoc)、ランドマークは水平に設置されていると推定される。そして、この推定結果に基づいて、適切なランドマークの位置推定アルゴリズムを選択することができる(後述)。
【0128】
図15には、ランドマークの位置推定アルゴリズムの一例をフローチャートの形式で示している。また、この位置推定アルゴリズムの擬似プログラム・コードを以下に示している。但し、ここではランドマーク全体がオクルージョンなしに見えていると仮定する。
【0129】
【数8】
Figure 2004301796
【0130】
まず、ステップS1において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図8を参照のこと)。
【0131】
次いで、ステップS2において、ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図9を参照のこと)。
【0132】
さらに、ステップS3において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する(図10を参照のこと)。
【0133】
ここで、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較することにより、カメラが遠く又は近くのいずれを眺めているのかを推定する(ステップS4)(図12及び図13を参照のこと)。
【0134】
図15に示す位置推定アルゴリズムはカメラが遠くのランドマークを眺めているときには適しているが、近くのランドマークを眺めているときに配置を正確に推定することができない。このため、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が小さい値となる場合には(z>z)、カメラが近くを眺めているので、答えが出ない(No Result)として本処理ルーチン全体を終了する(ステップS5)。
【0135】
一方、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が大きい値となる場合には(z<z)、カメラが遠くを眺めていると推定される。この場合、さらに、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zとを大小比較することにより、撮影画像中のランドマークが水平又は垂直いずれの姿勢で設置されているかを推定する(ステップS6)(図11を参照のこと)。
【0136】
そして、z>zとなる場合には、ランドマークが垂直に設置されていると推定するとともに、ステップS2においてランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いて推定されたランドマークの位置(x,y,z)を推定結果として出力する(ステップS7)。
【0137】
一方、z≦zとなる場合には、ランドマークが水平に設置されている可能性とカメラに対して回転していない垂直な姿勢で設置されている可能性が残されている。そこで、ランドマークが水平に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zと撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zとの差分|z−z|と、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zと撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zとの差分|z−z|とを比較して(ステップS8)、ランドマークが垂直又は水平いずれに設置されているかどうかを判別する。
【0138】
|z−z|の方が小さい場合には、ランドマークはカメラに対して回転していない垂直な姿勢で設置されていると推定される。この場合、ステップS2においてランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いて推定されたランドマークの位置(x,y,z)を推定結果として出力する(ステップS9)。
【0139】
一方、|z−z|の方が小さい場合には、ランドマークは水平に設置されていると判断する。そして、ステップS1においてランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さを用いて推定されたランドマークの位置(x,y,z)を推定結果として出力する(ステップS10)。
【0140】
図15に示したランドマークの位置推定アルゴリズムは、カメラが遠くを眺めている場合(図12を参照のこと)に適している。なお、ランドマークの一部が隠れている場合(オクルージョン)、結果が異なることがある。また、ランドマークが垂直又は水平いずれにも設置されていない場合にも、結果が異なることがある。また、カメラの回転(ロール軸回り)に関しても、式が多少変わるが、同様の結果を得ることができる。
【0141】
また、図16には、ランドマークの位置推定アルゴリズムについての他の例をフローチャートの形式で示している。また、この位置推定アルゴリズムの擬似プログラム・コードを以下に示している。但し、ここではランドマーク全体がオクルージョンなしに見えていると仮定する。
【0142】
【数9】
Figure 2004301796
【0143】
まず、ステップS11において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図8を参照のこと)。
【0144】
次いで、ステップS12において、ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図9を参照のこと)。
【0145】
さらに、ステップS13において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する(図10を参照のこと)。
【0146】
カメラが水平並びに垂直に設置されているランドマークを見下ろして撮影した場合、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)、ランドマークは垂直に設置されていると推定され、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)、ランドマークは垂直に設置されていると推定される(図14を参照のこと)。
【0147】
そこで、ステップS14では、撮影画像中のランドマークの内円の高さyicと外円の高さyicを大小比較して、ランドマークが水平又は垂直いずれの姿勢で設置されているかを判別する。
【0148】
ここで、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きい場合には(yic<yoc)、ランドマークは水平に設置されていると推定される。
【0149】
この場合、さらに、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとを大小比較する(ステップS15)。
【0150】
そして、zがzよりも大きくない場合には、ステップS11においてランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークの位置(x,y,z)を、ランドマークが水平に設置されているという推定結果とともに出力する(ステップS16)。
【0151】
一方、zがzよりも大きい場合には、オクルージョンが大きく、誤認識の可能性が高いと推定されることから、より近くに見える推定方法である撮影画像中のランドマークの幅を用いて推定されたランドマークの位置(x,y,z)を、ランドマークが水平に設置されているという推定結果とともに出力する(ステップS17)。
【0152】
また、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さい場合には(yic>yoc)、ランドマークは垂直に設置されていると推定される。
【0153】
この場合、さらに、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとを大小比較する(ステップS18)。
【0154】
そして、zがzよりも大きくない場合には、ステップS12においてランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いて推定されたランドマークの位置(x,y,z)を、ランドマークが垂直に設置されているという推定結果とともに出力する(ステップS19)。
【0155】
一方、zがzよりも大きい場合には、オクルージョンや視線に対するランドマークの傾きが大きく、誤認識の可能性が高いと推定されることから、より近くに見える推定方法である撮影画像中のランドマークの幅を用いて推定されたランドマークの位置(x,y,z)を、ランドマークが垂直に設置されているという推定結果とともに出力する(ステップS20)。
【0156】
図16に示したランドマークの位置推定アルゴリズムは、カメラが遠くを眺めている場合(図13を参照のこと)に適している。なお、ランドマークの一部が隠れている場合、領域情報の不整合により、回転方向の推定が異なることがある。また、ランドマークが垂直又は水平いずれにも設置されていない場合にも、結果が異なることがある。また、カメラの回転(ロール軸回り)に関しても、式が多少変わるが、同様の結果を得ることができる。図16に示したアルゴリズムは、画像に占めるランドマークの割合が大きいときに特に有効であるが、割合が小さい場合(ランドマークが著しく遠い場合や、ランドマークとカメラの支線のなす角が小さい場合)には結果が異なることがある。
【0157】
図15に示したランドマークの位置推定アルゴリズムはカメラが遠くのランドマークを認識した場合に適しており、さらにランドマークが水平又は垂直いずれに設置されているかに応じて最適なランドマークの位置推定方法を選択するようになっている。同様に、図16に示したランドマークの位置推定アルゴリズムはカメラが近くのランドマークを認識した場合に適しており、さらにランドマークが水平又は垂直いずれに設置されているかに応じて最適なランドマークの位置推定方法を選択するようになっている。
【0158】
図17には、さらにカメラが遠く又は知覚いずれのランドマークを認識しているかに応じて、図15に示したアルゴリズム又は図16に示したアルゴリズムの一方を自動的に選択することができるランドマークの位置推定アルゴリズムをフローチャートの形式で示している。また、この位置推定アルゴリズムの擬似プログラム・コードを以下に示している。
【0159】
【数10】
Figure 2004301796
【0160】
まず、ステップS21において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図8を参照のこと)。
【0161】
次いで、ステップS22において、ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する(図9を参照のこと)。
【0162】
さらに、ステップS23において、ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する(図10を参照のこと)。
【0163】
ここで、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較することにより、カメラが遠く又は近くのいずれを眺めているのかを推定する(ステップS24)(図12及び図13を参照のこと)。
【0164】
ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が大きい値となる場合には(z<z)、カメラが遠くを眺めていると推定される。この場合、図15に示したランドマークの位置推定アルゴリズム(但し、ステップS4以降)を実行する(ステップS25)。
【0165】
一方、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zよりも、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zの方が小さい値となる場合には(z>z)、カメラが近くを眺めていると推定される。この場合、図16に示したランドマークの位置推定アルゴリズム(但し、ステップS14以降)を実行する(ステップS26)。
【0166】
なお、ランドマークの一部が隠れている場合(オクルージョン)、結果が異なることがある。また、ランドマークが垂直又は水平いずれにも設置されていない場合にも、結果が異なることがある。また、カメラの回転(ロール軸回り)に関しても、式が多少変わるが、同様の結果を得ることができる。
【0167】
[追補]
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。
【0168】
本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置あるいはその他一般的な移動体装置、あるいはこれら装置の動作を記述したデータを演算処理するデータ処理システムであるならば、例えば玩具などのような他の産業分野に属する製品であっても、同様に本発明を適用することができる。
【0169】
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0170】
【発明の効果】
以上詳記したように、本発明によれば、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を同定することができる、優れたロボットを提供することができる。
【0171】
また、本発明によれば、床や壁に設置されている平面的なランドマークを設置された姿勢に応じて位置を好適に推定することができる、優れたロボット、並びにランドマークの姿勢推定システム及び推定方法を提供することができる。
【0172】
また、本発明によれば、好適な形状パターン並びに色パターンからなる平面的なランドマークを設置された姿勢に応じて位置を正確に推定することができる、優れたロボット、並びにランドマークの姿勢推定システム及び推定方法を提供することができる。
【図面の簡単な説明】
【図1】本発明に実施に供される移動ロボット1の機能構成を模式的に示した図である。
【図2】制御ユニット20の構成をさらに詳細に示した図である。
【図3】本発明の実施に供される平面ランドマークの構成を模式的に示した図である。
【図4】平面ランドマークの認識率を測定する実験環境を模式的に示した図である。
【図5】本発明の実施形態において使用されるカメラ・モデルを説明するための図である。
【図6】カメラの姿勢の表現方法を説明するための図である。
【図7】カメラがピッチ軸回りに所定の回転位置を以って撮影している様子を示した図である。
【図8】ランドマークが水平に設置されていると仮定した場合に、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する方法を説明するための図である。
【図9】ランドマークが垂直に設置されていると仮定した場合に、撮影画像中のランドマークの高さを用いてランドマークの位置を推定する方法を説明するための図である。
【図10】ランドマークが水平に設置されていると仮定した場合に、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する方法を説明するための図である。
【図11】ランドマークが垂直に設置されていると仮定した場合に、撮影画像中のランドマークの幅を用いてランドマークの位置を推定する方法を説明するための図である。
【図12】カメラが遠くのランドマークを眺めている様子を示した図である。
【図13】カメラが近くのランドマークを眺めている様子を示した図である。
【図14】下を見下ろしているカメラが水平並びに垂直に設置されているランドマークを撮影する様子を示した図である。
【図15】ランドマークの位置推定アルゴリズムの一例を示したフローチャートである。
【図16】ランドマークの位置推定アルゴリズムについての他の例を示したフローチャートである。
【図17】ランドマークの位置推定アルゴリズムについての他の例を示したフローチャートである。
【符号の説明】
1…移動ロボット
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…タッチ・センサ
19…LEDインジケータ
20…制御部
21…CPU
22…RAM
23…ROM
24…不揮発メモリ
25…インターフェース
26…無線通信インターフェース
27…ネットワーク・インターフェース・カード
28…バス
29…キーボード
40…入出力部
50…駆動部
51…モータ
52…エンコーダ
53…ドライバ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot that identifies its own position based on sensor information of the robot and operation information of the robot itself. In particular, in an environment including artificial landmarks, the self-position is identified based on a search result of a landmark. About a robot to do.
[0002]
More specifically, the present invention relates to a robot for estimating a position of a planar landmark installed on a floor or a wall in accordance with an installed attitude, and a position estimation system and an estimation method of a landmark, and has a suitable shape. The present invention relates to a robot for accurately estimating a position according to a posture in which a planar landmark including a pattern and a color pattern is installed, and a position estimation system and a position estimation method for a landmark.
[0003]
[Prior art]
A mechanical device that performs a motion resembling a human motion using an electric or magnetic action is called a “robot”. It is said that the robot is derived from the Slavic word "ROBOTA (slave machine)". In Japan, robots began to spread from the late 1960's, but most of them were industrial robots (industrial robots) such as manipulators and transfer robots for the purpose of automation and unmanned production work in factories. Met.
[0004]
Recently, various types of legged locomotion such as "humanoid" or "humanoid" robots designed based on the body mechanisms and movements of animals such as humans who walk upright on two legs have been designed. Research and development on robots has progressed, and expectations for practical use have been increasing.
[0005]
Most of the working space and living space of human beings are formed according to the human body mechanism and behavior style of bipedal upright walking, and the current mechanical system using wheels and other driving devices as moving means will move. There are many barriers. Therefore, in order for the mechanical system, that is, the robot, to perform various human tasks and penetrate deep into the human living space, it is preferable that the movable range of the robot is almost the same as that of a human. This is the reason why practical use of the legged mobile robot is greatly expected.
[0006]
Such a humanoid robot can be applied to various types of operations in industrial activities and production activities. For example, sites where humans cannot easily step into, such as maintenance work in nuclear power plants, thermal power plants, petrochemical plants, transport and assembly of parts in manufacturing factories, cleaning in high-rise buildings, rescue in fire sites, etc. Have a humanoid robot take over dangerous and difficult tasks at the site.
[0007]
Further, other uses of the humanoid robot include what is called "symbiosis" for making the living space the same as a human, and what is called "entertainment" when youth. In this type of application, the robot is installed and used in the same working environment as a human such as a home environment. In this case, the character of close contact with life is more prominent than the life support such as work substitution.
[0008]
Intelligent mobile robots can autonomously search for a route in a given work space and take free actions. At this time, the identification of the position of the robot is an extremely important technique for the robot to perform services such as delivery. Because if you make a mistake in getting to the target point, it is inefficient, even if you can recover, and may even lead to dangers such as colliding with obstacles and entering dangerous areas. Because.
[0009]
One of the typical methods for a robot to perform self-identification is to use a “landmark”. Usually, visually recognizable information is formed on the surface of the landmark. The robot can geographically search for its own position based on the relative position information from the visually recognized landmark.
[0010]
A landmark that has been used as a conventional landmark is one that has a visible pattern written on a flat plate, a tape for visual recognition attached to a wall, floor, ceiling, etc. A tape is stretched around the building premises along a desired path), or a three-dimensional object is installed in the work environment.
[0011]
Such a planar landmark may be attached to a floor or a wall, for example. For example, when considering the use of landmarks in an environment where installation space is limited, such as in a general home, specify the location of the landmark on either the floor or the wall, or be sure to use a unique posture for the landmark. It is impossible to install.
[0012]
The relative distance from the robot to the landmark can be measured to some extent by, for example, a general ranging technique using a camera. However, in order to measure the distance more accurately, it is necessary to perform more strict calculation processing based on the image recognition result of the landmark. At this time, the method of calculating the position of the landmark differs depending on whether the landmark is installed horizontally on the floor or vertically attached to the wall, that is, depending on the posture of the landmark. Therefore, in order for the mobile robot to more accurately identify its own position in accordance with the landmark, it is necessary to first estimate the attitude of the found landmark.
[0013]
For example, a technology for identifying landmarks from the surrounding environment (see, for example, Patent Document 1), a robot device for providing an identifier of a different color pattern on an object, and detecting a position so as to detect the color pattern by image processing Some proposals have been made (see, for example, Patent Document 2), but they all disclose that the position is accurately estimated according to the attitude at which the landmark is installed. Absent.
[0014]
[Patent Document 1]
U.S. Pat. No. 5,957,984
[Patent Document 2]
U.S. Pat. No. 6,088,469
[0015]
[Problems to be solved by the invention]
An object of the present invention is to provide an excellent robot which can identify a self-position in an environment including an artificial landmark based on a landmark search result.
[0016]
A further object of the present invention is to provide an excellent robot, and a landmark posture estimation system and estimation that can appropriately estimate a position according to a posture in which a planar landmark installed on a floor or a wall is installed. It is to provide a method.
[0017]
A further object of the present invention is to provide an excellent robot capable of accurately estimating a position in accordance with a posture in which a planar landmark including a suitable shape pattern and a color pattern is installed, and a landmark posture estimation system. And an estimation method.
[0018]
Means and Action for Solving the Problems
The present invention has been made in view of the above problems, a landmark position estimation system for estimating the position according to the orientation of the landmark installed,
Image holding means for holding a captured image of the landmark;
First position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed horizontally;
Second position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed vertically;
Third position calculating means for calculating the position of the landmark based on the width component of the landmark in the captured image;
Attitude estimating means for estimating whether the landmark is installed in a horizontal or vertical orientation,
A selection output unit that selects one of the calculation results by the first to third position calculation units in accordance with the estimated posture of the landmark;
It is a landmark position estimation system characterized by comprising:
[0019]
However, the term “system” as used herein refers to a logical collection of a plurality of devices (or functional modules that realize specific functions), and each device or functional module is in a single housing. It does not matter in particular.
[0020]
The relative distance from the robot to the landmark can be measured to some extent by, for example, a general ranging technique using a camera. However, in order to measure the distance more accurately, it is necessary to perform more strict calculation processing based on the image recognition result of the landmark. At this time, the calculation method differs depending on whether the landmark is placed horizontally on the floor or vertically attached to the wall, that is, depending on the posture of the landmark.
[0021]
According to the present invention, it is possible to estimate whether a landmark in a captured image is installed in a horizontal or vertical orientation, and to select an appropriate landmark position estimation algorithm based on the estimation result.
[0022]
Here, the relative distance z to the landmark estimated using the height of the landmark in the photographed image by the first position calculating means on the assumption that the landmark is installed horizontally is assumed.hAnd the relative distance z to the landmark estimated using the height of the landmark in the captured image by the second position calculating means on the assumption that the landmark is installed vertically.vAnd z, zh> ZvWhen it is determined that the captured image has been captured by the imaging means looking close,h<ZvIn the case of, it can be determined that the captured image has been captured by a captured image looking far away.
[0023]
In such a case, the selection output means may select any one of the calculation results by the first to third position calculation means depending on whether the captured image is viewed near or far. Good.
[0024]
Further, the attitude estimating means calculates a relative distance z to the landmark estimated based on the width of the landmark in the captured image.wAnd a relative distance z to the landmark estimated based on the height of the landmark in the captured image, assuming that the landmark is installed vertically.vAnd z, zw> ZvIn this case, it can be estimated that the landmark is installed vertically.
[0025]
The selection output means can output a position calculation result by the second position calculation means in response to the fact that the landmark is estimated to be installed vertically.
[0026]
Further, the attitude estimating means is zw≦ zvIn this case, there is a possibility that the landmark is installed horizontally and that the landmark is installed in a vertical posture that is not rotated with respect to the camera.
[0027]
Therefore, the attitude estimating means assumes that the landmark is installed horizontally, and determines the relative distance z to the landmark estimated based on the height of the landmark in the captured image.hAnd the relative distance z to the landmark estimated from the width of the landmark in the captured imagew| Zh-Zw| And the relative distance z to the landmark estimated from the height of the landmark in the captured image, assuming that the landmark is installed verticallyvAnd the relative distance z to the landmark estimated from the width of the landmark in the captured imagew| Zv-ZwIs compared with | to determine whether the landmark is installed vertically or horizontally.
[0028]
And | zv-ZwWhen | is smaller, it can be estimated that the landmark is installed in a vertical posture that is not rotated with respect to the camera. The selection output means may output the calculation result of the second position calculation means in response to this.
[0029]
Or | zh-ZwWhen | is smaller, it can be estimated that the landmark is installed horizontally. The selection output means may output the calculation result of the first position calculation means in response to this.
[0030]
The landmark has, for example, a radius diAnd the inner circle has a radius d substantially concentrically arranged.oAnd an outer circle.
[0031]
In such a case, the posture estimating means calculates the height y of the inner circle of the landmark in the captured image.icAnd the height y of the outer circleocAre compared, and the height y of the center of the inner circle of the landmark is calculated.icHeight of the center of the outer circle thanocIs smaller than (yic> Yoc) It is assumed that the landmark is installed vertically, and the height y of the center of the inner circle of the landmark is assumed.icHeight of the center of the outer circle thanocIs larger (yic<Yoc) It can be assumed that the landmark is installed vertically.
[0032]
The attitude estimating means calculates the height y of the center of the inner circle of the landmark.icHeight of the center of the outer circle thanocIs smaller than (yic> Yoc), The relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed verticallyvAnd the relative distance z to the landmark estimated using the width of the landmark in the captured imagewMay be further compared in size.
[0033]
And, the selection output means, zvIs zwIf it is not larger, the calculation result by the second position calculation means is output and zvIs zwIf it is larger than this, it is estimated that the inclination of the landmark with respect to the occlusion and the line of sight is large and the possibility of erroneous recognition is high. .
[0034]
Further, the attitude estimating means calculates the height y of the center of the inner circle of the landmark.icHeight of the center of the outer circle thanocIs larger (yic<Yoc), The relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.hAnd the relative distance z to the landmark estimated using the width of the landmark in the captured imagewMay be further compared in size.
[0035]
And, the selection output means, zhIs zwIf it is not larger, the calculation result by the first position calculation means is output and zhIs zwIf it is larger, it is presumed that the occlusion is large and the possibility of erroneous recognition is high, so the calculation result by the third position calculation means may be output.
[0036]
A second aspect of the present invention is a landmark for a robot to perform environment recognition based on visual recognition,
Radius d arranged on a planeiAnd the inner circle of
The inner circle is a radius d substantially concentrically arranged.oAnd the outer circle (where di<Do),
It is a landmark characterized by having.
[0037]
The planar landmark according to the second aspect of the present invention has a radius diAnd an inner circle having a radius d substantially concentrically arranged.o(Except for di<Do). The inner circle and the outer circle are applied to colors different from each other, and are more preferably provided with a color arrangement that is easily separated in a UV color space.
[0038]
In order to further enhance the discrimination between the inner circle and the outer circle, the width wiAre provided. In addition, in order to ensure the discrimination and separation between the flat landmark and the floor or wall on which the flat landmark is affixed, the width woAre provided. Both the inner and outer boundaries may be black.
[0039]
The following parameters can be used to improve the performance of recognizing the inner circle and the outer circle, and the outer circle and the landmark installation surface.
[0040]
0mm <wi<10mm
0mm <wo<50mm
[0041]
Further, in order to improve the recognition performance of the outer circle and the inner circle, it is more preferable to set the ratio between the outer circle radius and the inner circle radius in the following range.
[0042]
3: 4 <di: Do<1: 3
[0043]
For example, di= 60mm, do= 120mm, wi= 2mm, wo= 20, then di: Do= 1: 2, which satisfies the above condition.
[0044]
Further objects, features, and advantages of the present invention will become apparent from more detailed descriptions based on embodiments of the present invention described below and the accompanying drawings.
[0045]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0046]
A. Configuration of mobile robot
FIG. 1 schematically shows a functional configuration of a mobile robot 1 used in the present invention. As shown in FIG. 1, the mobile robot 1 includes a control unit 20 that performs overall control of the entire operation and other data processing, an input / output unit 40, a driving unit 50, and a power supply unit 60. . Hereinafter, each unit will be described.
[0047]
The input / output unit 40 includes a CCD camera 15 corresponding to an eye of the mobile robot 1 as an input unit, a microphone 16 corresponding to an ear, and a touch sensor disposed at a part such as a head or a back to detect a user's contact. 18, including a pawl switch disposed on each sole or other various sensors corresponding to the five senses. The output unit is provided with a speaker 17 corresponding to a mouth, an LED indicator (eye lamp) 19 that forms a facial expression by a combination of blinking and lighting timing. These output units can express the user feedback from the mobile robot 1 in a form other than a mechanical movement pattern by a leg or the like.
[0048]
The CCD camera 15 can function as, for example, external observation means for observing landmarks arranged at various parts in the work space. Of course, in addition to (or in addition to) the CCD camera 15, a range finder or the like may be provided as external observation means.
[0049]
The drive unit 50 is a functional block that implements the body operation of the robot device according to a predetermined movement pattern commanded by the control unit 20, and is a control target by behavior control. The drive unit 50 is a functional module for realizing a degree of freedom at each joint of the robot device 00, and is configured by a plurality of drive units provided for each joint axis such as roll, pitch, and yaw at each joint. Each drive unit performs a rotation operation around a predetermined axis, an encoder 52 that detects a rotation position of the motor 51, and adaptively controls a rotation position and a rotation speed of the motor 51 based on an output of the encoder 52. It is composed of a combination of drivers 53.
[0050]
The hardware configuration is determined by the combination of the drive units. For example, the robot device may be configured as a legged mobile robot such as bipedal walking or quadrupedal walking, or may be configured as a tired robot.
[0051]
The attitude of the camera 15 can be specified by kinematics based on the output from the encoder 52 provided for each drive unit.
[0052]
The power supply unit 60 is a functional module that supplies power to each electric circuit and the like in the mobile robot 1, as the name implies. The mobile robot 1 according to the present embodiment is of an autonomous driving type using a battery, and a power supply unit 60 includes a charge battery 61 and a charge / discharge control unit 62 that manages a charge / discharge state of the charge battery 61. .
[0053]
The rechargeable battery 61 is configured, for example, in the form of a “battery pack” in which a plurality of nickel-cadmium battery cells are packaged in a cartridge type.
[0054]
Further, the charge / discharge control unit 62 grasps the remaining capacity of the battery 61 by measuring a terminal voltage and a charge / discharge current amount of the battery 61, an ambient temperature of the battery 61, and determines a start time and an end time of charging. The decision is made. The start and end timings of charging determined by the charge / discharge control unit 62 are notified to the control unit 20, and serve as triggers for the mobile robot 1 to start and end charging operations.
[0055]
The control unit 20 corresponds to a “brain”, and is mounted on, for example, the head or the body of the mobile robot 1.
[0056]
FIG. 2 illustrates the configuration of the control unit 20 in more detail. As shown in FIG. 1, the control unit 20 has a configuration in which a CPU (Central Processing Unit) 21 as a main controller is bus-connected to a memory and other circuit components and peripheral devices. The bus 27 is a common signal transmission path including a data bus, an address bus, a control bus, and the like. Each device on the bus 27 is assigned a unique address (memory address or I / O address). The CPU 21 can communicate with a specific device on the bus 28 by specifying an address.
[0057]
A RAM (Random Access Memory) 22 is a writable memory including a volatile memory such as a DRAM (Dynamic RAM), and loads a program code executed by the CPU 21 or temporarily stores work data by the execution program. Used to save and so on.
[0058]
The ROM (Read Only Memory) 23 is a read-only memory that permanently stores programs and data. The program code stored in the ROM 23 includes a self-diagnosis test program executed when the power of the mobile robot 1 is turned on, an operation control program for defining the operation of the mobile robot 1, and the like.
[0059]
The control program of the robot 1 includes a “sensor input processing program” for processing sensor inputs of the camera 15 and the microphone 16 and the like, and generates an action, that is, a motion pattern of the mobile robot 1 based on the sensor inputs and a predetermined operation model. An action command program, a "drive control program" for controlling the driving of each motor and the sound output of the speaker 17 according to the generated motion pattern, and a geographical location of one or more landmarks arranged in the work space. "Self-location identification program" for searching for a suitable location. The self-position identification program according to the present embodiment includes an algorithm for estimating a posture of a landmark discovered and recognized based on an image captured by the camera 15, a position calculation algorithm corresponding to the posture of the landmark, and the like. ing.
[0060]
The non-volatile memory 24 is composed of a memory element that can be electrically erased and rewritten, such as an EEPROM (Electrically Erasable and Programmable ROM), and is used to hold data to be sequentially updated in a non-volatile manner. The data to be sequentially updated includes security information such as a serial number and an encryption key.
[0061]
The interface 25 is a device for interconnecting with devices outside the control unit 20 and enabling data exchange. The interface 25 performs data input / output with the camera 15, the microphone 16, and the speaker 17, for example. Also, the interface 25 inputs and outputs data and commands to and from each of the drivers 53-1 in the drive unit 50.
[0062]
The interface 25 includes a serial interface such as a RS (Recommended Standard) -232C, a parallel interface such as an IEEE (Institute of Electrical and Electronics Engineers) 1284, a USB (Universal Serial I / E) serial interface, and a USB (Universal Serial I / E) serial bus. , A general-purpose interface for connecting peripheral devices of a computer, such as a SCSI (Small Computer System Interface) interface, a memory card interface (card slot) for receiving a memory stick, and the like. Professional among The movement of the gram or data may be performed.
[0063]
As another example of the interface 25, an infrared communication (IrDA) interface may be provided to perform wireless communication with an external device.
[0064]
Further, the control unit 20 includes a wireless communication interface 26, a network interface card (NIC) 27, and the like, and performs near field wireless data communication such as Bluetooth, a wireless network such as IEEE 802.11b, or a wide area such as the Internet. Data communication can be performed with various external host computers via the network.
[0065]
By such data communication between the mobile robot 1 and the host computer, complicated operation control of the mobile robot 1 can be calculated or remotely controlled using remote computer resources.
[0066]
B. Composition of plane landmark
FIG. 3 schematically shows a configuration of a plane landmark used in the embodiment of the present invention.
[0067]
As shown in the figure, the planar landmark according to the present embodiment has a radius diAnd an inner circle having a radius d substantially concentrically arranged.o(Except for di<Do). The inner circle and the outer circle are applied to colors different from each other, and are more preferably provided with a color arrangement that is easily separated in a UV color space. In order to further enhance the discrimination between the inner circle and the outer circle, the width wiAre provided. In addition, in order to ensure the discrimination and separation between the flat landmark and the floor or wall on which the flat landmark is affixed, the width woAre provided. Both the inner and outer boundaries may be black.
[0068]
In the present embodiment, the following parameters are used in order to improve the recognition performance of the inner circle and the outer circle, and the outer circle and the landmark installation surface.
[0069]
0mm <wi<10mm
0mm <wo<50mm
[0070]
Further, in order to improve the recognition performance of the outer circle and the inner circle, the ratio between the outer circle radius and the inner circle radius is set within the following range.
[0071]
3: 4 <di: Do<1: 3
[0072]
For example, di= 60mm, do= 120mm, wi= 2mm, wo= 20, then di: Do= 1: 2, which satisfies the above condition. It should be noted that only the ratio is important for the relationship between the outer circle radius and the inner circle radius, and the actual dimensions of each are not. This is because, as a basic property of the center projection, as the image approaches the projection center C of the camera, the image is projected as a large image, and conversely, as the distance from the projection center C decreases, the image is projected smaller. This is because only the cutout is handled (or the landmark is zoomed), so that the distance and ten-dimensional components are omitted, and only the dimensional ratio remains.
[0073]
Where the outer circle radius doIs fixed to 120 mm and the inner circle radius diWas changed in steps of 10 mm from 40 mm to 80 mm (see FIG. 4), and the landmark recognition rate in each case was measured. Table 1 below shows the measurement results.
[0074]
[Table 1]
Figure 2004301796
[0075]
As can be seen from Table 1, when the inner circle radius is too small, the ratio of the inner circle to the landmark image decreases, and the recognition rate decreases. Conversely, if the inner circle radius is too large, the outer circle radius becomes smaller, so that the recognition rate also decreases. As a result, as described above, the ratio of the radius of the inner circle to the outer circle is 3: 4 <di: DoWithin the range of <1: 3, a good recognition rate can be secured.
[0076]
Further, as described above, it is preferable that the inner circle and the outer circle are applied to colors different from each other, and are provided with a color arrangement that is easily separated in the UV color space.
[0077]
Considering the ease of color extraction for changes in brightness (adjusting the gain for changes in illuminance), any color is distributed radially in the UV space as long as the gain adjustment is correct. From this viewpoint, any color can be used for coloring the inner circle and the outer circle.
[0078]
Further, the distribution in the UV space is different between the royal road color and the characteristic color when the gain is not appropriate (the illuminance is fixed and the gain is changed).
[0079]
Also, in consideration of the ease of color extraction with respect to color temperature change (white balance adjustment with respect to illumination color temperature change (2700K, 4500K, 5000K, 6500K :: 9001x)), the pink system falls within a narrow range. come. Blue and green are wide.
[0080]
When the white balance is not appropriate, the ease of color extraction is as follows (white balance adjustment (2700K, 4500K, 5000K, 6500K :: 9001x) with respect to a change in illumination color temperature). Will overlap. From this viewpoint, it is preferable to employ a compact orange without using yellow.
[0081]
C. Landmark recognition and pose estimation algorithm
The relative distance from the robot to the landmark can be measured to some extent by, for example, a general ranging technique using a camera. However, in order to measure the distance more accurately, it is necessary to perform more strict calculation processing based on the image recognition result of the landmark. At this time, the calculation method differs depending on whether the landmark is placed horizontally on the floor or vertically attached to the wall, that is, depending on the posture of the landmark.
[0082]
In this section, a landmark recognition and posture estimation algorithm in the case of using a planar landmark composed of concentric inner and outer circles of different colors described in the preceding section B will be described in detail.
[0083]
In the present embodiment, landmark recognition and posture estimation are performed according to the following procedure.
[0084]
(1) Acquire images by camera
(2) Color extraction
(3) Connecting area division
(4) Recognize landmarks from connected areas
(5) For all landmarks,
5-a) Estimating a three-dimensional position based on the assumption that the landmark is a horizontal (floor) landmark
5-b) Estimate the three-dimensional position based on the assumption that the landmark is placed on a vertical (wall)
5-c) Determine whether the landmark is installed horizontally or vertically
[0085]
The color is extracted by detecting the color of the image in which the landmark is captured by the camera in pixel units. Furthermore, by taking out each region having the same color, a color connection region can be taken out.
[0086]
In the landmark recognition process, the following (rectangular) area information can be obtained by dividing an image into color connection areas.
[0087]
a) Color of each area
b) Upper left coordinates (x 'of the area)1, Y '1) And lower right coordinates (x '2, Y '2)
[0088]
Next, the following check is performed for all combinations of regions.
[0089]
a) One region contains the other region
b) ratio w of the width of the regionl: Ws(Wl: Width of large area, ws: Width of small area) does not exceed a threshold value (for example, 3: 1)
c) ratio of the height of the region wl: Ws(Wl: Width of large area, ws: Width of small area) does not exceed a threshold value (for example, 3: 1)
[0090]
Then, a combination of areas satisfying all of the above conditions a to c is recognized as a landmark. A landmark can be uniquely specified by a combination of colors. Let the large area be the size of the landmark.
[0091]
Here, before describing the landmark posture estimation processing, a camera model used in the present embodiment will be described.
[0092]
In this embodiment, a pinhole camera that performs central projection is used. Center projection is a method of arranging the color density value of a point on the object surface at an intersection of a straight line (also referred to as a “line of sight”) connecting the projection center and a point on the three-dimensional object surface with the projection screen of the camera. Form a projection image. In the central projection, even objects of the same size are projected as a large image as approaching the projection center of the camera, and conversely, as the distance from the projection center C decreases, they are projected.
[0093]
Here, the camera center is the origin, the focal length is f, and the optical axis center is (px, Py), Pixel size (ux, Uy), The three-dimensional coordinates of the landmark position are (x, y, z), and the pixel coordinates corresponding to the three-dimensional position are (x ′, y ′).
[0094]
(Equation 1)
Figure 2004301796
[0095]
Where fx= F / ux, Fy= F / uyIs defined.
[0096]
In the present embodiment, the camera is mounted on the head of an upright walking robot having two arms and two legs, for example. Then, the posture of the camera is represented by rotational positions around the roll, pitch, and yaw axes as shown in FIG.
[0097]
In the following description, it is assumed that the camera rotates around the pitch axis to capture a landmark in front. As shown in FIG. 7, it is assumed that the camera is taking an image at a predetermined rotational position around the pitch axis. At this time, when landmarks having the same size are detected in a camera-captured image (camera image) (picture of landmark), landmarks can be taken including those indicated by reference numerals 1 to 4 in FIG. A plurality of postures are assumed. In the following description, it is assumed that the landmark is attached to only the wall or the floor surface, that is, the landmark is in one of the vertical posture 1 and the horizontal posture 2.
[0098]
The position of the landmark captured by the camera (or the relative distance between the camera and the landmark) depends on the attitude of the camera (rotational position pitch around the pitch axis in this embodiment), the focal length f of the camera lens, and the optical center ( px, Py), And the height and width of a landmark in a captured image. However, the calculation method differs depending on whether the landmark is placed horizontally on the floor or vertically attached to the wall, that is, depending on the posture of the landmark.
[0099]
FIG. 8 illustrates a method of estimating the position of a landmark using the height of the landmark in a captured image, assuming that the landmark is installed horizontally.
[0100]
In the illustrated example, the camera captures a landmark at a predetermined rotation position pitch around the pitch axis. In the three-dimensional space, the landmark is a point (y1, Z1) And point (y2, Y2), And its center position is (yv, Zv). Then, the landmark is a point (y2’, Fy) And point (y1’, Fy), And the height of the image projected on the projection plane is the point (y2, Z2) And point (y3, Z2). In this case, the following equation holds geometrically.
[0101]
(Equation 2)
Figure 2004301796
[0102]
Then, the three-dimensional position of the landmark center is represented by the following equation.
[0103]
(Equation 3)
Figure 2004301796
[0104]
FIG. 9 illustrates a method of estimating the position of a landmark by using the height of the landmark in a captured image, assuming that the landmark is installed vertically.
[0105]
In the illustrated example, the camera captures a landmark at a predetermined rotation position pitch around the pitch axis. A landmark is a point (y2, Z2) And point (y1, Z1), And its center position is (yh, Zh). The landmark is a point (y2’, Fy) And point (y1’, Fy), And the height of the image projected on the projection plane is the point (y3, Z1) And point (y1, Z1). In this case, the following equation holds geometrically.
[0106]
(Equation 4)
Figure 2004301796
[0107]
Then, the three-dimensional position of the landmark center is represented by the following equation.
[0108]
(Equation 5)
Figure 2004301796
[0109]
FIG. 10 illustrates a method of estimating the position of the landmark using the width of the landmark in the captured image, assuming that the landmark is installed horizontally.
[0110]
In the illustrated example, the camera moves in the width direction at the center position (x, z) to a point (x1, Z) and point (x2, Z). A landmark is a point (x1, Z) and point (x2′, Z), and the width of the image projected on the projection plane is equal to the line segment connecting the points (x1, z) and (x2, z). In this case, the following equation holds geometrically.
[0111]
(Equation 6)
Figure 2004301796
[0112]
Then, the three-dimensional position of the landmark center is represented by the following equation.
[0113]
(Equation 7)
Figure 2004301796
[0114]
When a landmark placed horizontally without occlusion is completely visible, the relative distance zh to the landmark estimated by the height of the landmark in the captured image and the width of the landmark in the captured image The relative distance zw to the estimated landmark becomes equal (zw= Zh).
[0115]
FIG. 11 illustrates a method of estimating the position of a landmark using the width of the landmark in a captured image, assuming that the landmark is installed vertically.
[0116]
In this case, the relative distance is the maximum when the landmark is perpendicular to the optical axis, and the landmarks installed at various rotational positions with respect to the optical axis are positioned in the same width direction in the captured image, that is, a point. (X1, Fx) To the point (x2, FxObserved during). In other words, unless the rotation of the landmark with respect to the optical axis is known, its three-dimensional position cannot be estimated.
[0117]
When the landmark is perpendicular to the optical axis, the three-dimensional position of the center of the landmark is the same as the above equation [Equation 7]. When the vertically installed landmark is completely visible without occlusion or the like, the relative distance z to the landmark estimated from the width of the landmark in the captured image is obtained.wIs greater than or equal to the relative distance zv to the landmark estimated from the height of the landmark in the captured image (zw≧ zv).
[0118]
According to the principle shown in FIGS. 10 and 11, the relative distance z to the landmark estimated from the width of the landmark in the captured imagewAnd the relative distance z to the landmark estimated from the height of the landmark in the captured imagevBy comparing the sizes of the landmarks, it is possible to estimate whether the landmark in the captured image is installed in a horizontal or vertical posture. Then, an appropriate landmark position estimation algorithm can be selected based on the estimation result (described later).
[0119]
The calculation method differs depending on whether the landmark is installed in a horizontal or vertical position.However, apart from this, when the camera recognizes the landmark when looking far away, and when the camera looks closer. The optimal position calculation method differs depending on whether or not a landmark is recognized.
[0120]
FIG. 12 shows that the camera is looking at a distant landmark. In the illustrated example, the camera captures a landmark at a predetermined rotation position pitch around the pitch axis.
[0121]
In this case, assuming that landmarks having the same height are detected in the captured image, landmarks installed vertically are farther than landmarks installed horizontally. That is, when the camera is looking far away, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed vertically.vHas a larger value (zh<Zv).
[0122]
FIG. 13 shows a state in which the camera looks at a nearby landmark. In the illustrated example, the camera captures a landmark at a predetermined rotation position pitch around the pitch axis.
[0123]
In this case, assuming that landmarks having the same height are detected in the captured image, landmarks installed vertically are closer to landmarks installed horizontally. That is, when the camera is looking at the vicinity, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.vIs smaller (zh> Zv).
[0124]
According to the principle shown in FIGS. 12 and 13, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hAnd the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.vBy comparing the magnitudes of the two, it is possible to estimate whether the camera is looking far or near. Then, an appropriate landmark position estimation algorithm can be selected based on the estimation result (described later).
[0125]
FIG. 14 shows a state in which a camera looking down captures landmarks installed horizontally and vertically. Here, the center position of the inner circle of the landmark is (xic, Yic), And the center position of the outer circle of the landmark is (xoc, Yoc)far.
[0126]
In central projection, even objects of the same size are projected as a large image as they approach the projection center of the camera, and conversely, become smaller as they move away from the projection center (described above).
[0127]
Therefore, as can be seen from FIG. 14, the height y of the center of the inner circle of the landmark is obtained.icHeight of the center of the outer circle thanocIs smaller than (yic> Yoc), The landmark is presumed to be installed vertically. Conversely, the height y of the center of the inner circle of the landmarkicHeight of the center of the outer circle thanocIs larger than (yic<Yoc), The landmark is presumed to be installed horizontally. Then, an appropriate landmark position estimation algorithm can be selected based on the estimation result (described later).
[0128]
FIG. 15 shows an example of a landmark position estimation algorithm in the form of a flowchart. The pseudo program code of the position estimation algorithm is shown below. However, it is assumed here that the entire landmark is visible without occlusion.
[0129]
(Equation 8)
Figure 2004301796
[0130]
First, in step S1, assuming that the landmark is set horizontally, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 8).
[0131]
Next, in step S2, assuming that the landmark is installed vertically, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 9).
[0132]
Further, in step S3, assuming that the landmark is set horizontally, the position of the landmark is estimated using the width of the landmark in the captured image (see FIG. 10).
[0133]
Here, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hAnd the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed verticallyvThen, it is estimated whether the camera is looking far or near (step S4) (see FIGS. 12 and 13).
[0134]
The position estimation algorithm shown in FIG. 15 is suitable when the camera is looking at a distant landmark, but cannot accurately estimate the arrangement when looking at a nearby landmark. For this reason, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed vertically.vIs smaller than (zh> ZvSince the camera is looking at the vicinity, no answer is given (No Result), and the entire processing routine ends (step S5).
[0135]
On the other hand, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.vIs larger than (zh<Zv), It is estimated that the camera is looking far away. In this case, furthermore, the relative distance z to the landmark estimated from the width of the landmark in the captured imagewAnd a relative distance z to the landmark estimated based on the height of the landmark in the captured image, assuming that the landmark is installed vertically.vBy comparing the sizes of the landmarks, it is estimated whether the landmarks in the captured image are set in the horizontal or vertical posture (step S6) (see FIG. 11).
[0136]
And zw> ZvIn this case, it is estimated that the landmark is installed vertically, and it is assumed in step S2 that the landmark is installed vertically, and is estimated using the height of the landmark in the captured image. (Xv, Yv, Zv) Is output as the estimation result (step S7).
[0137]
On the other hand, zw≦ zvIn this case, there is a possibility that the landmark is installed horizontally and that the landmark is installed in a vertical posture that is not rotated with respect to the camera. Therefore, assuming that the landmark is installed horizontally, the relative distance z to the landmark estimated by the height of the landmark in the captured imagehAnd the relative distance z to the landmark estimated from the width of the landmark in the captured imagew| Zh-Zw| And the relative distance z to the landmark estimated from the height of the landmark in the captured image, assuming that the landmark is installed verticallyvAnd the relative distance z to the landmark estimated from the width of the landmark in the captured imagew| Zv-Zw(Step S8) to determine whether the landmark is installed vertically or horizontally.
[0138]
| Zv-ZwWhen | is smaller, it is estimated that the landmark is installed in a vertical posture that is not rotated with respect to the camera. In this case, assuming that the landmark is installed vertically in step S2, the position of the landmark estimated using the height of the landmark in the captured image (xv, Yv, Zv) Is output as the estimation result (step S9).
[0139]
On the other hand, | zh-ZwIf | is smaller, it is determined that the landmark is installed horizontally. Then, in step S1, assuming that the landmark is set horizontally, the position of the landmark estimated using the height of the landmark in the captured image (xh, Yh, Zh) Is output as the estimation result (step S10).
[0140]
The landmark position estimation algorithm shown in FIG. 15 is suitable for a case where the camera is looking far away (see FIG. 12). When a part of the landmark is hidden (occlusion), the result may be different. Also, the results may differ if the landmarks are not placed vertically or horizontally. The same result can be obtained with respect to the rotation of the camera (around the roll axis), although the formula slightly changes.
[0141]
FIG. 16 is a flowchart illustrating another example of the landmark position estimation algorithm. The pseudo program code of the position estimation algorithm is shown below. However, it is assumed here that the entire landmark is visible without occlusion.
[0142]
(Equation 9)
Figure 2004301796
[0143]
First, in step S11, assuming that the landmark is installed horizontally, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 8).
[0144]
Next, in step S12, assuming that the landmark is installed vertically, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 9).
[0145]
Further, in step S13, assuming that the landmark is set horizontally, the position of the landmark is estimated using the width of the landmark in the captured image (see FIG. 10).
[0146]
When the camera looks down at landmarks that are horizontally and vertically installed, the height y of the center of the inner circle of the landmarksicHeight of the center of the outer circle thanocIs smaller than (yic> Yoc), The landmark is estimated to be installed vertically, and the height y of the center of the inner circle of the landmarkicHeight of the center of the outer circle thanocIs larger (yic<Yoc), The landmarks are assumed to be installed vertically (see FIG. 14).
[0147]
Therefore, in step S14, the height y of the inner circle of the landmark in the captured imageicAnd the height y of the outer circleicAre compared to determine whether the landmark is installed in a horizontal or vertical posture.
[0148]
Here, the height y of the center of the inner circle of the landmarkicHeight of the center of the outer circle thanocIs larger than (yic<Yoc), The landmark is presumed to be installed horizontally.
[0149]
In this case, furthermore, the relative distance z to the landmark estimated using the height of the landmark in the photographed image on the assumption that the landmark is set horizontally is assumed.hAnd the relative distance z to the landmark estimated using the width of the landmark in the captured imagewAre compared with each other (step S15).
[0150]
And zhIs zwIf not larger than the landmark position (x) estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally in step S11.h, Yh, Zh) Is output together with the estimation result that the landmark is installed horizontally (step S16).
[0151]
On the other hand, zhIs zwIf it is larger, it is estimated that the occlusion is large and the possibility of erroneous recognition is high. Position (xw, Yw, Zw) Is output together with the estimation result that the landmark is installed horizontally (step S17).
[0152]
The height y of the center of the inner circle of the landmarkicHeight of the center of the outer circle thanocIs smaller than (yic> Yoc), The landmark is presumed to be installed vertically.
[0153]
In this case, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed vertically is further determined.vAnd the relative distance z to the landmark estimated using the width of the landmark in the captured imagewAre compared with each other (step S18).
[0154]
And zvIs zwIf not larger, the position of the landmark (x) is estimated using the height of the landmark in the captured image, assuming that the landmark is installed vertically in step S12.v, Yv, Zv) Is output together with the estimation result that the landmark is installed vertically (step S19).
[0155]
On the other hand, zvIs zwIf it is larger, the inclination of the landmark with respect to the occlusion and the line of sight is large, and it is estimated that there is a high possibility of misrecognition. (Xw, Yw, Zw) Is output together with the estimation result that the landmark is installed vertically (step S20).
[0156]
The landmark position estimation algorithm shown in FIG. 16 is suitable for a case where the camera is looking far away (see FIG. 13). When a part of the landmark is hidden, the estimation of the rotation direction may be different due to inconsistency of the area information. Also, the results may differ if the landmarks are not placed vertically or horizontally. The same result can be obtained with respect to the rotation of the camera (around the roll axis), although the formula slightly changes. The algorithm shown in FIG. 16 is particularly effective when the proportion of the landmark in the image is large. ) May have different results.
[0157]
The landmark position estimation algorithm shown in FIG. 15 is suitable when the camera recognizes a distant landmark, and furthermore, the optimum landmark position estimation according to whether the landmark is set horizontally or vertically. You have to choose a method. Similarly, the landmark location estimation algorithm shown in FIG. 16 is suitable when the camera recognizes a nearby landmark, and furthermore, the optimal landmark is determined depending on whether the landmark is set horizontally or vertically. Is selected.
[0158]
FIG. 17 also shows landmarks that can automatically select either the algorithm shown in FIG. 15 or the algorithm shown in FIG. 16 depending on whether the camera recognizes landmarks that are far or perceptible. Is shown in the form of a flowchart. The pseudo program code of the position estimation algorithm is shown below.
[0159]
(Equation 10)
Figure 2004301796
[0160]
First, in step S21, assuming that the landmark is set horizontally, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 8).
[0161]
Next, in step S22, assuming that the landmark is installed vertically, the position of the landmark is estimated using the height of the landmark in the captured image (see FIG. 9).
[0162]
Further, in step S23, assuming that the landmark is set horizontally, the position of the landmark is estimated using the width of the landmark in the captured image (see FIG. 10).
[0163]
Here, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hAnd the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed verticallyvThen, it is estimated whether the camera is looking far or near (Step S24) (see FIGS. 12 and 13).
[0164]
The relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally.vIs larger than (zh<Zv), It is estimated that the camera is looking far away. In this case, the landmark position estimation algorithm shown in FIG. 15 (however, after step S4) is executed (step S25).
[0165]
On the other hand, the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed horizontally is assumed.hRather than the relative distance z to the landmark estimated using the height of the landmark in the captured image on the assumption that the landmark is installed vertically.vIs smaller than (zh> Zv), It is estimated that the camera is looking close. In this case, the landmark position estimation algorithm shown in FIG. 16 (however, after step S14) is executed (step S26).
[0166]
When a part of the landmark is hidden (occlusion), the result may be different. Also, the results may differ if the landmarks are not placed vertically or horizontally. The same result can be obtained with respect to the rotation of the camera (around the roll axis), although the formula slightly changes.
[0167]
[Supplement]
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention.
[0168]
The gist of the present invention is not necessarily limited to products called “robots”. That is, it is a mechanical device or other general mobile device that performs a motion similar to a human motion using an electric or magnetic action, or a data processing system that performs arithmetic processing on data describing the operation of these devices. Then, the present invention can be similarly applied to products belonging to other industrial fields such as toys.
[0169]
In short, the present invention has been disclosed by way of example, and the contents described in this specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims described at the beginning should be considered.
[0170]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide an excellent robot that can identify a self-position in an environment including an artificial landmark based on a landmark search result.
[0171]
Further, according to the present invention, it is possible to appropriately estimate a position according to a posture in which a planar landmark installed on a floor or a wall is installed, an excellent robot, and a landmark posture estimation system and An estimation method can be provided.
[0172]
Further, according to the present invention, an excellent robot capable of accurately estimating a position in accordance with an attitude in which a planar landmark including a suitable shape pattern and a color pattern is installed, and an attitude estimation of a landmark A system and estimation method can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a functional configuration of a mobile robot 1 used in the present invention.
FIG. 2 is a diagram showing the configuration of a control unit 20 in further detail.
FIG. 3 is a diagram schematically showing a configuration of a plane landmark provided for implementing the present invention.
FIG. 4 is a diagram schematically illustrating an experimental environment for measuring a recognition rate of a plane landmark.
FIG. 5 is a diagram for explaining a camera model used in the embodiment of the present invention.
FIG. 6 is a diagram for explaining a method of expressing the attitude of the camera.
FIG. 7 is a diagram illustrating a state in which the camera is capturing an image at a predetermined rotation position about a pitch axis.
FIG. 8 is a diagram for explaining a method of estimating the position of a landmark using the height of the landmark in a captured image when it is assumed that the landmark is installed horizontally.
FIG. 9 is a diagram for explaining a method of estimating the position of a landmark using the height of the landmark in a captured image when it is assumed that the landmark is installed vertically.
FIG. 10 is a diagram for explaining a method of estimating the position of a landmark using the width of the landmark in a captured image when it is assumed that the landmark is installed horizontally.
FIG. 11 is a diagram for explaining a method of estimating the position of a landmark using the width of the landmark in a captured image when it is assumed that the landmark is installed vertically.
FIG. 12 is a diagram illustrating a state in which a camera looks at a distant landmark.
FIG. 13 is a diagram showing a state in which a camera looks at a nearby landmark.
FIG. 14 is a diagram showing a state in which a camera looking down captures landmarks installed horizontally and vertically.
FIG. 15 is a flowchart illustrating an example of a landmark position estimation algorithm.
FIG. 16 is a flowchart illustrating another example of a landmark position estimation algorithm.
FIG. 17 is a flowchart illustrating another example of a landmark position estimation algorithm.
[Explanation of symbols]
1. Mobile robot
15 ... CCD camera
16 ... Microphone
17… Speaker
18 ... Touch sensor
19 ... LED indicator
20 ... Control unit
21 ... CPU
22 ... RAM
23… ROM
24: Non-volatile memory
25 ... Interface
26 ... Wireless communication interface
27 ... Network interface card
28 ... Bus
29 ... Keyboard
40 ... input / output unit
50 ... Drive unit
51 ... motor
52 ... Encoder
53 ... Driver

Claims (22)

ランドマークを設置された姿勢に応じて位置を推定するロボットであって、
ランドマークを撮影する撮影手段と、
ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第1の位置算出手段と、
ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第2の位置算出手段と、
撮影画像中のランドマークの幅成分に基づいてランドマークの位置を算出する第3の位置算出手段と、
ランドマークが水平又は垂直いずれの姿勢で設置されているかを推定する姿勢推定手段と、
該推定されたランドマークの姿勢に応じて前記第1乃至第3の位置算出手段による算出結果のいずれかを選択する選択出力手段と、
を具備することを特徴とするロボット。
A robot for estimating a position according to a posture in which a landmark is installed,
Shooting means for shooting landmarks,
First position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed horizontally;
Second position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed vertically;
Third position calculating means for calculating the position of the landmark based on the width component of the landmark in the captured image;
Attitude estimating means for estimating whether the landmark is installed in a horizontal or vertical orientation,
A selection output unit that selects one of the calculation results by the first to third position calculation units in accordance with the estimated posture of the landmark;
A robot comprising:
ランドマークを設置された姿勢に応じて位置を推定するランドマークの位置推定システムであって、
ランドマークの撮影画像を保持する画像保持手段と、
ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第1の位置算出手段と、
ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第2の位置算出手段と、
撮影画像中のランドマークの幅成分に基づいてランドマークの位置を算出する第3の位置算出手段と、
ランドマークが水平又は垂直いずれの姿勢で設置されているかを推定する姿勢推定手段と、
該推定されたランドマークの姿勢に応じて前記第1乃至第3の位置算出手段による算出結果のいずれかを選択する選択出力手段と、
を具備することを特徴とするランドマークの位置推定システム。
A landmark position estimation system for estimating a position according to a posture in which a landmark is installed,
Image holding means for holding a captured image of the landmark;
First position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed horizontally;
Second position calculating means for calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed vertically;
Third position calculating means for calculating the position of the landmark based on the width component of the landmark in the captured image;
Attitude estimating means for estimating whether the landmark is installed in a horizontal or vertical orientation,
A selection output unit that selects one of the calculation results by the first to third position calculation units in accordance with the estimated posture of the landmark;
A landmark position estimation system, comprising:
ランドマークが水平に設置されているとの仮定で前記第1の位置算出手段により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されているとの仮定で前記第2の位置算出手段により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較し、z>zとなる場合は撮像画像は近くを眺めている撮像手段により撮像されたと判断し、z<zとなる場合は撮像画像は遠くを眺めている撮像画像により撮像されたと判断する撮像位置特定手段をさらに備え、
前記選択出力手段は、撮像画像が近く又は遠くのいずれを眺めたものかに応じて前記第1乃至第3の位置算出手段による算出結果のいずれかを選択する、
ことを特徴とする請求項2に記載のランドマークの位置推定システム。
And relative distance z h to landmarks landmark is estimated using the height of the landmark in the photographed image by the first position calculating means assumption that is installed horizontally, the landmark vertical the relative distance z v to landmarks which are estimated using the height of the landmark in the photographed image by the second position calculating means and compares with assumption that are installed in, z h> z v captured image if made was determined to have been captured by the imaging means looking at near, z h <z v become captured image if the imaging localization to determine that captured by the imaging image looking at distant Further comprising means,
The selection output unit selects one of the calculation results obtained by the first to third position calculation units depending on whether the captured image is viewed from near or far.
3. The landmark position estimation system according to claim 2, wherein:
前記姿勢推定手段は、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zvとを大小比較し、z>zとなる場合にはランドマークが垂直に設置されていると推定し、
前記選択出力手段は、ランドマークが垂直に設置されていると推定されたことに応答して、前記第2の位置算出手段による位置算出結果を出力する、
ことを特徴とする請求項2に記載のランドマークの位置推定システム。
The posture estimating means, and the relative distance z w to landmarks estimated by the width of the landmark in the photographed image, the height of the landmark in the photographed image on the assumption that the landmark is in the upright position a relative distance zv to landmarks which are estimated magnitude comparison, if the z w> z v is estimated that landmark is installed vertically, the
The selection output unit outputs a position calculation result by the second position calculation unit in response to the estimation that the landmark is installed vertically.
3. The landmark position estimation system according to claim 2, wherein:
前記姿勢推定手段はz≦zとなる場合は|z−z|と|z−z|とをさらに大小比較し、
|z−z|の方が小さい場合にはランドマークはカメラに対して回転していない垂直な姿勢で設置されていると推定し、これに応答して、前記選択出力手段は前記第2の位置算出手段の算出結果を出力し、
|z−z|の方が小さい場合にはランドマークは水平に設置されていると推定し、これに応答して、前記選択出力手段は前記第1の位置算出手段の算出結果を出力する、
ことを特徴とする請求項4に記載のランドマークの位置推定システム。
The posture estimating means further compares | z h −z w | and | z v −z w | when z w ≦ z v ,
| Z v -z w | when the person is small, estimated to landmark is installed in a vertical position which is not rotated relative to the camera, in response thereto, the selection output means wherein the Outputting the calculation result of the position calculation means of No. 2;
When | z h −z w | is smaller, it is estimated that the landmark is installed horizontally, and in response to this, the selection output unit outputs the calculation result of the first position calculation unit. Do
The landmark position estimation system according to claim 4, wherein:
前記ランドマークは半径dの内円と該内円とは略同心円状に配設された半径dの外円とで構成される平面形状であり(但し、d<d)、
前記姿勢推定手段は、撮影画像中のランドマークの内円の高さyicと外円の高さyocを大小比較し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)ランドマークは垂直に設置されていると推定し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)ランドマークは垂直に設置されていると推定する、
ことを特徴とする請求項2に記載のランドマークの位置推定システム。
The landmark is a plane shape formed by the outer circle of radius d o is an inner circle and the inner circle arranged in a substantially concentric radius d i (where, d i <d o),
The posture estimating means compares the height y ic of the inner circle of the landmark in the captured image with the height y oc of the outer circle, and compares the height y ic of the outer circle with the height y ic of the center of the inner circle of the landmark. When the height y oc of the center is smaller (y ic > y oc ), it is estimated that the landmark is installed vertically, and the height of the center of the outer circle is larger than the height y ic of the center of the inner circle of the landmark. When the height y oc is larger (y ic <y oc ), it is estimated that the landmark is set vertically.
3. The landmark position estimation system according to claim 2, wherein:
前記姿勢推定手段は、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較し、
前記選択出力手段は、zがzよりも大きくない場合には前記第2の位置算出手段による算出結果を出力し、zがzよりも大きい場合には前記第3の位置算出手段による算出結果を出力する、
ことを特徴とする請求項6に記載のランドマークの位置推定システム。
When the height y oc of the center of the outer circle is smaller than the height y ic of the center of the inner circle of the landmark (y ic > y oc ), the posture estimating means determines that the landmark is installed vertically. and relative distance z v to landmarks which are estimated using the height of the landmark in the photographed image by assumption that there, the relative distances to the landmark, which is estimated using the width of the landmark in the captured image z w is compared with the size,
Said selective output means, z v is z if not greater than w and outputs the calculation result by the second position calculating means, z v the third position calculating means when larger than z w Output the calculation result by
7. The landmark position estimation system according to claim 6, wherein:
前記姿勢推定手段は、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較し、
前記選択出力手段は、zがzよりも大きくない場合には前記第1の位置算出手段による算出結果を出力し、zがzよりも大きい場合には前記第3の位置算出手段による算出結果を出力する、
ことを特徴とする請求項6に記載のランドマークの位置推定システム。
When the height y oc at the center of the outer circle is larger than the height y ic at the center of the inner circle of the landmark (y ic <y oc ), the posture estimating means determines that the landmark is horizontally installed. and relative distance z h to landmarks which are estimated using the height of the landmark in the photographed image by assumption that there, the relative distances to the landmark, which is estimated using the width of the landmark in the captured image z w is compared with the size,
It said selective output means, z h is z if not greater than w and outputs the calculation result of the first position-calculating means, when z h is greater than z w is the third position calculating means Output the calculation result by
7. The landmark position estimation system according to claim 6, wherein:
前記ランドマークの前記内円と前記外円は互いにUV色空間上で分離し易い異なる色に配色されている、
ことを特徴とする請求項6に記載のランドマークの位置推定システム。
The inner circle and the outer circle of the landmark are arranged in different colors that are easily separated from each other on a UV color space.
7. The landmark position estimation system according to claim 6, wherein:
前記内円と前記外円との間には識別性をさらに増すための幅wの内境界線及び/又は前記外円の外側に幅wの外境界線が設けられている、
ことを特徴とする請求項6に記載のランドマークの位置推定システム。
An inner boundary line having a width w i and / or an outer boundary line having a width w o provided outside the outer circle are provided between the inner circle and the outer circle to further enhance discrimination.
7. The landmark position estimation system according to claim 6, wherein:
外円と内円の認識性能を向上させるために、前記内円と前記外円の半径の比を以下の範囲内に設定している、
3:4<d:d<1:3
ことを特徴とする請求項6に記載のランドマークの位置推定システム。
In order to improve the recognition performance of the outer circle and the inner circle, the ratio of the radius of the inner circle and the radius of the outer circle is set in the following range,
3: 4 <d i : d o <1: 3
7. The landmark position estimation system according to claim 6, wherein:
ランドマークを設置された姿勢に応じて位置を推定するランドマークの位置推定方法であって、
ランドマークの撮影画像を取得するステップと、
ランドマークが水平に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第1の位置算出ステップと、
ランドマークが垂直に設置されていると仮定して、撮影画像中のランドマークの高さ成分に基づいてランドマークの位置を算出する第2の位置算出ステップと、
撮影画像中のランドマークの幅成分に基づいてランドマークの位置を算出する第3の位置算出ステップと、
ランドマークが水平又は垂直いずれの姿勢で設置されているかを推定する姿勢推定ステップと、
該推定されたランドマークの姿勢に応じて前記第1乃至第3の位置算出ステップによる算出結果のいずれかを選択する選択出力ステップと、
を具備することを特徴とするランドマークの位置推定方法。
A landmark position estimation method for estimating a position according to a posture in which a landmark is installed,
Obtaining a captured image of the landmark;
A first position calculating step of calculating a position of the landmark based on a height component of the landmark in the captured image, assuming that the landmark is installed horizontally;
A second position calculating step of calculating the position of the landmark based on the height component of the landmark in the captured image, assuming that the landmark is installed vertically;
A third position calculating step of calculating the position of the landmark based on the width component of the landmark in the captured image;
A posture estimation step of estimating whether the landmark is installed in a horizontal or vertical posture,
A selection output step of selecting one of the calculation results of the first to third position calculation steps according to the estimated posture of the landmark;
A method for estimating a position of a landmark, comprising:
ランドマークが水平に設置されているとの仮定で前記第1の位置算出ステップにより撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されているとの仮定で前記第2の位置算出ステップにより撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zとを大小比較し、z>zとなる場合は撮像画像は近くを眺めている撮像手段により撮像されたと判断し、z<zとなる場合は撮像画像は遠くを眺めている撮像画像により撮像されたと判断する撮像位置特定ステップをさらに備え、
前記選択出力ステップでは、撮像画像が近く又は遠くのいずれを眺めたものかに応じて前記第1乃至第3の位置算出ステップによる算出結果のいずれかを選択する、
ことを特徴とする請求項12に記載のランドマークの位置推定方法。
And relative distance z h to landmarks landmark is estimated using the height of the landmark in the photographed image by the first position-calculating step in assumption that is installed horizontally, the landmark vertical the relative distance z v to landmarks which are estimated using the height of the landmark in the photographed image by the second position calculating step and compares with assumption that are installed in, z h> z v captured image if made was determined to have been captured by the imaging means looking at near, z h <z v become captured image if the imaging localization to determine that captured by the imaging image looking at distant Further comprising steps,
In the selection output step, one of the calculation results in the first to third position calculation steps is selected according to whether the captured image is viewed near or far.
The method according to claim 12, wherein the position of the landmark is estimated.
前記姿勢推定ステップでは、撮影画像中のランドマークの幅により推定されたランドマークまでの相対距離zと、ランドマークが垂直に設置されていると仮定して撮影画像中のランドマークの高さにより推定されたランドマークまでの相対距離zとを大小比較し、z>zとなる場合にはランドマークが垂直に設置されていると推定し、
前記選択出力ステップでは、ランドマークが垂直に設置されていると推定されたことに応答して、前記第2の位置算出ステップによる位置算出結果を出力する、
ことを特徴とする請求項12に記載のランドマークの位置推定方法。
Wherein in the position estimation step, the relative distance z w to landmarks estimated by the width of the landmark in the photographed image, the height of the landmark in the photographed image on the assumption that the landmark is in the upright position the relative distance z v to landmarks which are estimated magnitude comparison, if the z w> z v is estimated that landmark is installed vertically, the
Outputting the position calculation result of the second position calculation step in response to the landmark being estimated to be vertically set in the selection output step;
The method according to claim 12, wherein the position of the landmark is estimated.
前記姿勢推定ステップではz≦zとなる場合は|z−z|と|z−z|とをさらに大小比較し、
|z−z|の方が小さい場合にはランドマークはカメラに対して回転していない垂直な姿勢で設置されていると推定し、これに応答して、前記選択出力ステップでは前記第2の位置算出ステップの算出結果を出力し、
|z−z|の方が小さい場合にはランドマークは水平に設置されていると推定し、これに応答して、前記選択出力ステップでは前記第1の位置算出ステップの算出結果を出力する、
ことを特徴とする請求項14に記載のランドマークの位置推定方法。
When said a z wz v in pose estimation step | z h -z w | a | z v -z w | and further compares large and small,
| Z v -z w | when the person is small, estimated to landmark is installed in a vertical position which is not rotated relative to the camera, in response thereto, the first in the selection output step Outputting the calculation result of the position calculation step of 2,
When | z h −z w | is smaller, it is estimated that the landmark is installed horizontally, and in response to this, the selection output step outputs the calculation result of the first position calculation step. Do
The landmark position estimation method according to claim 14, wherein:
前記ランドマークは半径dの内円と該内円とは略同心円状に配設された半径dの外円とで構成される平面形状であり(但し、d<d)、
前記姿勢推定ステップでは、撮影画像中のランドマークの内円の高さyicと外円の高さyocを大小比較し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)ランドマークは垂直に設置されていると推定し、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)ランドマークは垂直に設置されていると推定する、
ことを特徴とする請求項12に記載のランドマークの位置推定方法。
The landmark is a plane shape formed by the outer circle of radius d o is an inner circle and the inner circle arranged in a substantially concentric radius d i (where, d i <d o),
In the posture estimation step, the height y ic of the inner circle of the landmark in the captured image is compared with the height y oc of the outer circle, and the height of the outer circle is larger than the height y ic of the center of the inner circle of the landmark. When the height y oc of the center is smaller (y ic > y oc ), it is estimated that the landmark is installed vertically, and the height of the center of the outer circle is larger than the height y ic of the center of the inner circle of the landmark. When the height y oc is larger (y ic <y oc ), it is estimated that the landmark is set vertically.
The method according to claim 12, wherein the position of the landmark is estimated.
前記姿勢推定ステップでは、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が小さいときには(yic>yoc)、ランドマークが垂直に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較し、
前記選択出力ステップでは、zがzよりも大きくない場合には前記第2の位置算出ステップによる算出結果を出力し、zがzよりも大きい場合には前記第3の位置算出ステップによる算出結果を出力する、
ことを特徴とする請求項16に記載のランドマークの位置推定方法。
In the posture estimating step, when the height y oc at the center of the outer circle is smaller than the height y ic at the center of the inner circle of the landmark (y ic > y oc ), the landmark is installed vertically. and relative distance z v to landmarks which are estimated using the height of the landmark in the photographed image by assumption that there, the relative distances to the landmark, which is estimated using the width of the landmark in the captured image z w is compared with the size,
Wherein the selection outputting step, z v and outputs the calculated result of said second position calculation step if not greater than z w, z v the third position calculating step of, if is greater than z w Output the calculation result by
17. The method according to claim 16, wherein the position of the landmark is estimated.
前記姿勢推定ステップでは、ランドマークの内円の中心の高さyicよりも外円の中心の高さyocの方が大きいときには(yic<yoc)、ランドマークが水平に設置されているとの仮定により撮影画像中のランドマークの高さを用いて推定されたランドマークまでの相対距離zと、撮影画像中のランドマークの幅を用いて推定されたランドマークまでの相対距離zとをさらに大小比較し、
前記選択出力ステップでは、zがzよりも大きくない場合には前記第1の位置算出ステップによる算出結果を出力し、zがzよりも大きい場合には前記第3の位置算出ステップによる算出結果を出力する、
ことを特徴とする請求項16に記載のランドマークの位置推定方法。
In the posture estimating step, when the height y oc at the center of the outer circle is larger than the height y ic at the center of the inner circle of the landmark (y ic <y oc ), the landmark is placed horizontally. and relative distance z h to landmarks which are estimated using the height of the landmark in the photographed image by assumption that there, the relative distances to the landmark, which is estimated using the width of the landmark in the captured image z w is compared with the size,
In the selection output step, when z h is not greater than z w, the calculation result of the first position calculation step is output. When z h is greater than z w , the third position calculation step is performed. Output the calculation result by
17. The method according to claim 16, wherein the position of the landmark is estimated.
ロボットが視覚認識に基づく環境認識を行なうためのランドマークであって、
平面上に配設された半径dの内円と、
前記内円とは略同心円状に配設された半径dの外円と(但し、d<d)、
を具備することを特徴とするランドマーク。
A landmark for the robot to perform environment recognition based on visual recognition,
An inner circle of radius d i arranged on a plane,
And the outer circle of radius d o which is disposed substantially concentrically and within the circle (where, d i <d o),
A landmark comprising:
前記内円と前記外円は互いにUV色空間上で分離し易い異なる色に配色されている、
ことを特徴とする請求項19に記載のランドマーク。
The inner circle and the outer circle are arranged in different colors that are easily separated from each other on the UV color space.
20. The landmark according to claim 19, wherein:
前記内円と前記外円との間には識別性をさらに増すための幅wの内境界線及び/又は前記外円の外側に幅wの外境界線が設けられている、
ことを特徴とする請求項19に記載のランドマーク。
An inner boundary line having a width w i and / or an outer boundary line having a width w o provided outside the outer circle are provided between the inner circle and the outer circle to further enhance discrimination.
20. The landmark according to claim 19, wherein:
外円と内円の認識性能を向上させるために、前記内円と前記外円の半径の比を以下の範囲内に設定している、
3:4<d:d<1:3
ことを特徴とする請求項19に記載のランドマーク。
In order to improve the recognition performance of the outer circle and the inner circle, the ratio of the radius of the inner circle and the radius of the outer circle is set in the following range,
3: 4 <d i : d o <1: 3
20. The landmark according to claim 19, wherein:
JP2003097781A 2003-04-01 2003-04-01 Robot, and method and system for localizing landmark, and the landmark Pending JP2004301796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003097781A JP2004301796A (en) 2003-04-01 2003-04-01 Robot, and method and system for localizing landmark, and the landmark

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003097781A JP2004301796A (en) 2003-04-01 2003-04-01 Robot, and method and system for localizing landmark, and the landmark

Publications (1)

Publication Number Publication Date
JP2004301796A true JP2004301796A (en) 2004-10-28

Family

ID=33409479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003097781A Pending JP2004301796A (en) 2003-04-01 2003-04-01 Robot, and method and system for localizing landmark, and the landmark

Country Status (1)

Country Link
JP (1) JP2004301796A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811885B1 (en) 2006-09-11 2008-03-10 한국전자통신연구원 Position confirmation apparatus and method for mobile robot
KR101291149B1 (en) * 2011-08-19 2013-07-31 전자부품연구원 Apparatus and method for estimating ceiling height of mobile robot
KR101311100B1 (en) * 2011-08-27 2013-09-25 고려대학교 산학협력단 Method for recognizing the self position of a mobile robot unit using arbitrary ceiling features on the ceiling image/feature map
JP2017167817A (en) * 2016-03-16 2017-09-21 ヤフー株式会社 Image processing device, image processing method and image processing program
CN109855625A (en) * 2019-01-28 2019-06-07 深圳市普渡科技有限公司 Positioning identifier and navigation system
WO2021065609A1 (en) * 2019-10-03 2021-04-08 ソニー株式会社 Data processing device, data processing method, and cooking robot
CN113955136A (en) * 2021-09-02 2022-01-21 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle target hanging point calibration transfer station for automatic power grid inspection
CN114450132A (en) * 2019-10-03 2022-05-06 索尼集团公司 Data processing device, data processing method, and robot

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811885B1 (en) 2006-09-11 2008-03-10 한국전자통신연구원 Position confirmation apparatus and method for mobile robot
KR101291149B1 (en) * 2011-08-19 2013-07-31 전자부품연구원 Apparatus and method for estimating ceiling height of mobile robot
KR101311100B1 (en) * 2011-08-27 2013-09-25 고려대학교 산학협력단 Method for recognizing the self position of a mobile robot unit using arbitrary ceiling features on the ceiling image/feature map
US9402151B2 (en) 2011-08-27 2016-07-26 Korea University Research And Business Foundation Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
JP2017167817A (en) * 2016-03-16 2017-09-21 ヤフー株式会社 Image processing device, image processing method and image processing program
CN109855625A (en) * 2019-01-28 2019-06-07 深圳市普渡科技有限公司 Positioning identifier and navigation system
WO2021065609A1 (en) * 2019-10-03 2021-04-08 ソニー株式会社 Data processing device, data processing method, and cooking robot
CN114450132A (en) * 2019-10-03 2022-05-06 索尼集团公司 Data processing device, data processing method, and robot
CN113955136A (en) * 2021-09-02 2022-01-21 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle target hanging point calibration transfer station for automatic power grid inspection
CN113955136B (en) * 2021-09-02 2024-04-05 浙江图盛输变电工程有限公司温州科技分公司 Automatic unmanned aerial vehicle target hanging point calibration transfer station that patrols and examines of electric wire netting

Similar Documents

Publication Publication Date Title
JP3968501B2 (en) Robot self-position identification system and self-position identification method
JP3994950B2 (en) Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
ES2675363T3 (en) Procedure for constructing a probability map between the absence and the presence of obstacles for an autonomous robot
US20040230340A1 (en) Behavior controlling apparatus, behavior control method, behavior control program and mobile robot apparatus
CN205458451U (en) Robot
US7373270B2 (en) Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
US20060064202A1 (en) Environment identification device, environment identification method, and robot device
JP4032793B2 (en) Charging system, charging control method, robot apparatus, charging control program, and recording medium
JP3945279B2 (en) Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus
JP2004110802A (en) Device, method for identifying environment, program, recording medium and robot device
US20160236352A1 (en) Robot device, method of controlling robot device, computer program, and program storage medium
US20170348858A1 (en) Multiaxial motion control device and method, in particular control device and method for a robot arm
KR20210004674A (en) Moving robot and control method thereof
KR20180070932A (en) A movable object and a method for controlling the same
US11260525B2 (en) Master robot for controlling slave robot and driving method thereof
JP2003266349A (en) Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2004301796A (en) Robot, and method and system for localizing landmark, and the landmark
KR20130000278A (en) Robot cleaner and controlling method of the same
CN105406556A (en) Auxiliary equipment charging system and method
KR102163462B1 (en) Path-finding Robot and Mapping Method Using It
CN206883639U (en) A kind of vision positioning system of industrial robot
CN111168691A (en) Robot control method, control system and robot
JP2007152472A (en) Charging system, charging station and robot guidance system
JP4285279B2 (en) Diagnostic device for stereo camera mounted on robot, and diagnostic method for stereo camera mounted on robot device
CN111630346A (en) Improved positioning of mobile devices based on images and radio words