JP4235858B2 - Robot apparatus and obstacle map generation method for robot apparatus - Google Patents
Robot apparatus and obstacle map generation method for robot apparatus Download PDFInfo
- Publication number
- JP4235858B2 JP4235858B2 JP12721699A JP12721699A JP4235858B2 JP 4235858 B2 JP4235858 B2 JP 4235858B2 JP 12721699 A JP12721699 A JP 12721699A JP 12721699 A JP12721699 A JP 12721699A JP 4235858 B2 JP4235858 B2 JP 4235858B2
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- image
- wall
- edge
- floor surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 9
- 230000006399 behavior Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Toys (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はロボット装置及びロボット装置の行動決定方法に関し、例えば4足動物のように動作するペットロボットに適用して好適なものである。
【0002】
【従来の技術】
従来、ユーザからの指令によって決まった動作を行うロボットが提案及び開発されている。このようなロボットにおいては、自分の周囲に壁などの障害物が存在する場合、その障害物に接触又は衝突すると、破損や故障の原因になることから、当該障害物に衝突するような事態が生じることを回避することが望ましい。そこでロボットにおいては、自分の周囲に存在する障害物を検出する方法として種々の方法が考えられている。
【0003】
障害物を検出する方法としては、例えば超音波センサでなる距離センサをロボットが移動する移動平面に対して平行になるように当該ロボットの側面のあらゆる方向に取り付け、移動平面に存在する障害物の位置を検出する方法がある。
【0004】
しかしながら、距離センサを用いて障害物を検出する方法は、多数のセンサをロボットに取り付ける必要があることから、当該ロボットの重量が重くなってしまって軽量化を図ることが困難になる。
【0005】
また障害物を検出する方法としては、ビデオカメラをロボットの頭部に取り付け、当該ビデオカメラによって撮像された画像を基に障害物を検出する方法も考えられる。一般にビデオカメラは超音波センサに比べて広い範囲で周囲の状況を認識し得ることから、1台のビデオカメラで多くの障害物を検出することができ、これにより多数の超音波センサをロボットに取り付ける場合のように当該ロボットの重量が重くなることを回避することができる。またロボットでは、ビデオカメラを障害物を検出する方法以外の目的でも用いることから、新たに超音波センサを取り付ける場合に比べて効率的である。
【0006】
従って障害物検出方法としては、ビデオカメラをロボットに搭載し、当該ビデオカメラによって撮像された画像を基に障害物を検出する方法が提案されており、具体的な方法は特開昭63-71604号公報、特開平02-212906 号公報、特開平07-280518 号公報及び特開昭60-90697号公報に開示されている。
【0007】
このうち特開昭63-71604号公報に開示されている手法は、ビデオカメラによって撮像された画像のうち灰色の領域を道路と見なし、当該灰色の領域以外の領域を障害物とみなすことにより障害物を検出する手法である。特開平02-212906 号公報に開示されている手法は、予め地図を用意しておき、当該地図に基づいてロボットの移動経路などを計画する手法である。
【0008】
特開平07-280518 号公報に開示されている手法は、焦点距離を変化させ得る焦点可変レンズ付きのビデオカメラを用いることにより床と壁のなどの境界を強調したエッジ画像を生成し、当該生成したエッジ画像を基に障害物を検出する手法である。この手法では、ビデオカメラの焦点距離を変化させて画像の濃淡が最も明確に現れた領域をエッジとみなし、当該エッジの位置とそのときの焦点距離とからエッジの位置を求めることによりエッジ画像を生成している。
【0009】
また特開昭60-90697号公報に開示されている手法は、ビデオカメラから連続して入力される画像の各画素の濃淡変化に基づいて各画素の距離を算出し、当該各画素のうち予め設定された空間以外に位置する画素を検出してこれを障害物とみなす手法である。
【0010】
【発明が解決しようとする課題】
ところで多数の関節を有するロボットは、移動する際にその姿勢が複雑に遷移し、当該ロボットの動作に連動してビデオカメラの位置も動くことから、ビデオカメラを移動平面に対して平行に位置させることを維持し得ず、この場合、障害物の位置を正確に検出できない問題があった。
【0011】
因みに、特開昭63-71604号公報に開示されてる手法は、撮像された画像のうち特定の色の領域をロボットが移動し得る領域と見なしていることから、例えば室内のような様々な色が施された領域が存在する場合には障害物を検出することができず、特開平02-212906 号公報や特開平07-280518 号公報に開示されているような手法は、予め地図など周囲の状況を認識させておく必要があるため、用途が限定されてしまうことになる。
【0012】
本発明は以上の点を考慮してなされたもので、自律的に障害物を回避しながら行動するロボット装置及びロボット装置の行動決定方法を提案しようとするものである。
【0013】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、周囲の障害物を撮像する撮像手段と、撮像手段の近傍に設けられ、当該障害物までの距離を測定する距離測定手段と、撮像手段によって床面及び障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、画像に対し所定の演算処理を施すことにより当該画像に表示される床面と壁面との境界であるエッジ線を強調した画像である水平エッジ画像を生成するエッジ画像生成手段と、水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の短冊ラインとエッジ線とが交差する複数のエッジ点を結んだ位置を、画像で表示された画像座標系における床面から壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、画像座標系における壁面障害物の存在位置を表す複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、床面を基準とした床面基準座標系におけるエッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、距離測定手段によって測定される壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離センサ座標系における壁面障害物の存在位置として検出し、当該壁面障害物の存在位置を表す座標値に対し所定の計算式を用いることによって当該壁面障害物の存在位置を表す座標値を床面基準座標系における壁面障害物の存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、床面基準座標系に座標変換された壁面障害物の存在位置を表すエッジ点床面基準座標値と壁面障害物の存在位置を表す距離床面基準座標値とを重ね合わせることによってエッジ点によって壁面障害物を表すエッジ点床面基準座標値及び距離情報によって壁面障害物を表す距離床面基準座標値を1つの床面基準座標系に重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段とを設けるようにした。
【0014】
この結果、撮像手段によって撮像された障害物の位置を正確に検出することができる。
【0015】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0016】
(1)ペットロボットの構成
図1において、1は全体として動物の外観形状を有するペットロボットを示し、頭に相当する頭部2と、胴体に相当する本体部3と、足に相当する足部4A〜4Dと、尻尾に相当する尻尾部5とを連結することによって構成され、本体部3に対して頭部2、足部4A〜4D及び尻尾部5を動かすことによって実際の4足動物のように動作させるようになされている。
【0017】
頭部2には、目に相当し、画像を撮像する撮像手段としてのCCD(Charge Coupled Device )カメラ10と、耳に相当し、音声を集音するマイク11と、口に相当し、音声を発するスピーカ12とがそれぞれ所定位置に取り付けられている。また頭部2には、ユーザの手などが接触されたことを検出するためのタッチセンサ14と、ペットロボット1の進行方向に対して前方に位置する障害物までの距離を検出する距離検出手段としての距離センサ15とが取り付けられている。
【0018】
本体部3には、腹に相当する位置にバッテリ16が取り付けられるとと共に、その内部にペットロボット1全体の動作を制御するための電子回路(図示せず)等が収納されている。
【0019】
足部4A〜4Dの関節部分、足部4A〜4Dと本体部3を連結する関節部分、本体部3と頭部2を連結する関節部分、本体部3と尻尾部5を連結する関節部分などは、それぞれのアクチュエータ171 〜17N によって連結されており、本体部3内部に収納される電子回路の制御に基づいて駆動するようになされている。このようにペットロボット1は、各アクチュエータ171 〜17N を駆動させることにより、頭部2を上下左右に振らせたり、尻尾部5を振らせたり、足部4A〜4Dを動かして歩かせたり走らせたりして、実際の4足動物のような動作を行わせる。またペットロボット1は、CCDカメラ10及び距離センサ15を支持する支持手段を構成し、当該CCDカメラ10の撮像方向及び距離センサ15の測定方向を任意に変化させ得るようになされている。
【0020】
(2)ペットロボットの回路構成
ここでペットロボット1の回路構成を図2に示す。CPU(Central Processing Unit )20は、ペットロボット1全体の動作を制御するためのものであり、フラッシュROM(Read Only Memory)21に格納されている制御プログラムをバスB1を介して必要に応じて読み出すと共に、PC(Personal Computer )カードスロット(図示せず)に挿入されたメモリカード22に格納されている制御プログラムをPCカードインターフェイス23及びバスB1を順次介して読み出し、これら読み出した制御プログラムをDRAM(Dynamic Random Access Memory)24に転送して記憶するようになされている。CPU20は、このDRAM24に転送された制御プログラムを読み出して実行することによりペットロボット1の各回路を制御している。
【0021】
信号処理回路30は、CPU20の制御に基づいて各種信号処理を行うためのものであり、図3に示すように、CPU20(図2)に接続するためのホストインターフェイス31と、フラッシュROM21(図2)に接続するためのROMインターフェイス32と、DRAM24(図2)に接続するためのDRAMインターフェイス33とを有し、バスB1を介してCPU20、フラッシュROM21及びDRAM24に接続されている。
【0022】
信号処理回路30は、アービトレーション(バス使用権の調停作業)を行うためのバスアービタ34を有し、当該バスアービタ34は、バスB2を介してホストインターフェイス31、ROMインターフェイス32及びDRAMインターフェイス33に接続されている。
【0023】
また図2において、ペットロボット1には、各関節部分を駆動するアクチュエータ171 〜17N における駆動量を検出するためのポテンショメータ401 〜40N がそれぞれ設けられ、アクチュエータ171 〜17N 、ポテンショメータ401 〜40N 、タッチセンサ14、距離センサ15、マイク11及びスピーカ12がそれぞれハブ411 〜41X を介して信号処理回路30のシリアルバスホストコントローラ45(図3)にツリー接続されている。図3に示すように、シリアルバスホストコントローラ45は、バスB3を介してバスアービタ34に接続され、各ポテンショメータ401 〜40N によって検出された角度情報、タッチセンサ14によって検出された接触情報、距離センサ15によって検出された障害物の距離情報をバスB3、バスアービタ34、バスB2、DRAMインターフェイス33及びバスB1(図2)を順次介してDRAM24(図2)に転送して記憶するようになされている。
【0024】
FBK/CDT(Filter Bank/Color Detection )46は、CCDカメラ10(図2)に接続されるためのものであり、当該CCDカメラ10によって撮像された画像データの色認識を行いながら複数の解像度に分けて取り込み、当該取り込んだ画像データをバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に転送して記憶する。
【0025】
IPE(Inner Product Engine)47は、2次元ディジタルフィルタでなり、DRAM24(図2)からDRAMインターフェイス33及びバスアービタ34を順次介して画像データが供給されると、当該画像データから床と壁や壁と壁の境界を強調したエッジ画像を生成し、当該生成したエッジ画像をバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に戻して記憶する。
【0026】
DMA(Direct Memory Access)コントローラ48は、データの転送を司るためのものであり、例えばFBK/CDT46のバッファ(図示せず)から画像データを読み出してDRAM24(図2)に転送したり、DRAM24(図2)から画像データを読み出してIPE47に転送し、当該IPE47による演算結果であるエッジ画像をDRAM24(図2)に転送するようになされている。
【0027】
DSP(Digital Signal Processor)49は、マイク11(図2)からハブ41X 〜41X-2 、シリアルバスホストコントローラ45及びバスB3を順次介して例えばユーザの指令を示す音声信号が入力されると、当該音声信号に対して所定のデータ処理を施し、その処理結果でなる音声情報をバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に転送して記憶する。
【0028】
シリアルバス50は、パーソナルコンピュータ(PC)などのリモートコンピュータ(図示せず)に接続するためのインターフェイスであり、バスB3を介してバスアービタ34に接続されている。同様にバスB3を介してバスアービタ34に接続されるペリフェラルインターフェイス51は、リモートコンピュータに接続するためのシリアルポート52及びパラレルポート53に接続されると共に、バッテリ16(図2)に接続するためのバッテリマネージャ51に接続されている。バッテリマネージャ51は、バッテリ16から通知されるベッテリ残量情報をペリフェラルインターフェイス51、バスアービタ34及びDRAMインターフェイス33を順次介してDRAM24に転送して記憶する。タイマー55は、ペットロボット1内部の時計としての役割を果たすものであり、バスB3を介してバスアービタ34に接続されている。
【0029】
CPU20は、DRAM24に展開されている各種情報に基づいて自律的に次の動作を決定し、当該決定した動作に応じた駆動信号を生成する。そしてCPU20は、この駆動信号を信号処理回路30内部のホストインターフェイス31、バスアービタ34及びシリアルバスホストコントローラ45並びにハブ411 〜41N を順次介してアクチュエータ171 〜17N に送出することにより、当該各アクチュエータ171 〜17N を駆動して当該ペットロボット1を自律的に動作させる。
【0030】
その際CPU20は、DRAM24に展開されているエッジ画像や距離情報に基づいて自分の周囲に存在する障害物を検出することにより、障害物の分布でなる障害物マップを得る。CPU20は、この障害物マップに基づいて自律的に行動を決定し、当該決定した行動に応じた駆動信号を生成する。そしてCPU20は、この駆動信号を信号処理回路30及びハブ411 〜41N を順次介してアクチュエータ171 〜17N に送出して当該各アクチュエータ171 〜17N を駆動することにより、自分の周囲に存在する障害物を回避しながら自律的に行動するようになされている。
【0031】
なおCPU20は、DRAM24に展開されている各種情報に基づいて音声情報を生成し、当該音声情報をホストインターフェイス31及びバスアービタ34を順次介してDSP49に送出し、当該DSP49において音声信号に変換した後、当該音声信号をシリアルバスホストコントローラ45、ハブ41X を順次介してスピーカ12から出力する。
【0032】
(3)行動決定方法
ここでペットロボット1の行動決定方法について図4に示すフローチャートを用いて説明する。ここではペットロボット1が例えば図5に示すような壁60〜63に挟まれた通路に沿って床面64を移動する場合について説明する。この場合、ステップSP1から入ったステップSP2において、ペットロボット1は、CCDカメラ10の視野範囲に含まれる領域を当該CCDカメラ10によって撮像し、その結果得た図6に示すような画像データを入力画像として信号処理回路30を介してDRAM24に記憶する。
【0033】
信号処理回路30は、DRAM24から入力画像を読み出し、当該入力画像から3×3画素でなる検索画像を1画素分ずつ移動させながら順次切り出し、当該切り出した各検索画像と、フィルタ係数を示す次式
【0034】
【数1】
【0035】
でなる参照画像との積和演算をそれぞれ並列的に施すことにより、床面と壁や壁と壁の境界すなわち水平エッジを強調した図7に示すようなエッジ画像を生成し、当該エッジ画像をDRAM24に記憶する。このようにエッジ画像の生成は、信号処理回路30によって行われ、CPU20を用いることはないため、CPU20は他の演算処理に従事することができる。
【0036】
ステップSP3において、CPU20は、エッジ画像を縦方向に沿って短冊状の領域R1〜R8に分割することにより図8に示すような短冊画像を生成する。そしてCPU20は、短冊状の各領域R1〜R8それぞれに対してエッジ画像の下部から各ライン毎に走査し、最初に境界(以下、これをエッジと呼ぶ)を検出した位置を求める。
【0037】
ところでペットロボット1が床64に置かれている場合にはその足元が床面64に位置することから、エッジ画像の下部付近の領域は床面64であることが想定される。従って、エッジ画像の下部から走査した場合に最初に検出されるエッジは、床面64の領域が終了することを意味して障害物と認識される。
【0038】
このようにCPU20は、信号処理回路30と共に障害物検出手段を構成し、領域R1中の複数のラインそれぞれに対して走査することによりエッジの位置をそれぞれ検出し、当該検出された各ライン毎のエッジ位置のうち縦方向のレベルが中間のものを領域R1の障害物の位置(x1 、y1 )とする。以下、同様にしてCPU20は、各領域R2〜R8の障害物の位置(x2 、y2 )〜(x8 、y8 )をそれぞれ検出し、当該検出した各位置(xi 、yi )を画像座標系における障害物の位置とする。
【0039】
続くステップSP4において、CPU20は、位置変換手段として動作し、画像座標系における障害物の位置(xi 、yi )を、ペットロボット1が置かれている床面64を基準とした床面基準座標系における位置(xb 、yb 、zb )に座標変換する。以下、この座標変換について具体的に説明する。まずCPU20は、図10に示すようなピンホール・カメラモデル70において、エッジ画像の画像中心を原点とする画像座標系における障害物の位置を(xi 、yi )とする一方、CCDカメラ10の焦点位置を原点とするカメラ座標系における障害物の位置を(xc 、yc 、zc )とすると共に焦点距離をfとすると、画像座標系における障害物の位置(xi 、yi )とカメラ座標系における障害物の位置(xc 、yc 、zc )との関係は、次式
【0040】
【数2】
【0041】
のように表される。
【0042】
画像座標系は、奥行き方向の位置情報が欠落しているため、画像座標系における障害物の位置(xi 、yi )からカメラ座標系における障害物の位置(xc 、yc 、zc )への変換は実行できない。従ってCPU20は、上述の(2)式を、zc を未知数として(xc 、yc )について解くことにより、次式
【0043】
【数3】
【0044】
を得る。
【0045】
次いでCPU20は、図11に示すような座標系において、床面基準座標系における位置をロボット中心座標系における位置に変換するための4×4行列の同次変換行列をB、ロボット中心座標系から頭部2をチルト(上下)方向に駆動する第1関節における座標系に変換するための同次変換行列をT1 、第1関節における座標系から頭部2をパン(左右)方向に駆動する第2関節における座標系に変換するための同次変換行列をT2 、第2関節における座標系から頭部2をロール(回転)方向に駆動する第3関節における座標系に変換するための同次変換行列をT3 、第3関節における座標系の位置をカメラ座標系における位置に変換するための同次変換行列をT4 として、カメラ座標系における障害物の位置Xc を、次式
【0046】
【数4】
【0047】
によって床面座標系における位置Xb に変換する。ここでc11〜c33は同次変換行列Tの回転量を示し、tx 、ty 、tz は同次変換行列Tの並行移動量を示し、c11′〜c33′及びc11″〜c33″は床面基準座標系及びカメラ座標系の回転量を示し、xb 、yb 、zb 及びxc 、yc 、zc は床面基準座標系及びカメラ座標系の平行移動量を示す。
【0048】
そしてCPU20は、上述の(4)式を展開することによりxb 、yb 、zb の計算式を求め、障害物が床面64上に存在するという拘束条件zb =0を用いることにより、次式
【0049】
【数5】
【0050】
を得る。CPU20は、この(5)式に上述の(3)式を代入した後、拘束条件zb =0からzc を算出し、当該算出したzc を(5)式の第1式及び第2式に代入することにより、画像座標系における障害物の位置(xi 、yi )を床面基準座標系における位置(xb 、yb 、0)に座標変換する変換式である次式
【0051】
【数6】
【0052】
を生成する。かくしてCPU20は、この(6)式を用いてエッジ画像中の各領域に存在する障害物の位置を床面基準座標系における位置(xb 、yb 、0)に座標変換する。
【0053】
ステップSP5において、CPU20は、図12に示す座標系において、画像座標系における障害物の位置(xi 、yi )を床面基準座標系における位置(xb 、yb 、0)に座標変換する場合と同様にして、距離センサ座標系における障害物の位置Xd (0、0、xd )を床面基準座標系における位置(xe 、ye 、0)に座標変換する。すなわちCPU20は、距離センサ15の検出結果である距離情報xd を距離センサ座標系における障害物の位置Xd (0、0、xd )とし、当該位置Xd (0、0、xd )を上述の同次変換行列B、T1 、T2 、T3 及び第3関節における座標系の位置を距離センサ座標系における位置に変換するための同次変換行列T5 を用いて床面基準座標系における位置(xe 、ye 、0)に座標変換する。
【0054】
ステップSP6において、CPU20は、障害物分布生成手段として動作し、CCDカメラ10によって撮像された入力画像に基づいて算出された床面基準座標系における障害物の位置(xb 、yb )と、距離センサ15によって検出された距離情報に基づいて算出された床面基準座標系における障害物の位置(xe 、ye )とを重ねて表示することにより、図13に示すような障害物の分布でなる障害物マップ80を生成し、当該生成した障害物マップ80をDRAM24に記憶する。図中丸印はCCDカメラ10によって検出された障害物を示し、図中二重丸印は距離センサ15によって検出された障害物を示す。
【0055】
ところでCCDカメラ10によって撮像された入力画像にノイズが含まれていると、信号処理回路30はエッジ画像を正しく生成し得ない場合がある。この場合、ペットロボット1は、距離センサ15を併用して障害物を検出しており、障害物の検出における信頼性を向上させることができる。因みに、CPU20は、ペットロボット1の周囲の所定範囲を安全圏81として選定して表示するようになされており、安全圏81に障害物等が侵入した場合、移動速度を所定の速度に制限するなどして警戒行動モードに入る。
【0056】
ステップSP7において、CPU20は、さらに障害物の位置を検出する必要があるか否か判断し、その結果、さらに障害物の位置を検出する必要があると判断した場合にはステップSP2に戻って動作を繰り返すことにより広い範囲の障害物マップを生成し、周囲に存在する障害物を十分検出することはできたと判断した場合にはステップSP8に移行する。
【0057】
そしてステップSP8において、CPU20は、行動決定手段として動作し、生成した障害物マップに基づいてペットロボット1から最も近くに位置する障害物を避けながら最も遠くに位置する障害物に向かって進むという行動計画を立てて、当該行動計画に応じて各アクチュエータ171 〜17N を駆動する。これによりペットロボット1は、自分の周囲に存在する障害物を回避しながら自律的に行動又は移動することができる。そしてステップSP9に移って処理を終了する。
【0058】
(4)動作及び効果
以上の構成において、信号処理回路30は、CCDカメラ10によって撮像された入力画像から所定の周波数成分の画像信号を抽出するようなフィルタ演算を施すことにより、ペットロボット1が移動する移動面と当該移動面上に存在する障害物との境界を強調したエッジ画像を生成する。
【0059】
CPU20は、このエッジ画像上に存在する最下部の境界の位置から障害物の位置を特定し、当該最下部の境界の位置を画像座標系における障害物の位置と見なす。そしてCPU20は、アクチュエータ171 〜17N が駆動することに応じて変化したCCDカメラ10の撮像方向に基づいて、画像座標系における障害物の位置を、ペットロボット1が移動する移動面を基準とした基準座標系における位置に座標変換する。このように複数の関節を有し、動作する毎に複雑に姿勢遷移するペットロボット1であっても、周囲の環境にかかわらずに障害物の位置を正確に検出することができる。
【0060】
同様にしてCPU20は、アクチュエータ171 〜17N が駆動することに応じて変化した距離センサ15の測定方向に基づいて、、距離センサ座標系における障害物の位置を基準座標系における位置に座標変換する。次いでCPU20は、CCDカメラ10によって検出された障害物の基準座標系における位置と、距離センサ15によって検出された障害物の基準座標系における位置とを基に、障害物の分布でなる障害物マップを生成する。CPU20は、この生成した障害物マップに基づいて自律的に次の動作を決定し、自分の周囲に存在する障害物を回避しながら自律的に行動及び移動する。これによりユーザはペットロボット1の行動を常に監視する必要がなくなる。
【0061】
以上の構成によれば、撮像された入力画像からペットロボット1が移動する移動面と当該移動面上に存在する障害物との境界を検出してこれを障害物の位置と見なし、CCDカメラ10の撮像方向に基づいてこの障害物の位置を移動面上の位置に変換することにより、自分の周囲に存在する障害物の位置を正確に検出することができ、かくして当該検出した障害物の位置に基づいて次の動作を決定すれば、確実に障害物を回避しながら自律的に行動することができる。
【0062】
また、CCDカメラ10は距離センサ15に比べて広い範囲で周囲の状況を認識し得ることから、1台のCCDカメラ10で多くの障害物を検出することができ、ペットロボット1の構成を簡易にし得る。
【0063】
また、CCDカメラ10から供給される入力画像を基に検出された画像座標系における障害物の位置を、床面基準座標系における位置に座標変換して障害物マップに表示することにより、距離センサ15によって検出された障害物の位置も座標変換を施せば、障害物マップに表示することができ、従って障害物の位置に対する信頼性を向上することができる。
【0064】
(5)他の実施の形態
なお上述の実施の形態においては、CCDカメラ10及び距離センサ15を用いて障害物を検出した場合について述べたが、本発明はこれに限らず、CCDカメラ10だけで障害物を検出するようにしても良い。
【0065】
また上述の実施の形態においては、本発明をペットロボット1に適用した場合について述べたが、例えばゲームや展示等のエンタテインメント分野で用いられるロボット又は搬送用ロボット、工事用ロボット等の産業ロボットのように、他の種々のロボット装置に本発明を適用し得る。
【0066】
【発明の効果】
上述のように本発明によれば、周囲の障害物を撮像する撮像手段と、撮像手段の近傍に設けられ、当該障害物までの距離を測定する距離測定手段と、撮像手段によって床面及び障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、画像に対し所定の演算処理を施すことにより当該画像に表示される床面と壁面との境界であるエッジ線を強調した画像である水平エッジ画像を生成するエッジ画像生成手段と、水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の短冊ラインとエッジ線とが交差する複数のエッジ点を結んだ位置を、画像で表示された画像座標系における床面から壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、画像座標系における壁面障害物の存在位置を表す複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、床面を基準とした床面基準座標系におけるエッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、距離測定手段によって測定される壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離センサ座標系における壁面障害物の存在位置として検出し、当該壁面障害物の存在位置を表す座標値に対し所定の計算式を用いることによって当該壁面障害物の存在位置を表す座標値を床面基準座標系における壁面障害物の存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、床面基準座標系に座標変換された壁面障害物の存在位置を表すエッジ点床面基準座標値と壁面障害物の存在位置を表す距離床面基準座標値とを重ね合わせることによってエッジ点によって壁面障害物を表すエッジ点床面基準座標値及び距離情報によって壁面障害物を表す距離床面基準座標値を1つの床面基準座標系に重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段とを具えるようにしたことにより、カメラ画像によるエッジ点床面基準座標値と距離センサによる距離床面基準座標値を併用した障害物座標値マップに従って障害物を検出することができるので、カメラ画像によるエッジ点床面基準座標値にノイズによるエッジ画像に誤差が生じても距離センサによる距離床面基準座標値による障害物検出によって障害物の位置を正確に検出することができ、かくして障害物の位置を検出する信頼性が向上し得るロボット装置を実現できる。
【図面の簡単な説明】
【図1】本発明によるペットロボットの一実施の形態を示す略線図である。
【図2】ペットロボットの回路構成を示すブロック図である。
【図3】信号処理回路の構成を示すブロック図である。
【図4】ロボット装置の行動決定方法を示すフローチャートである。
【図5】ペットロボットの周囲の環境を示す略線図である。
【図6】入力画像を示す略線図である。
【図7】エッジ画像を示す略線図である。
【図8】短冊画像を示す略線図である。
【図9】各短冊の代表点を示す略線図である。
【図10】ピンホール・カメラモデルを示す略線図である。
【図11】座標変換の原理を示す略線図である。
【図12】座標変換の原理を示す略線図である。
【図13】障害物マップを示す略線図である。
【符号の説明】
1……ペットロボット、2……頭部、3……本体部、4……足部、5……尻尾部、10……CCDカメラ、11……マイク、12……スピーカ、15……距離センサ、16……バッテリ、17……アクチュエータ、20……CPU、21……フラッシュROM、22……メモリカード、24……DRAM、30……信号処理回路、34……バスアービタ、40……ポテンショメータ、41……ハブ、45……シリアルバスホストコントローラ、46……FBK/CDT、47……IPE、48……DMAコントローラ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus and a behavior determination method of the robot apparatus, and is suitable for application to a pet robot that operates like a quadruped animal, for example.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, robots that perform actions determined by commands from users have been proposed and developed. In such robots, if there is an obstacle such as a wall around you, it may cause damage or failure if it touches or collides with the obstacle. It is desirable to avoid what happens. Therefore, in the robot, various methods are considered as a method for detecting an obstacle existing around the robot.
[0003]
As a method for detecting an obstacle, for example, a distance sensor composed of an ultrasonic sensor is attached in any direction on the side of the robot so as to be parallel to the moving plane on which the robot moves, and the obstacle existing on the moving plane is detected. There is a method for detecting the position.
[0004]
However, in the method of detecting an obstacle using a distance sensor, since it is necessary to attach a large number of sensors to the robot, the weight of the robot becomes heavy and it is difficult to reduce the weight.
[0005]
Further, as a method for detecting an obstacle, a method in which a video camera is attached to the head of the robot and an obstacle is detected based on an image captured by the video camera can be considered. In general, a video camera can recognize surrounding conditions in a wider range than an ultrasonic sensor, so a single video camera can detect many obstacles. It is possible to avoid an increase in the weight of the robot as in the case of attachment. Also, since the robot uses the video camera for purposes other than the method of detecting an obstacle, it is more efficient than a case where a new ultrasonic sensor is attached.
[0006]
Therefore, as an obstacle detection method, there has been proposed a method in which a video camera is mounted on a robot and an obstacle is detected based on an image captured by the video camera. A specific method is disclosed in JP-A-63-71604. No. 2, JP-A No. 02-212906, JP-A No. 07-280518 and JP-A No. 60-90697.
[0007]
Among them, the technique disclosed in Japanese Patent Laid-Open No. 63-71604 is based on the assumption that a gray area of an image captured by a video camera is regarded as a road and an area other than the gray area is regarded as an obstacle. This is a technique for detecting objects. The method disclosed in Japanese Patent Laid-Open No. 02-212906 is a method of preparing a map in advance and planning a movement path of the robot based on the map.
[0008]
The method disclosed in Japanese Patent Application Laid-Open No. 07-280518 generates an edge image that emphasizes a boundary such as a floor and a wall by using a video camera with a variable focus lens that can change a focal length. This is a technique for detecting an obstacle based on the edge image. In this method, by changing the focal length of the video camera, the area where the contrast of the image appears most clearly is regarded as the edge, and the edge image is obtained by obtaining the edge position from the position of the edge and the focal length at that time. Is generated.
[0009]
Further, the method disclosed in Japanese Patent Application Laid-Open No. Sho 60-90697 calculates the distance of each pixel based on the change in shading of each pixel of an image continuously input from a video camera, This is a method of detecting a pixel located outside the set space and considering it as an obstacle.
[0010]
[Problems to be solved by the invention]
By the way, the posture of a robot having a large number of joints changes in a complicated manner when moving, and the position of the video camera moves in conjunction with the movement of the robot, so that the video camera is positioned parallel to the moving plane. In this case, there is a problem that the position of the obstacle cannot be accurately detected.
[0011]
Incidentally, since the method disclosed in Japanese Patent Laid-Open No. 63-71604 considers a specific color area in the captured image as an area where the robot can move, various colors such as indoors can be used. Obstacles cannot be detected when there is a region where the mark is applied, and the method disclosed in Japanese Patent Laid-Open No. 02-212906 and Japanese Patent Laid-Open No. 07-280518 is not limited to a map or the like in advance. Because it is necessary to recognize this situation, the application is limited.
[0012]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose a robot apparatus that autonomously avoids an obstacle and a behavior determination method of the robot apparatus.
[0013]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, an imaging means for imaging surrounding obstaclesAnd a distance measuring means provided in the vicinity of the imaging means for measuring the distance to the obstacle,By imaging meansThe field of view range including the floor and the wall as an obstacle was imaged.Image storage means for storing images, and by performing predetermined arithmetic processing on the imagesConcernedEdge line that is the boundary between the floor and the wall surface displayed in the imageTheEmphasisIs the imageEdge image generating means for generating a horizontal edge image, and a plurality of edge points where the plurality of strip lines and edge lines obtained by dividing the horizontal edge image by a plurality of strip lines drawn in the vertical direction intersect. The tied position in the image coordinate system displayed in the imageWall obstacle recognition that recognizes the wall as a wall obstacle, with the position changing from the floor to the wallMeans in the image coordinate systemWallBy using a predetermined calculation formula for the coordinate values of a plurality of edge points representing the position of the obstacle, the coordinate values of the plurality of edge points are converted into the edge point floor in the floor surface reference coordinate system based on the floor surface. Convert coordinates to surface reference coordinate valuesEdge wallObstacle coordinate transformation means and distanceMeasuring meansMeasured byWallThe position obtained based on the distance information untilMeasuring meansIn the distance sensor coordinate system corresponding to the measurement ofWallDetects the location of the obstacle andWallBy using a predetermined calculation formula for the coordinate value representing the position of the obstacleWallThe coordinate value indicating the position of the obstacle is displayed in the floor reference coordinate system.WallIndicates the location of the obstacledistanceCoordinate conversion to the floor reference coordinate valueDistance wallCoordinate transformation to obstacle coordinate transformation means and floor reference coordinate systemWallIndicates the location of the obstacleEdge pointThe floor reference coordinate value andWallIndicates the location of the obstacledistanceBy superimposing the floor reference coordinate valueWall by edge pointRepresents an obstacleEdge pointFloor surface reference coordinate value andWall surface by distance informationRepresents an obstacledistanceThe floor reference coordinate valueOne floor reference coordinate systemInSuperimposedObstacle coordinate value map generating means for generating an obstacle coordinate value map to be displayedAnd provideI did it.
[0014]
As a result,It is possible to accurately detect the position of the obstacle imaged by the imaging means.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0016]
(1) Configuration of pet robot
In FIG. 1,
[0017]
The
[0018]
A
[0019]
Joint portions of the
[0020]
(2) Pet robot circuit configuration
Here, the circuit configuration of the
[0021]
The
[0022]
The
[0023]
In FIG. 2, the
[0024]
An FBK / CDT (Filter Bank / Color Detection) 46 is for being connected to the CCD camera 10 (FIG. 2), and performs color recognition of image data picked up by the
[0025]
An IPE (Inner Product Engine) 47 is a two-dimensional digital filter. When image data is sequentially supplied from the DRAM 24 (FIG. 2) via the
[0026]
A DMA (Direct Memory Access) controller 48 controls data transfer. For example, image data is read from a buffer (not shown) of the FBK / CDT 46 and transferred to the DRAM 24 (FIG. 2), or the DRAM 24 ( The image data is read from FIG. 2) and transferred to the
[0027]
A DSP (Digital Signal Processor) 49 is connected to the hub 41 from the microphone 11 (FIG. 2).X~ 41X-2When an audio signal indicating a user command, for example, is sequentially input via the serial
[0028]
The
[0029]
The CPU 20 autonomously determines the next operation based on various information developed in the
[0030]
At that time, the CPU 20 detects an obstacle existing around itself based on the edge image and the distance information developed in the
[0031]
The CPU 20 generates audio information based on various information developed in the
[0032]
(3) Action decision method
Here, a behavior determination method of the
[0033]
The
[0034]
[Expression 1]
[0035]
7 is generated in parallel with each other to generate an edge image as shown in FIG. 7 in which a floor and a wall, a boundary between walls and a wall, that is, a horizontal edge is emphasized, and the edge image is Store in the
[0036]
In step SP3, the CPU 20 divides the edge image into strip-shaped regions R1 to R8 along the vertical direction.8A strip image as shown in FIG. Then, the CPU 20 scans each of the strip-shaped regions R1 to R8 for each line from the lower part of the edge image, and obtains a position where a boundary (hereinafter referred to as an edge) is first detected.
[0037]
By the way, when the
[0038]
In this way, the CPU 20 constitutes obstacle detection means together with the
[0039]
In subsequent step SP4, the CPU 20 operates as a position conversion means, and the position of the obstacle (xi, Yi) In the floor reference coordinate system with respect to the
[0040]
[Expression 2]
[0041]
It is expressed as
[0042]
Since the image coordinate system lacks position information in the depth direction, the position of the obstacle (xi, Yi) To the position of the obstacle in the camera coordinate system (xc, Yc, ZcConversion to) cannot be performed. Therefore, the CPU 20 changes the above expression (2) to zcAs an unknown (xc, Yc)
[0043]
[Equation 3]
[0044]
Get.
[0045]
Next, in the coordinate system as shown in FIG. 11, the CPU 20 obtains a 4 × 4 homogeneous transformation matrix B for converting the position in the floor reference coordinate system into the position in the robot center coordinate system from B, the robot center coordinate system. A homogeneous transformation matrix for transforming the
[0046]
[Expression 4]
[0047]
To position X in the floor coordinate systembConvert to Where c11~ C33Indicates the amount of rotation of the homogeneous transformation matrix T, and tx, Ty, TzIndicates the amount of parallel movement of the homogeneous transformation matrix T, and c11′ To c33′ And c11″ To c33"" Indicates the rotation amount of the floor reference coordinate system and the camera coordinate system, and xb, Yb, ZbAnd xc, Yc, ZcIndicates the amount of translation of the floor reference coordinate system and the camera coordinate system.
[0048]
Then, the CPU 20 expands the above equation (4) to obtain xb, Yb, ZbConstraint condition z that an obstacle exists on the
[0049]
[Equation 5]
[0050]
Get. After substituting the above equation (3) into this equation (5), the CPU 20b= 0 to zcAnd the calculated zcIs substituted into the first and second formulas of the formula (5), the position of the obstacle (xi, Yi) In the floor reference coordinate system (xb, Yb, 0)
[0051]
[Formula 6]
[0052]
Is generated. Thus, the CPU 20 uses this equation (6) to determine the position of the obstacle present in each region in the edge image in the position (xb, Yb, 0).
[0053]
In step SP5, the CPU 20 in the coordinate system shown in FIG.i, Yi) In the floor reference coordinate system (xb, Yb, 0), the position X of the obstacle in the distance sensor coordinate systemd(0, 0, xd) In the floor reference coordinate system (xe, Ye, 0). That is, the CPU 20 detects the distance information x that is the detection result of the distance sensor 15.dThe position X of the obstacle in the distance sensor coordinate systemd(0, 0, xd) And the position Xd(0, 0, xd) To the above-mentioned homogeneous transformation matrix B, T1, T2, TThreeAnd a homogeneous transformation matrix T for converting the position of the coordinate system in the third joint to the position in the distance sensor coordinate systemFiveUsing the position in the floor reference coordinate system (xe, Ye, 0).
[0054]
In step SP6, the CPU 20 operates as an obstacle distribution generation unit, and the position of the obstacle (x in the floor reference coordinate system calculated based on the input image captured by the CCD camera 10)b, Yb) And the position of the obstacle (x in the floor reference coordinate system calculated based on the distance information detected by the
[0055]
By the way, if the input image picked up by the
[0056]
In step SP7, the CPU 20 determines whether or not it is necessary to further detect the position of the obstacle. As a result, if it is determined that it is necessary to detect the position of the obstacle, the CPU 20 returns to step SP2 and operates. By repeating the above, an obstacle map in a wide range is generated, and if it is determined that the obstacles present in the surroundings can be sufficiently detected, the process proceeds to step SP8.
[0057]
In step SP8, the CPU 20 operates as an action determination unit, and moves toward the obstacle located farthest away from the
[0058]
(4) Operation and effect
In the above configuration, the
[0059]
The CPU 20 identifies the position of the obstacle from the position of the lowermost boundary existing on the edge image, and regards the position of the lowermost boundary as the position of the obstacle in the image coordinate system. The CPU 20 then sends the actuator 171~ 17NThe position of the obstacle in the image coordinate system is coordinate-converted to a position in the reference coordinate system based on the moving plane on which the
[0060]
Similarly, the CPU 20 controls the actuator 17.1~ 17NBased on the measurement direction of the
[0061]
According to the above configuration, the boundary between the moving surface on which the
[0062]
In addition, since the
[0063]
Further, the position of the obstacle in the image coordinate system detected on the basis of the input image supplied from the
[0064]
(5) Other embodiments
In the above-described embodiment, the case where an obstacle is detected using the
[0065]
In the above-described embodiment, the case where the present invention is applied to the
[0066]
【The invention's effect】
As described above, according to the present invention, the imaging means for imaging surrounding obstaclesAnd a distance measuring means provided in the vicinity of the imaging means for measuring the distance to the obstacle,By imaging meansThe field of view range including the floor and the wall as an obstacle was imaged.Image storage means for storing images, and by performing predetermined arithmetic processing on the imagesConcernedEdge line that is the boundary between the floor and the wall surface displayed in the imageTheEmphasisIs the imageEdge image generating means for generating a horizontal edge image, and a plurality of edge points where the plurality of strip lines and edge lines obtained by dividing the horizontal edge image by a plurality of strip lines drawn in the vertical direction intersect. The tied position in the image coordinate system displayed in the imageWall obstacle recognition that recognizes the wall as a wall obstacle, with the position changing from the floor to the wallMeans in the image coordinate systemWallBy using a predetermined calculation formula for the coordinate values of a plurality of edge points representing the position of the obstacle, the coordinate values of the plurality of edge points are converted into the edge point floor in the floor surface reference coordinate system based on the floor surface. Convert coordinates to surface reference coordinate valuesEdge wallObstacle coordinate transformation means and distanceMeasuring meansMeasured byWallThe position obtained based on the distance information untilMeasuring meansIn the distance sensor coordinate system corresponding to the measurement ofWallDetects the location of the obstacle andWallBy using a predetermined calculation formula for the coordinate value representing the position of the obstacleWallThe coordinate value indicating the position of the obstacle is displayed in the floor reference coordinate system.WallIndicates the location of the obstacledistanceCoordinate conversion to the floor reference coordinate valueDistance wallCoordinate transformation to obstacle coordinate transformation means and floor reference coordinate systemWallIndicates the location of the obstacleEdge pointThe floor reference coordinate value andWallIndicates the location of the obstacledistanceBy superimposing the floor reference coordinate valueWall by edge pointRepresents an obstacleEdge pointFloor surface reference coordinate value andWall surface by distance informationRepresents an obstacledistanceThe floor reference coordinate valueOne floor reference coordinate systemInSuperimposedObstacle coordinate value map generating means for generating an obstacle coordinate value map to be displayedWithBy doing so,Combined edge point floor surface reference coordinate value from camera image and distance floor surface reference coordinate value from distance sensorBecause obstacles can be detected according to the obstacle coordinate value map,Even if an error occurs in the edge point floor surface coordinate value by the camera image due to noise, the obstacle sensor detects the obstacle by the distance floor surface coordinate value by the distance sensor.It is possible to realize a robot apparatus that can accurately detect the position of an obstacle and thus improve the reliability of detecting the position of the obstacle.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an embodiment of a pet robot according to the present invention.
FIG. 2 is a block diagram showing a circuit configuration of the pet robot.
FIG. 3 is a block diagram illustrating a configuration of a signal processing circuit.
FIG. 4 is a flowchart showing a behavior determination method of the robot apparatus.
FIG. 5 is a schematic diagram showing an environment around a pet robot.
FIG. 6 is a schematic diagram illustrating an input image.
FIG. 7 is a schematic diagram illustrating an edge image.
FIG. 8 is a schematic diagram showing a strip image.
FIG. 9 is a schematic diagram showing representative points of each strip.
FIG. 10 is a schematic diagram showing a pinhole camera model.
FIG. 11 is a schematic diagram illustrating the principle of coordinate transformation.
FIG. 12 is a schematic diagram illustrating the principle of coordinate transformation.
FIG. 13 is a schematic diagram showing an obstacle map.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
上記撮像手段の近傍に設けられ、上記障害物までの距離を測定する距離測定手段と、
上記撮像手段によって床面及び上記障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、
上記画像に対し所定の演算処理を施すことにより当該画像に表示される上記床面と上記壁面との境界であるエッジ線を強調した当該画像である水平エッジ画像を生成するエッジ画像生成手段と、
上記水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の上記短冊ラインと上記エッジ線とが交差する複数のエッジ点を結んだ位置を、上記画像で表示された画像座標系における上記床面から上記壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、
上記画像座標系における上記壁面障害物の存在位置を表す上記複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、上記床面を基準とした床面基準座標系における上記エッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、
上記距離測定手段によって測定される上記壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離測定座標系における上記壁面障害物の上記存在位置として検出し、当該壁面障害物の上記存在位置を表す座標値に対し上記所定の計算式を用いることによって当該壁面障害物の上記存在位置を表す座標値を上記床面基準座標系における上記壁面障害物の上記存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、
上記床面基準座標系に座標変換された上記壁面障害物の上記存在位置を表す上記エッジ点床面基準座標値と上記壁面障害物の上記存在位置を表す上記距離床面基準座標値とを重ね合わせることによって上記エッジ点によって上記壁面障害物を表す上記エッジ点床面基準座標値及び上記距離情報によって上記壁面障害物を表す上記距離床面基準座標値を1つの上記床面基準座標系に重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段と
を具えるロボット装置。Imaging means for imaging surrounding obstacles ;
A distance measuring means provided in the vicinity of the imaging means for measuring the distance to the obstacle;
Image storage means for storing an image obtained by imaging an area of the visual field range including the floor surface and the wall surface as the obstacle by the imaging means;
An edge image generating means for generating a horizontal edge image is the image that emphasizes the edge line is a boundary between the floor surface and the wall surface that appears in the image by performing predetermined arithmetic processing on the image,
The position connecting the plurality of edge points to which the plurality of the strip line and the edge line intersect obtained by dividing the horizontal edge image with a plurality of longitudinally-drawn strip line, displayed by the image Wall obstacle recognition means for recognizing the wall surface as a wall obstacle, with the position changing from the floor surface to the wall surface in the image coordinate system
With respect to the coordinate values of the plurality of edge points representing the positions of the wall obstacles in the image coordinate system, the coordinate values of the plurality of edge points are referenced to the floor surface by using a predetermined calculation formula. Edge wall obstacle coordinate conversion means for converting the above-mentioned edge point floor surface reference coordinate value in the floor surface reference coordinate system,
Detecting the position obtained based on the distance information to the wall surface measured by the distance measuring means as the location of the wall obstruction in the distance measurement coordinate system corresponding to the measurement of the distance measuring means, the wall By using the predetermined calculation formula for the coordinate value representing the position of the obstacle, the coordinate value representing the position of the wall obstacle is represented as the position of the wall obstacle in the floor reference coordinate system. Distance wall surface obstacle coordinate conversion means for converting the coordinate to the distance floor surface reference coordinate value to represent,
The edge point floor surface reference coordinate value representing the presence position of the wall surface obstacle coordinate-converted to the floor surface reference coordinate system and the distance floor surface reference coordinate value representing the position of the wall surface obstacle are overlapped. The edge point floor surface reference coordinate value representing the wall surface obstacle by the edge point and the distance floor surface reference coordinate value representing the wall surface obstacle by the distance information are superimposed on one floor surface reference coordinate system . Carlo bot device comprises a obstacle coordinate value map generation means for generating an obstacle coordinates map to to display.
を具える請求項1に記載のロボット装置。The robot apparatus according to claim 1, further comprising a moving unit that moves while avoiding the obstacle detected based on the obstacle coordinate value map.
上記撮像手段の近傍に設けられ、上記障害物までの距離を測定する距離測定ステップと、
画像記憶手段に上記撮像ステップによって床面及び上記障害物としての壁面を含んだ視野範囲の領域を撮像された画像を記憶する画像記憶ステップと、
上記画像に対し所定の演算処理を施すことにより当該画像に表示される上記床面と上記壁面との境界であるエッジ線を強調した当該画像である水平エッジ画像を生成するエッジ画像生成ステップと、
上記水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の上記短冊ラインと上記エッジ線とが交差する複数のエッジ点を結んだ位置を、上記画像で表示された画像座標系における上記床面から上記壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識ステップと、
上記画像座標系における上記壁面障害物の存在位置を表す上記複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、上記床面を基準とした床面基準座標系における上記エッジ点床面基準座標値に座標変換するエッジ壁 面障害物座標変換ステップと、
上記距離測定ステップによって測定される上記壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離測定座標系における上記壁面障害物の上記存在位置として検出し、当該壁面障害物の上記存在位置を表す座標値に対し上記所定の計算式を用いることによって当該壁面障害物の上記存在位置を表す座標値を上記床面基準座標系における上記壁面障害物の上記存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換ステップと、
上記床面基準座標系に座標変換された上記壁面障害物の上記存在位置を表す上記エッジ点床面基準座標値と上記壁面障害物の上記存在位置を表す上記距離床面基準座標値とを重ね合わせることによって上記エッジ点によって上記壁面障害物を表す上記エッジ点床面基準座標値及び上記距離情報によって上記壁面障害物を表す上記距離床面基準座標値を1つの上記床面基準座標系に重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成ステップと
を具えるロボット装置の障害物マップ生成方法。An imaging step for imaging surrounding obstacles ;
A distance measuring step provided in the vicinity of the imaging means and measuring the distance to the obstacle;
An image storage step of storing an image obtained by imaging an area of the visual field range including the floor surface and the wall surface as the obstacle by the imaging step in the image storage means ;
An edge image generating step of generating a horizontal edge image is the image that emphasizes the edge line is a boundary between the floor surface and the wall surface that appears in the image by performing predetermined arithmetic processing on the image,
The position connecting the plurality of edge points to which the plurality of the strip line and the edge line intersect obtained by dividing the horizontal edge image with a plurality of longitudinally-drawn strip line, displayed by the image A wall obstacle recognition step for recognizing the wall surface as a wall obstacle in a position that changes from the floor surface to the wall surface in the image coordinate system
With respect to the coordinate values of the plurality of edge points representing the positions of the wall obstacles in the image coordinate system, the coordinate values of the plurality of edge points are referenced to the floor surface by using a predetermined calculation formula. an edge wall surface obstacle coordinate conversion step of coordinate transformation on the edge points floor reference coordinates in the floor surface the reference coordinate system,
Detecting the position obtained based on the distance information to the wall surface measured by the distance measuring step as the location of the wall obstruction in the distance measurement coordinate system corresponding to the measurement of the distance measuring means, the wall By using the predetermined calculation formula for the coordinate value representing the position of the obstacle, the coordinate value representing the position of the wall obstacle is represented as the position of the wall obstacle in the floor reference coordinate system. A distance wall obstacle coordinate conversion step for converting the distance to the floor floor reference coordinate value to represent,
The edge point floor surface reference coordinate value representing the presence position of the wall surface obstacle coordinate-converted to the floor surface reference coordinate system and the distance floor surface reference coordinate value representing the position of the wall surface obstacle are overlapped. The edge point floor surface reference coordinate value representing the wall surface obstacle by the edge point and the distance floor surface reference coordinate value representing the wall surface obstacle by the distance information are superimposed on one floor surface reference coordinate system . obstacle map generating method of Carlo bots device comprises a obstacle coordinates map generation step of generating an obstacle coordinates map to be displayed in.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12721699A JP4235858B2 (en) | 1999-05-07 | 1999-05-07 | Robot apparatus and obstacle map generation method for robot apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12721699A JP4235858B2 (en) | 1999-05-07 | 1999-05-07 | Robot apparatus and obstacle map generation method for robot apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000317868A JP2000317868A (en) | 2000-11-21 |
JP4235858B2 true JP4235858B2 (en) | 2009-03-11 |
Family
ID=14954612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12721699A Expired - Fee Related JP4235858B2 (en) | 1999-05-07 | 1999-05-07 | Robot apparatus and obstacle map generation method for robot apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4235858B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342759A (en) | 2001-01-30 | 2002-11-29 | Nec Corp | System and method for providing information and its program |
JP4779226B2 (en) * | 2001-04-25 | 2011-09-28 | ソニー株式会社 | ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM |
JP3758628B2 (en) * | 2002-09-25 | 2006-03-22 | 松下電工株式会社 | Autonomous mobile device |
JP4100239B2 (en) * | 2003-04-22 | 2008-06-11 | 松下電工株式会社 | Obstacle detection device and autonomous mobile robot using the same device, obstacle detection method, and obstacle detection program |
JP4227037B2 (en) * | 2004-02-25 | 2009-02-18 | 株式会社国際電気通信基礎技術研究所 | Imaging system and calibration method |
JP4844453B2 (en) * | 2007-04-09 | 2011-12-28 | 株式会社デンソーウェーブ | Robot teaching apparatus and teaching method |
CN110378854B (en) * | 2019-07-17 | 2021-10-26 | 上海商汤智能科技有限公司 | Robot image enhancement method and device |
CN114489078B (en) * | 2022-01-27 | 2024-07-12 | 珠海一微半导体股份有限公司 | Mobile robot obstacle avoidance method based on phase detection, chip and robot |
-
1999
- 1999-05-07 JP JP12721699A patent/JP4235858B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000317868A (en) | 2000-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108780586B (en) | Image processing method, display device and inspection system | |
JP6900575B2 (en) | How and system to generate detailed datasets of the environment through gameplay | |
JP7025532B2 (en) | Collision detection, estimation, and avoidance | |
JP2022062716A (en) | Cleaner control method and control system | |
JP2003285288A (en) | Charging system, charge control method, robot, charger, and charge control program and recording medium | |
JP4235858B2 (en) | Robot apparatus and obstacle map generation method for robot apparatus | |
JP7372708B2 (en) | Wide viewing angle stereo camera device and depth image processing method using the same | |
JP6020439B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
CN109164802A (en) | A kind of robot maze traveling method, device and robot | |
KR20220120908A (en) | Moving robot and control method of moving robot | |
CN112230652A (en) | Walking robot, method of controlling movement of walking robot, and computer storage medium | |
Grewal et al. | Autonomous wheelchair navigation in unmapped indoor environments | |
KR20210099780A (en) | Electronic apparatus and control method thereof | |
JP2009288917A (en) | Information processor, information processing method and program | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
JP6769859B2 (en) | Image processing device and image processing method | |
JP7342664B2 (en) | Robots, control methods, and programs | |
AU2020317303B2 (en) | Information processing device, data generation method, and program | |
JP2003346150A (en) | Floor surface recognition device, floor surface recognition method, and robot device | |
US20220016773A1 (en) | Control apparatus, control method, and program | |
JP7223865B2 (en) | Information processing device, information processing method and program | |
CN115552487A (en) | Human body lying posture detection method and mobile machine using same | |
JP4618470B2 (en) | Image processing apparatus and method, robot apparatus and control method therefor | |
JP7189620B2 (en) | An image processing device that corrects the distortion of a celestial image and a robot equipped with it | |
CN111971149A (en) | Recording medium, information processing apparatus, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081120 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081203 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121226 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |