JP7319824B2 - 移動体 - Google Patents

移動体 Download PDF

Info

Publication number
JP7319824B2
JP7319824B2 JP2019093241A JP2019093241A JP7319824B2 JP 7319824 B2 JP7319824 B2 JP 7319824B2 JP 2019093241 A JP2019093241 A JP 2019093241A JP 2019093241 A JP2019093241 A JP 2019093241A JP 7319824 B2 JP7319824 B2 JP 7319824B2
Authority
JP
Japan
Prior art keywords
line segment
image
moving body
line
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019093241A
Other languages
English (en)
Other versions
JP2020187664A (ja
Inventor
アレックス益男 金子
亮子 一野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019093241A priority Critical patent/JP7319824B2/ja
Priority to PCT/JP2020/008553 priority patent/WO2020230410A1/ja
Publication of JP2020187664A publication Critical patent/JP2020187664A/ja
Application granted granted Critical
Publication of JP7319824B2 publication Critical patent/JP7319824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体に関する。
ロボットや自動車などの移動体が、その周囲の情報を収集し、移動体の現在位置および走行状態を推定した結果に基づいて、自身の移動を制御する自律走行技術あるいは運転支援技術が開発されている。
例えば、特許文献1には、移動体の正確な現在位置を推定するために、ジャイロセンサとカメラを用いる自己位置推定方法が開示されている。特許文献1に開示の自己位置推定方法では、閉空間の画像から水平線分を抽出し、抽出された水平線分と、水平線分が抽出される閉空間の画像を撮像した際におけるカメラユニットの回動角に基づいて、ジャイロセンサの累積誤差を補正する。
特開2008-33837号公報
しかしながら、上記従来技術では、閉空間の画像から水平線分が抽出できない場合、ジャイロセンサの累積誤差を補正できず、自己位置推定を精度よく行うことができないという問題がある。
本発明は以上の点を考慮してなされたもので、自己位置推定を精度よく行うことを1つの目的とする。
かかる課題を解決するため本発明においては、1つの目的を達成する一手段として、移動面上を移動する移動体は、前記移動面よりも上方の前記移動体の周囲の画像を取得する撮像部と、前記撮像部により取得された画像から線分を検出する処理部と、前記処理部により検出された線分に基づいて前記移動体の移動を制御する制御部とを備えるようにした。
本発明によれば、例えば、自己位置推定を精度よく行うことができる。
実施形態1に係る位置推定装置の構成例を示す図。 センサ処理部が行う情報処理手順を示すフローチャート。 基準特定処理の詳細を説明するための図。 線特定処理の詳細を説明するための図。 位置推定処理の詳細を説明するための図。 実施形態1の処理例を説明するための図。 実施形態1の処理例を説明するための図。 実施形態2を説明するための図。 実施形態2を説明するための図。
以下、本発明の実施形態に係る移動体の位置推定装置について、図面を用いて説明する。
実施形態を説明するための各図面において、同一番号で同一または類似の構成または処理を示し、後出の説明を省略する。また、各実施形態および各変形例は、本発明の技術思想の範囲内および整合する範囲内でその一部または全部を組み合せることができる。
[実施形態1]
<実施形態1の位置推定装置の構成>
図1は、実施形態1に係る位置推定装置1の構成例を示す図である。位置推定装置1は、自動車またはロボットなどの移動体100に搭載されている。位置推定装置1は、信号受付部2と、1または複数のセンサ12(12a,12b,・・・,12n)と、情報処理装置13とを有する。
信号受付部2は、外部から受付けた信号に基づいて自己位置推定などを行う。信号受付部2は、例えば、世界座標で現在位置を推定するGPS(Global Positioning System)受信機である。なお、信号受付部2は、GPS受信機に限らず、より精度よく現在位置を推定するRTK-GPS受信機でもよい。また、信号受付部2は、準天頂衛星システムの受信機でもよい。また、信号受付部2は、既知の所定位置に設置されたビーコン発信機から発信されたビーコン信号を受信するビーコン受信機でもよい。
あるいは、信号受付部2は、車輪エンコーダやIMU(Inertial Measurement Unit)やジャイロなどのセンサから受信した情報に基づいて、相対座標で現在位置を推定してもよい。また、信号受付部2は、移動体100が移動する走行環境の車線、標識、交通状態、立体物の形状や大きさ、高さなどの情報を受信してもよい。すなわち、信号受付部2が受信する信号や情報は、移動体100の現在位置推定や、移動体100の移動制御、走行環境の認識などに用いることができるものであれば、何れでもよい。
センサ12は、例えばスチルカメラまたはビデオカメラである。また、センサ12は、単眼カメラまたは複眼カメラでもよい。また、センサ12は、レーザセンサでもよい。センサ12は、移動体100の周囲の画像を取得する撮像部の一例である。
情報処理装置13は、センサ12で取得された情報を処理して移動体100の現在位置または移動量を算出する。情報処理装置13は、算出された現在位置または移動量に応じた表示を行ってもよく、または移動体100の制御に関する信号を出力してもよい。
情報処理装置13は、例えば一般的なコンピュータであって、センサ12によって取得された情報を処理するセンサ処理部14と、センサ処理結果に基づく処理を行う制御部15と、メモリ16と、ディスプレイなどの表示部17と、これら構成要素を相互に接続するバス18とを有する。情報処理装置13は、CPUなどの処理装置であるセンサ処理部14および制御部15において所定のコンピュータプログラムを実行することにより、様々な処理を行う。
センサ12aは、例えば、移動体100の前方に設置されている。センサ12aのレンズは、例えば移動体100の前方に向けられている。センサ12aは、例えば、移動体100の前方の遠景情報を取得する。他のセンサ12b,・・・,12nは、センサ12aと異なる位置に設置され、センサ12aと異なる撮像方向または領域を撮像する。センサ12bは、例えば、移動体100の後方で下方に向けて設置されていてもよい。センサ12bは、移動体100後方の近景情報を取得するものでよい。なお、本実施形態で説明するセンサ12a,12b,・・・,12nの設置位置、撮像方向、および撮像距離は、一例を示すに過ぎない。
センサ12が単眼カメラの場合、路面が平らであれば、撮像した画像上のピクセル位置と実際の地上位置(x,y)との関係が一定になるため、センサ12から画像の特徴点までの距離を幾何学的に計算できる。センサ12がステレオカメラの場合、撮像した画像上の特徴点までの距離をより正確に計測できる。また、センサ12がレーザの場合、より遠方の情報をより正確に取得できる。
以下の説明では、単眼カメラやステレオカメラを採用した例について説明するが、移動体100の周囲の立体物までの距離を算出できれば、他のセンサ(例えば広角レンズを有するカメラ、TOF(Time Of Flight)カメラまたはレーザセンサなど)でもよい。
また、センサ12a,12b,・・・,12nが、ある時刻において撮像画像を取得する対象物は、それぞれ互いに異なるものでよい。例えば、センサ12aは、移動体100の前方の遠景情報を取得するものでよい。この場合、遠景から取得した情報は、立体物、または位置推定のためのランドマークなどの特徴が抽出されるようにしてもよい。センサ12bは、移動体100周辺の路面などの近景情報を取得するようにしてもよい。この場合、近景から取得した情報から、移動体100の周囲の白線、または路面ペイントなどが検出されるようにしてもよい。
また、センサ12a,12b,・・・,12nは、雨や日差しなどの環境外乱の影響を同時に受けないように移動体100に設置されてもよい。例えば、センサ12aは、移動体100の前方で前向きに設置されるのに対して、センサ12bは、移動体100の後方で後ろ向きまたは下向きに設置されてもよい。これにより、例えば、降雨時にセンサ12aのレンズに雨滴が付着した場合でも、進行方向の逆向きまたは下向きのセンサ12bのレンズには雨滴が付着しにくい。このため、センサ12aが取得した情報が雨滴の影響で不鮮明であっても、センサ12bが取得した情報は雨滴の影響を受けずに鮮明である場合がある。あるいは、日差しの影響でセンサ12aが取得した情報が不鮮明であっても、センサ12bが取得した情報は日差しの影響を受けずに鮮明である場合がある。
また、センサ12a,12b,・・・,12nは、互いに異なる取得条件(絞り値、ホワイトバランス、周期などのパラメータ)で情報を取得してもよい。移動体100に、例えば、明るい環境に適応するようにパラメータを調整したセンサ12と、暗い環境に適応するようにパラメータを調整したセンサ12とを搭載することで、環境の明暗によらず、何れかのセンサ12で移動体100の周囲を撮像可能とできる。
センサ12a,12b,・・・,12nは、制御部15から情報取得開始の指令を受けると、または一定の時間間隔で、移動体100の周辺情報を取得する。取得された情報のデータおよび取得時刻は、メモリ16に格納される。メモリ16は、情報処理装置13の主記憶装置(メインメモリ)およびストレージなどの補助記憶装置を含む。
センサ処理部14は、メモリ16に格納された情報のデータおよび取得時刻に基づいて、各種の情報処理を行う。この各種の情報処理では、例えば、中間情報が作成されてメモリ16に保存される。中間情報は、センサ処理部14による処理の他、制御部15などの判断や処理に利用されてもよい。センサ処理部14は、センサ12により取得された画像から線分を検出する処理部の一例である。
センサ処理部14は、センサ12により取得された情報を処理する。センサ処理部14は、例えば、移動体100の走行中にセンサ12が取得した情報を処理して、移動体100の走行環境中の線を抽出する。また、センサ処理部14は、例えば、移動体100の走行中にセンサ12が取得した情報を処理して、事前に定められたランドマークを認識する。
センサ処理部14は、例えば、移動体100の走行中にセンサ12が取得した情報を処理して、移動体100の現在方位および現在位置を推定する。例えば、センサ処理部14は、センサ12が時系列に取得した情報で移動体100の移動量を算出し、過去の位置に移動量を加算して現在位置を推定する。
また、センサ処理部14は、時系列に取得した情報から特徴を抽出してもよい。センサ処理部14は、さらに、次以降の情報から同一の特徴を抽出する。そして、センサ処理部14は、特徴のトラッキングにより移動体100の移動量を算出する。また、センサ処理部14は、SLAM(Simultaneous Localization And Mapping)やStructure from Motion技術を用いて、移動体100の走行環境の形状を算出する。
制御部15は、センサ処理部14の情報処理の結果に基づいて、移動体100に対して移動速度や移動方向に関する指令を出力してもよい。例えば、制御部15は、情報内の立体物の解像度や情報内の特徴のうちの外れ値の数または情報処理の種類等に応じて、移動体100の移動速度を増加、減少、または維持させる何れかの指令を出力してもよい。制御部15は、センサ12により取得された画像から検出された線分から特定した基準線分(後述の基準αref305,501で向きが特定される線分)に基づいてセンサ12により取得された画像から特定された移動体100の移動方向と平行な平行線分の延伸方向へ移動体100の移動を制御する制御部の一例である。
バス18は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
外部記憶装置19は、移動体100が走行する環境の情報を記憶している。外部記憶装置19が記憶する情報は、例えば、移動体100の走行環境にある静止物(木、建物、道路、車線、信号、標識、路面ペイント、路端など)の形状や位置である。
外部記憶装置19に記憶される、走行環境にある静止物の形状や位置の情報は、数式で表わされてもよい。例えば、線情報を複数の点で構成せず、直線の傾きと切片で表してもよい。
また、外部記憶装置19に記憶される、走行環境にある静止物の形状や位置の情報は、情報を区別せずに、点群で表してもよい。点群は、3次元(x,y,z)あるいは4次元(x,y,z,色)などで表してもよい。すなわち、移動体100の現在位置から走行環境を検出し、マップマッチングができる情報であれば、外部記憶装置19の情報は、いずれの形式であってもよい。
外部記憶装置19は、制御部15から取得開始の指令を受けると、記憶している情報をメモリ16に送信する。外部記憶装置19は、移動体100に搭載される場合には、バス18を介して情報を送受信する。一方、外部記憶装置19は、移動体100に搭載されない場合には、図示しない通信インターフェースを介して、LAN(Local Area Network)もしくはWAN(Wide Area Network)、または近距離無線通信等を経由して情報を送受信する。
図2は、センサ処理部14が行う情報処理手順を示すフローチャートである。
先ず、ステップS201では、センサ処理部14は、移動体100に搭載されているセンサ12a,12b,・・・,12nにより移動体100の周囲の環境が撮像されたそれぞれの画像から線分を検出する(線検出処理)。センサ処理部14は、例えば、Hough TransformやCanny Edge Detector技術を用いて線を検出する。
次に、ステップS202では、センサ処理部14は、ステップS201で検出された線の中から基準となる線分を特定する(基準特定処理)。ステップS202の基準特定処理の詳細は、後述する。
次に、ステップS203では、センサ処理部14は、ステップS202で特定された基準に基づいて、ステップS201での処理対象フレームの次フレームについて、線検出処理でセンサ12a,12b,・・・,12nで撮像したそれぞれの画像から抽出した線分の中から線分を特定する(線特定処理)。ステップS203の線特定処理の詳細は、後述する。
次に、ステップS204では、センサ処理部14は、ステップS203で特定した線に基づいて、位置推定を実施する(位置推定処理)。位置推定処理は、ステップS202の基準特定処理で特定された基準となる線分に対する、ステップS203の線特定処理で特定された線分の角度変化の推定と、移動体100の現在位置の推定とを含む。
そして、ステップS204では、センサ処理部14は、ステップS203で特定した線を、次の位置推定処理に用いる基準とする。以後、移動体100において位置推定を終了するまで、フレームごとにステップS203およびステップS204が繰り返される。ステップS204の位置推定処理の詳細は、後述する。
以下、基準特定処理(ステップS202)、線特定処理(ステップS203)、位置推定処理(ステップS204)の詳細を説明するが、簡単のため、移動体100の走行環境は、屋内もしくは室内であるとする。しかし、屋内に限らず、屋外、あるいは半屋内や半屋外でもよい。
また、以下の説明では、センサ12a,12b,・・・,12nの撮像方向を移動体100の上方とし、天井300を撮像するとする。しかし、センサ12a,12b,・・・,12nの撮像方向は、上方に限らず、移動体100の走行面に対する垂直面もしくは仮想的な垂直面へ向かう方向であってもよい。すなわち、センサ12a,12b,・・・,12nの撮像方向は、移動体100が移動する移動面よりも上方であってもよい。例えば、センサ12a,12b,・・・,12nの撮像方向が移動体100の移動面よりも上方である場合、屋内などの閉空間において移動面に自己位置推定を行うための情報が存在しない場合であっても移動体100の位置推定を行うことができる。
<基準特定処理の詳細>
図3は、基準特定処理(ステップS202)の詳細を説明するための図である。
画像301は、移動体100の走行開始位置でセンサ12a,12b,・・・,12nで撮像した画像のうちの1つであり、画像301の座標系を座標系(u,v)とする。
パターン302は、画像301に写った天井300のパターンである。パターン302は、例えば、模様や線などの二次元パターンである。なお、パターン302は、タイル、電球、看板、壁板、天井板、窓、ポスターなど、線を抽出可能な、屋内あるいは屋外に既存の立体物で構成されてもよい。また、パターン302は、複数種類の既存の立体物を組み合わせて構成されてもよい。例えば、パターン302が壁板および天井板で構成される場合には、床と壁の境界線、壁と壁の境界線(コーナー)、壁と天井の境界線が線分として検出される。
線303A,・・・,303Nは、線検出処理(ステップS201)で検出された線であり、座標系(u,v)に対して角度αの向きを有する。以下、「角度xの向き」を単に「向きx」と表記する。また、図3に示す線304A’,・・・,304N’は、同じく線検出処理で検出された線であり、座標系(u,v)に対して向きα’を有する。簡単のため、画像上で所定長以上の線を検出対象とする。
移動体100の走行環境は、計画的に作成された屋内環境であり、計画的にパターンが配置されていることを前提とする。従って、画像301に写る線の向きは全て一定である。線303A,・・・,303Nと線304A’,・・・,304N’とは、一定の角度θ=|α’-α|で向きが異なる。
よって、画像301から線検出処理(ステップS201)で検出した線の向きを多数決で算出すると、座標系(u,v)に対して向きαまたは向きα’が得られる。多数決とは、例えば、線検出処理(ステップS201)で検出された線の向きの平均、中央値、あるいは最頻値を算出することをいう。例えば、多数決で線304A’,・・・,304N’の向きα’が得られ、向きα’が基準αref305として特定される。なお、座標系(u,v)に対する向きが基準αref305で表される線分自体を「基準」と呼ぶこともできる。
センサ12a,12b,・・・,12nを上向きとし、かつ走行環境の天井300が平らである場合、天井300に配置されている水平線と垂直線は、画像301上でもそれぞれ水平線と垂直線になる。水平線と垂直線の定義については、後述する。しかし、センサ12a,12b,・・・,12nを上向きとしない、または天井が平らではない場合、線検出処理(ステップS201)で検出された線の実際の向きは、次のように算出できる。
すなわち、センサ12a,12b,・・・,12nがステレオカメラの場合、視差画像を用いて、画像301上の線検出処理(ステップS201)で検出された線をピクセルからメートルに変換することで、線の実際の向きを算出できる。
また、センサ12a,12b,・・・,12nが単眼カメラの場合、カメラの設置高さと角度が既知で固定値であるとし、画像301上の線検出処理(ステップS201)で検出された線を幾何学的にピクセルからメートルに変換することで、線の実際の向きを算出できる。または、SLAMまたはStructure from Motionを用いて、カメラの実際の移動量と検出した線の画像上での移動量に基づいて、線の実際の向きを算出する。
または、外部記憶装置19に走行環境の形状に関する情報を事前に登録しておき、その事前に登録した情報に基づいて線検出処理(ステップS201)で検出した線をピクセルからメートルに変換することで、線の実際の向きを算出してもよい。
なお、センサ12a,12b,・・・,12nの全てが同じ方向を向いているとしたが、それぞれのセンサが異なる方向を向いていてもよい。また、単眼やステレオや魚眼カメラなどを組み合わせてもよい。
<線特定処理の詳細>
図4は、線特定処理(ステップS203)の詳細を説明するための図である。
画像401は、図3の走行開始位置と異なる移動体100の現在位置でセンサ12a,12b,・・・,12nで撮像した画像のうちの1つである。画像401の座標系も座標系(u,v)である。
パターン402は、画像401に写った天井300のパターンである。線404A,・・・,404Nと線404A’,・・・,404N’は、線検出処理(ステップS201)で検出された線である。
線404A,・・・,404Nの座標系(u,v)に対する向きをβとし、線404A’,・・・,404N’の座標系(u,v)に対する向きをβ’405とする。線特定処理(ステップS203)では、基準特定処理(ステップS202)において多数決で得られた基準αref305から閾値α406以内の線の向きを特定する。図4の場合、α>|αref-β’|のため、向きβ’405を有する線404A’,・・・,404N’の全てが特定される。
なお、簡単のため、線404A’,・・・,404N’の向きを全てβ’405としたが、センサ12a,12b,・・・,12nのキャリブレーション状態やノイズの影響により、線404A’,・・・,404N’の向きが一定ではない場合がある。しかし、基準αref305との差が閾値α406より小さければ、同一の向きと見なすことで、向きβ’405と特定できる。
閾値α406は、例えば、移動体100の最大角速度とセンサ12a,12b,・・・,12nのフレームレートに基づいて設定される。例えば、センサ12a,12b,・・・,12nで連続して取得された2枚の画像での多数決で得られた線の向きの最大値を閾値α406として設定する。または、閾値α406を固定せず、フレームごとに閾値α406を更新して設定してもよい。例えば、時系列フィルターを用いて、過去に取得したフレームに基づく予測によって、今回取得したフレームの閾値α406を算出してもよい。
<位置推定処理の詳細>
図5は、位置推定処理(ステップS204)の詳細を説明するための図である。
基準αref501は、移動体100が現在位置に移動する前の位置で基準特定処理(ステップS202)により多数決で得られた線の向きである。向きα,α,・・・,α502は、現在位置での線特定処理(ステップS203)により特定されたそれぞれの線の向きである。向きα503は、多数決で向きα,α,・・・,α502から得られた向きである。
座標系(I,J)504は、移動体100が走行する環境に固定された座標系である。基準特定処理(ステップS202)において多数決で得られた基準αref501が、座標系(u,v)に対する向きがαであり、座標系(I,J)504に対する実際の向きがαである場合を考える。
この場合、向きα503が得られたとき、座標系(u,v)に対する向きα503がαG’となっても、座標系(I,J)504に対する向きはαで不変である。従って、現在位置で算出した座標系(u,v)に対する向きα503=αG’と、座標系(I,J)504に対する実際の向きαをもとに、座標系(I,J)504に対する移動体100の位置推定を行う。移動体100の現在位置を推定した後、次の位置推定のために、座標系(u,v)に対する向きα503を新たな基準αref501とする。
<実施形態1の処理例>
図6Aおよび図6Bは、実施形態1の処理例を説明するための図である。
図6Aに示す地図600は、移動体100が走行する環境の地図であり、座標系(I,J)におけるランドマーク601a,601b,・・・,601nの位置の情報を含む。地図600は、外部記憶装置19に事前に登録されている。
また、図6Aに示すパターン610は、移動体100の走行環境の天井300に設けられたパターンであり、例えば水平線と垂直線で構成される。なお、パターン610に含まれる、座標系(I,J)のI軸と平行な線を水平線といい、J軸と平行な線を垂直線という。
また、図6Bに示す、座標系(I,J)における位置602は、地図600における移動体100の走行開始位置である。
図6Bに示す画像602iは、位置602においてセンサ12a,12b,・・・,12nにより取得された画像である。既述の通り、移動体100が走行している環境は屋内であり、センサ12a,12b,・・・,12nの撮像方向は、移動体100の真上つまり天井300であるとする。
画像602iに示すように、位置602において、基準特定処理(ステップS202)により、線605と、座標系(u,v)に対する向きαref501が得られたとする。移動体100の走行環境は、計画的に作成された屋内環境であり、パターン610のような計画的な水平線と垂直線が多数配置されているとする。従って、位置602において基準特定処理(ステップS202)により多数決で得られた線605が水平線または垂直線である確率が高い。位置602における移動体100の進行方向がJ軸とほぼ同一とすると、位置602での線605の向きは、ほぼ0度(I軸と平行な水平線)となる。
そして、座標系(I,J)に対する線605の実際の向きを0度とした状態で、地図600内における相対的な自己位置推定を行う。よって、走行における移動体100の実際の方位は、線605をもとに基準αref501となる。
このように、移動体100の方位を精度よく推定できると、移動体100の移動量が容易に推定できる。例えば、画像602iにランドマーク601aが写っているため、画像602i上での位置と地図600上での位置を比較することにより、移動体100の移動量推定ができる。
次に、移動体100が位置603に移動したとする。図6Bに示す画像603iは、位置603においてセンサ12a,12b,・・・,12nにより取得された画像である。この時、線特定処理(ステップS203)により多数決で線606が得られ、移動体100の現在方位がα503となる。また、画像603iには、ランドマーク601aとランドマーク601bが写っているため、画像603i上での位置と地図600上での位置を比較することにより、移動体100の現在位置が推定できる。
次に、移動体100が位置604に移動したとする。図6Bに示す画像604iは、位置604においてセンサ12a,12b,・・・,12nにより取得された画像である。この時、線特定処理(ステップS203)により多数決で線607が得られ、移動体100の現在方位がαM’504となる。また、画像604iには、ランドマーク601cとランドマーク601dが写っているため、画像604i上での位置と地図600上での位置を比較することにより、移動体100の現在位置が推定できる。
このように本実施形態では、線特定処理(ステップS203)により少なくとも1本の線分が特定されることで、移動体100の移動方向と平行な線分の延伸方向へ移動体100の移動を制御することができる。
なお、本実施形態では、簡単のため、ランドマーク601a,601b,・・・,601nの画像上の位置と地図600の地図情報とのマッチングで移動体100の移動量を推定するとした。しかし、これに限らず、例えば、本実施形態の方位推定により事前に推定した方位を、センサの移動量と方位が推定可能な画像オドメトリに入力することで、移動量を算出してもよい。この際、本実施形態の方位推定により事前に推定した方位は、処理時間を短縮する制約条件として利用できる。また、本実施形態の方位推定により推定した方位と移動体100に搭載したエンコーダを用いて推定した移動量とを組み合わせて位置推定を行ってもよい。
また、本実施形態では、ランドマーク601a,601b,・・・,601nを用いて移動体100の移動量を算出するとしたが、これに限らず、ランドマーク601a,601b,・・・,601nを用いて移動体100の現在方位の推定を行ってもよい。また、ランドマーク601a,601b,・・・,601nを用いた移動体100の方位の推定結果と、本実施形態による方位推定結果とを併用することで位置推定の精度を向上させるようにしてもよい。
[実施形態2]
図7Aおよび図7Bは、実施形態2を説明するための図である。本実施形態では、実施形態1で説明した基準αref501を第1基準とし、第1基準とは異なる第2基準を採用して複数の基準を併用することで、方位推定のロバスト性を向上させる。
先ず、図7Aを参照して、第2基準を利用しない場合の課題を説明する。図7Aに示す地図700は、移動体100の走行環境の地図であり、図7Aに示すようなパターン701とパターン702の2種類のパターンを含んで構成されて天井300に設けられているとする。簡単のため、センサ12a,12b,・・・,12nが真上を向いているとする。
図7Aに示す画像703iは、移動体100の走行開始位置703においてセンサ12a,12b,・・・,12nにより取得された画像である。基準特定処理(ステップS202)により線706と座標(u,v)に対する向きαref501が得られたとする。
そして、図7Aの画像704iに示すように、移動体100が位置704に移動した後、センサ12a,12b,・・・,12nにより取得された画像において線特定処理(ステップS203)での多数決により、線707と座標(u,v)に対する向きα503が得られたとする。
しかし、図7Aの画像705iに示すように、移動体100が位置704から位置705へ移動すると、センサ12a,12b,・・・,12nにより取得された画像から水平線が全く検出されず、垂直線しか検出されない。従って、位置704で抽出された水平線である線707に対して位置705で抽出された垂直線の方向差が所定値以上の大きさとなり、線特定処理(ステップS203)が失敗するという問題がある。
次に、図7Bを参照して、第2基準を利用した場合を説明する。図7Bの画像703iは、移動体100の走行開始位置703(図7A参照)においてセンサ12a,12b,・・・,12nにより取得された画像であり、基準特定処理(ステップS202)での多数決により線706が得られたとする。ただし、線706の向きは、基準特定処理(ステップS202)で画像703iから抽出された線の向きの中で最も多い向きであり、2番目や3番目に多い線の向きもある。従って、画像703iにおいて例えば2番目に多い線の向きが線706’の向きであるとすると、線706’を第2基準αref501’とする。
次に、移動体100が位置704(図7A参照)に移動した後に取得された画像704iから線特定処理(ステップS203)の多数決により、第1基準の線706と第2基準αref501’に対して線707と線707’が特定されるので、線707と線707’をそれぞれ新たな第1基準と第2基準とする。
そして、移動体100が位置705(図7A参照)へ移動した後に取得された画像705iに対する線特定処理(ステップS203)において、第1基準の線707に対する線を特定できないが、第2基準の線707’に対する線708’を特定できる。そこで、線708’を用いて位置推定処理(ステップS204)で位置推定を行う。
また、画像705iからは、第1基準に対して線特定処理203で線を特定できないため、第1基準を更新できない。この場合、仮想の基準を算出する。例えば、移動体100が走行する環境は屋内環境で計画的に作成されているとすると、水平線と垂直線が多い。つまり、特定した線708’の向きに対して90度回転した線708が第1基準となる可能性が高いため、線708を仮想の第1基準とする。
そして、移動体100が次の位置に移動したとき、仮想の第1基準の線708と第2基準の線708’に基づいて、線特定処理(ステップS203)でそれぞれの基準に対して線を特定する。このように、第1基準と第2基準を用いて位置推定する場合、次の線特定処理(ステップS203)で線の特定が失敗する可能性が低くなり、位置推定のロバスト性を高め得る。
また、簡単のため、図7Aおよび図7Bに示したように、天井300に2種類のパターン701とパターン702が設けられている場合で説明した。しかし、これに限らず、単一のパターンが日差しや障害物で箇所により異なるパターンとして認識される場合があるという課題に対しても、第1基準と第2基準を用いることで、位置推定のロバスト性を高め得るという効果が期待できる。また、第1基準と第2基準の2つの基準を用いて説明したが、これに限らず、3つ以上の基準を用いて位置推定を行ってもよい。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換・統合・分散をすることが可能である。また実施形態で示した各処理は、処理効率または実装効率に基づいて適宜分散または統合してもよい。
1:位置推定装置、12,12a,12b,・・・,12n:センサ、13:情報処理装置、14:センサ処理部、15:制御部、100:移動体、300:天井、301,401,602i,603i,604i,703i,704i,705i:画像、601a,602b,・・・,601n:ランドマーク

Claims (3)

  1. 屋内または半屋内の走行環境の移動面上を移動する移動体であって、
    前記走行環境の天井には、前記走行環境に設定された環境座標系における第1座標軸に平行な複数の線分と該第1座標軸と直交する第2座標軸に平行な複数の線分とを含むパターンが計画的に設けられており、
    前記線分を含んだ前記天井の画像を取得する撮像部と、
    前記撮像部により取得された前記画像から前記線分を検出する処理部と、
    前記処理部により検出された前記線分から推定される前記移動体の現在方位を前記撮像部の移動量と方位が推定可能な画像オドメトリに入力して算出された前記移動体の移動量を、過去の前記移動体の現在位置の推定結果に加算して得られる前記移動体の現在位置の推定結果に基づいて前記移動体の移動を制御する制御部と
    を備え、
    前記処理部は、
    前記撮像部により取得された前記画像から検出された前記線分の該画像に設定された画像座標系における延伸方向の多数決から最も多い該延伸方向である第1方向と該第1方向の次に多い該延伸方向である第2方向のそれぞれの方向に延伸する複数の基準線分を特定し、
    次に前記撮像部により取得された前記画像から、前記複数の基準線分と閾値以下の角度をなす複数の線分を検出した場合には、該複数の線分で前記複数の基準線分をそれぞれ更新し、前記複数の基準線分のうちの一方の第1基準線分と前記閾値以下の角度をなす線分を検出できなかったときに、該画像から前記複数の基準線分のうちの他方の第2基準線分と前記閾値以下の角度をなす線分を検出した場合には、該検出した線分を90度回転させた線分で前記第1基準線分を更新すると共に、該検出した線分で前記第2基準線分を更新する
    ことを特徴とする移動体。
  2. 記天井には、ランドマークが設けられ、
    前記撮像部は、前記ランドマークを含んだ画像を取得し、
    前記処理部は、前記撮像部により取得された画像上の前記ランドマークの位置に基づいて前記移動体の現在位置を推定する
    ことを特徴とする請求項1に記載の移動体。
  3. 前記処理部は、前記撮像部により取得された画像上の前記ランドマークの位置に基づいて前記移動体の現在方位を推定する
    ことを特徴とする請求項2に記載の移動体。
JP2019093241A 2019-05-16 2019-05-16 移動体 Active JP7319824B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019093241A JP7319824B2 (ja) 2019-05-16 2019-05-16 移動体
PCT/JP2020/008553 WO2020230410A1 (ja) 2019-05-16 2020-02-28 移動体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093241A JP7319824B2 (ja) 2019-05-16 2019-05-16 移動体

Publications (2)

Publication Number Publication Date
JP2020187664A JP2020187664A (ja) 2020-11-19
JP7319824B2 true JP7319824B2 (ja) 2023-08-02

Family

ID=73221868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093241A Active JP7319824B2 (ja) 2019-05-16 2019-05-16 移動体

Country Status (2)

Country Link
JP (1) JP7319824B2 (ja)
WO (1) WO2020230410A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144504B2 (ja) * 2020-12-28 2022-09-29 本田技研工業株式会社 車両制御システム
JP2023091205A (ja) * 2021-12-20 2023-06-30 株式会社日立製作所 位置推定システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325708A (ja) 2001-04-18 2002-11-12 Samsung Kwangju Electronics Co Ltd ロボット掃除機とそのシステム及び制御方法
US20100001991A1 (en) 2008-07-07 2010-01-07 Samsung Electronics Co., Ltd. Apparatus and method of building map for mobile robot
WO2016163492A1 (ja) 2015-04-10 2016-10-13 日本電気株式会社 位置特定装置、位置特定方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
JPH04137015A (ja) * 1990-09-28 1992-05-12 Sumitomo Heavy Ind Ltd Itvを用いた自走式台車誘導装置
JPH064127A (ja) * 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
JPH10177414A (ja) * 1996-12-16 1998-06-30 Matsushita Electric Ind Co Ltd 天井画像による走行状態認識装置
JP4116116B2 (ja) * 1997-09-11 2008-07-09 富士重工業株式会社 移動体の測距原点認識装置
KR20110085500A (ko) * 2010-01-20 2011-07-27 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325708A (ja) 2001-04-18 2002-11-12 Samsung Kwangju Electronics Co Ltd ロボット掃除機とそのシステム及び制御方法
US20100001991A1 (en) 2008-07-07 2010-01-07 Samsung Electronics Co., Ltd. Apparatus and method of building map for mobile robot
WO2016163492A1 (ja) 2015-04-10 2016-10-13 日本電気株式会社 位置特定装置、位置特定方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋 和太郎 ほか,連続画像比較による事前マップ屋内位置推定の精度向上 Accuracy Improvement of Indoor Localization Using Pre-Map by Continuous Image Comparison,マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集 情報処理学会シンポジウムシリーズ Vol.2018 No.1 [CD-ROM] IPSJ Symposium Series,日本,一般社団法人情報処理学会,2018年07月04日,pp.1021-1026

Also Published As

Publication number Publication date
WO2020230410A1 (ja) 2020-11-19
JP2020187664A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
US11989028B2 (en) Mobile robot system and method for generating map data using straight lines extracted from visual images
JP7073315B2 (ja) 乗物、乗物測位システム、及び乗物測位方法
CN110068836B (zh) 一种智能驾驶电动清扫车的激光雷达路沿感知系统
JP7190261B2 (ja) 位置推定装置
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
CN114199240B (zh) 无gps信号下二维码、激光雷达与imu融合定位系统及方法
JP6129981B2 (ja) 移動体位置推定装置および移動体位置推定方法
CN102866706A (zh) 一种采用智能手机导航的清扫机器人及其导航清扫方法
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
US11132813B2 (en) Distance estimation apparatus and method
WO2014199452A1 (ja) 情報送信装置、天候状況取得システム、サーバ装置、情報送信方法及びプログラム
US11151729B2 (en) Mobile entity position estimation device and position estimation method
JP7319824B2 (ja) 移動体
KR20230014724A (ko) 차량 국부화 시스템 및 방법
TW202020734A (zh) 載具、載具定位系統及載具定位方法
JP6815935B2 (ja) 位置推定装置
JP7302966B2 (ja) 移動体
US20230332917A1 (en) Feature data generation system, feature database update system, and feature data generation method
CN113678082B (zh) 移动体、移动体的控制方法和程序
JP2023018510A (ja) 位置合わせ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230721

R150 Certificate of patent or registration of utility model

Ref document number: 7319824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150