JP2016517981A - 基準方向に対する移動要素の角度偏差を推定する方法 - Google Patents

基準方向に対する移動要素の角度偏差を推定する方法 Download PDF

Info

Publication number
JP2016517981A
JP2016517981A JP2016506953A JP2016506953A JP2016517981A JP 2016517981 A JP2016517981 A JP 2016517981A JP 2016506953 A JP2016506953 A JP 2016506953A JP 2016506953 A JP2016506953 A JP 2016506953A JP 2016517981 A JP2016517981 A JP 2016517981A
Authority
JP
Japan
Prior art keywords
interest
image
moving element
points
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016506953A
Other languages
English (en)
Other versions
JP6229041B2 (ja
Inventor
ビルベル,エミリー
デュリエス,フランク
ドゥ・ラ・フォルテル,アルノー
ストゥ,ブリュノ
ボナベル,シルベール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Robotics Europe SAS
Original Assignee
SoftBank Robotics Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Robotics Europe SAS filed Critical SoftBank Robotics Europe SAS
Publication of JP2016517981A publication Critical patent/JP2016517981A/ja
Application granted granted Critical
Publication of JP6229041B2 publication Critical patent/JP6229041B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

本発明の主題は基準方向に対する移動要素の角度偏差を推定する方法であり、本方法は、移動要素の基準方向を表す基準画像を取得する工程(101)と、移動要素の現在方向を表す現在画像を取得する工程(102)と、基準画像と現在画像内の関心点を識別する工程(103)と、少なくとも2対の関心点を判断する工程(104)であって、一対は現在画像内の関心点と基準画像内のそれに対応する関心点とからなる、工程と、先の工程で識別された少なくとも2対の点を使用することにより移動要素の現在方向と基準方向との角度偏差を判断する工程(105)とを含む。

Description

本発明は、基準方向に対する移動要素の角度偏差を推定する方法に関し、特にナビゲーションの分野へ適用され得る。
ロボットなどの移動要素のコースを推定するために、第1の技術は、そのオドメトリを使用すること、すなわちその運動の測定結果を使用することからなる。この目的のために、様々な搭載感知器からの測定結果が利用され得る。したがって、車輪付きロボットは車輪内に位置する回転エンコーダタイプのオドメータを使用することが可能である。この技術の欠点の1つは、この技術は時間とともに著しくドリフトする推定結果を生ずるということである。
今日存在する第2の技術は、ナビゲーション環境を表すマップに関連する方位を得るためにレーザテレメータまたは3Dカメラなどの計量センサを実装することからなる。この技術に依存する方法は頭文字SLAM(Simultaneous Localization And Mapping)により示され、この場合のマップはまた、ロボットのナビゲーション中に構成されその内容が充実される。この解決策はいくつかの欠点を有する。これは、これらのセンサをロボットのアーキテクチャ内に取り込むことが必要であるからである。これは、高実装コストを伴い、マップを生成しロボットの位置を判断するために大きな計算力を必要とする。
今日存在する第3の技術は6軸慣性ユニットの使用に基づく。この慣性ユニットは通常、3つのジャイロスコープと3つの加速度計から作られ、特にロボットのコースを与え得る。このようなユニットはまた、測定ドリフト現象の影響を受けやすい、またはそうでなければ非常に高価である。したがって、この技術は低実装コストでロボット内に実装するのに適さない。
したがって、ロボット設計者は実装コストを最小化する一方で精密なコース推定を得られるようにする利用可能技術を有しないように思える。
特に前述の欠点を補うことが本発明の目的である。
この目的を達成するために、本発明の主題は、基準方向に対する移動要素の角度偏差を推定する方法であり、本方法は、移動要素の基準方向を表す基準画像を取得する工程と、移動要素の現在方向を表す現在画像を取得する工程と、基準画像と現在画像内の関心点を識別する工程と、少なくとも2対の関心点を判断する工程であって、一対は現在画像内で識別された関心点と基準画像内のそれに対応する関心点とからなる、工程と、先の工程で識別された少なくとも2対の点を使用することにより移動要素の現在方向と基準方向との角度偏差を判断する工程と、を含む。
基準方向に対するロボットの角度偏差を推定する方法を使用することで、オドメトリの特徴である推定誤差を回避できるようにする。
本発明の一態様によると、関心点は2進ベクトルに対応する記述子に関連付けられ、上記対を判断する工程はこれらのベクトルを2つ一組で比較することにより実施され、一対の関心点は、2つの関心点の2つのベクトルが、他の関心点に関連付けられた他の候補ベクトルに対して最も近いと考えられる場合に識別される。
一例として、角度偏差は移動要素に対して固定された正規直交基準座標系の3つの軸X、Y、Zに沿って判断される。
一実施形態では、本方法は、角度偏差の推定の品質を確認する工程を含み、品質は、整合した関心点の対の数が所定閾値を越えると十分であると考えられる。
本発明の一態様によると、新しい基準画像は、品質が不十分であると考えられると取得される。
この品質管理は、移動要素が移動中に信頼できる角度偏差の推定値を保つことができるため、有利である。
一例として、基準画像のリフレッシュ速度は関心点の品質に応じて適応化され、前記品質は正しい関心点のレベルから推定され、基準画像はこのレベルが所定閾値未満になると直ちに更新される。
一例として、現在画像のリフレッシュ速度は、現在画像内で識別された関心点間の推定平均距離に応じて適応化され、リフレッシュ速度は関心点が互いに近づくと増加される。
一例として、基準方向は移動要素が移動するために追随する必要がある標的コースに対応し、移動要素の移動を制御するためのコマンドが、本方法により推定される角度偏差を最小化するように判断され適用される。
一例として、基準画像は、所定最少数の関心点が整合し得るように現在画像を取得する責任を負うセンサの視野内に基準画像が少なくとも部分的に留まるように、選択される。
一実施形態では、当初推定角度偏差は、移動要素が移動するために追随する必要がある標的コースに対してαラジアンである。このとき、基準方向は−α/2ラジアンの角度偏差が加えられた標的コースに対応し、移動要素の移動を制御するためのコマンドは、推定角度偏差がその後+α/2ラジアンに可能な限り近くなるように判断され適用される。
本発明の一態様によると、基準画像は、移動要素に搭載されショット時に基準方向に向けられる画像センサにより取得される。
本発明の主題はまた、ナビゲーション空間に対して固定された基準点における移動要素の角度位置を推定する方法であり、本方法は、ナビゲーション空間をカバーする複数の画像からなるパノラマを取得する工程であって、パノラマの1つの画像は移動要素から離れる方向を表す、工程と、オドメトリにより移動物体の角度位置を推定する工程と、パノラマの画像から基準画像を選択する工程であって、前記画像は先の工程において推定された角度位置に対応する、工程と、移動要素の角度位置の推定を精緻化する工程であって、前記角度位置は角度偏差を推定する方法の適用により推定された角度ドリフトから導出される、工程と、を含む。
一例として、移動要素はロボットである。このロボットはヒューマノイド型であり得る。
または、移動要素は自動車であり得る。
本発明の主題はまた、上記方法を実施するように適応化された手段を含むヒューマノイドロボットである。
本発明の主題はまた、プログラムがデータ処理モジュールにより実行されると上記方法を実行するための命令を有するコンピュータプログラムである。
本発明の他の特徴と利点は、一例として、そして限定を暗示すること無しに提供され、添付図面に関して書かれた以下に続く明細書を用いて明らかになる。
基準方向に対する角度偏差を推定する方法の工程を概略的に示し、前記基準方向は基準画像(本明細書の残りの部分ではそのように呼ばれる)と関連付けられる。 角度ドリフトを推定する方法を使用した、ロボットの軌道の制御の技術的例を示す。 関心点が検知された画像の例を示す。 一対の整合点を示し、角度偏差が2つの画像から判断され得るやり方を示す。 RANSACなどのコヒーレント対を識別するための技術を適用することにより取得され得る結果の例を示す。 移動要素の絶対角度位置を推定する方法の簡略図を示す。 絶対角度位置を推定する方法の学習段階を概略的に示す。 パノラマ内の基準画像を選択するやり方と、どのようにロボットの絶対角度位置が推定され得るかとを示す。 絶対角度位置の推定結果を使用してロボットの回転運動を制御するやり方を示す。 ヒューマノイドロボットを示す。
本明細書では、本発明は、ロボット上、より具体的にはヒューマノイドロボット上の実施形態の例を使用して説明される。しかし、本発明は任意の移動要素に適用され得る。具体的には、本発明は任意のタイプの車両、ボート、または航空機に適用され得る。
本発明の主題は特に、基準方向に対するロボットの角度偏差を推定する方法である。この相対的角度偏差は基準方向と推定時のロボットの配向との角度として定義される。推定時のロボットの配向は現在方向とも呼ばれる。一例として、この角度の値は基準方向から時計回りで判断される。
有利には、ロボットの相対的角度偏差の推定結果は、ロボットの動きを精密に制御するために、特に、所与の角度で固定点を中心として回転を行うためにまたは所与の方向に直線で移動するために、使用され得る。さらに、本方法はロボットの絶対位置の推定を可能にする。
図1は、基準方向に対するロボットの配向の角度偏差を推定する方法の工程を概略的に示す。前記基準方向は本明細書の残りの部分では基準画像と呼ばれる画像と関連付けられる。
最初に、達成すべきコース(標的コースと呼ばれる)値が判断される100。一例として、この標的コース値は、角度偏差が2次元座標系で推定される場合は角度に対応し、またはそうでなければ角度偏差が3次元座標系で推定される場合は一例として緯度と経度とに対応する一組の2つの角度に対応する。一実施形態では、そしてヒューマノイドロボットの場合、標的コースはロボットの配向として選択され得、前記配向は、一例としてロボットの胸に対し垂直であるベクトルであってその中心を通り前方に向けられるベクトルに対応する。
次に、基準画像が取得される101。基準画像はロボットに搭載された画像センサを使用して取得され得る。この基準画像は基準方向を表し、基準方向に対するロボットの相対的角度偏差が本方法により推定される。好適な実施形態では、基準画像は、画像センサが基準方向に配置される場合に取得される画像である。
現在画像は現時点と呼ばれる所与の時点に当然取得される102。一例として、この現在画像はロボットに搭載された画像センサから現時点で取得される画像に対応する。ヒューマノイドロボットの場合、この画像センサは頭上に位置し得、前記頭はロボットのボディに固定することができる、またはボディに対して動く。
次に、一組の関心点が基準画像内および現在画像内において識別される103。
この目的のために、関心点を検知する方法が使用される。このような方法は明細書の残りの部分では用語「検知器」により示される。さらに、画像内の点は、様々なショットから生じる複数の画像内で識別され得るようにする特徴を有する場合、関心点と呼ばれる。実際には、関心点は、中心画素とスケールとにより識別されるいくつかの画素の領域に対応する。一例として、関心点は、高レベルのコントラストを有するとともに食器棚角に対応する2〜3の画素の領域に対応し得る。
関心点が検知器により識別されると、記述子がそれと関連付けられ得る。記述子は、2進形式で通常表される関心点の識別子である。記述子は、特に、識別された関心点が画像から画像へと比較され得るようにする。一例として、記述子は2進ベクトルに対応する。
基準画像の記述子は基準指標と呼ばれる指標にグループ化され得る103。
基準画像に関し、関心点はこの現在画像の検知器により識別され、記述子はこれらの点のそれぞれと関連付けられる。
関心点が識別され特徴付けられると103、関心点の整合工程104が実施される。この工程104は、現在画像内の識別された関心点毎に、基準画像内のそれに対応する少なくとも1つの関心点の探索を実施する。この目的のために、現在画像内の関心点の記述子は基準指標に格納された記述子と比較され得る。
この比較をするために、例えば頭文字KDTreeにより示される技術など様々な技術が利用され得る。KDTree技術は、所与のベクトルと予め計算された指標との迅速な比較を可能にする。この場合、現在画像内の識別された関心点毎に、2つの最も近い近傍が選択される。現在画像内の関心点に関しては、最も近い近傍は、それらの記述子と現在画像内の関心点の記述子との差が最小化される基準画像内の関心点である。次に、最も近い近傍までの距離が第2の近傍までの距離より著しく短ければ、最も近い近傍は現在画像内の関心点に整合されたと考えられる。この方法は、誤った一対の点のいくつかが削除され得るようにする。これは、現在画像内の2つの異なる関心点が近い記述子を有すれば、それと比較される基準画像内の関心点が近い距離を有するためである。したがって、この技術は、識別された整合の数を低減できるようにするだけでなく、現在画像内の余りにも多くの関心点がまずく整合されるのを防止できるようにする。
次に、工程105は基準方向に対する角度偏差を推定する目的を有する。この目的のために、先の工程において識別された関心点の対が解析される。2対の関心点の比較の例は、本明細書の後で提供される。
一実施形態では、角度偏差は、ロボットに対して固定された正規直交基準座標系の3つの軸X、Y、Zに沿って判断される。この目的のために、2対の点が使用され得る。計算を行うために、関心点はロボットから無限遠点に位置するということを想定する。
同様に、ロボットがその場で回転するということが想定され得る。これは、Z軸を中心とする回転は左から右への点の運動、Y軸を中心とする回転は最上部から最下部への運動(単一点により見ることができる)、X軸を中心とする回転は画像の中心を中心とする回転(計算を行うために2点を必要とする)となるからである。
角度偏差が推定されると、推定の品質が十分であることを保証するために照査が行われる107。一実施形態では、品質は、整合した関心点の対の数が所定閾値を越えると十分であると考えられる。そうでなければ、推定の品質は不十分であると考えられ、推定を続けるために新しい基準画像が取得される120。そうであれば、品質は十分であると考えられ、時間の経過に伴う角度偏差の進展に追随するように新しい現在画像が取得される121。
現在画像121のリフレッシュ速度に関しては、これはナビゲーション環境とロボットの速度とに応じて選択される必要がある。現在画像のリフレッシュ速度は、関心点間の推定平均距離に応じて適応化され得る。関心点が互いに近ければ近いほどリフレッシュ速度は高くなる。したがって、ロボットが壁に向かって動くと、リフレッシュ速度は増加される。
本発明の基本的利点の1つは、偏差の計算が、基準方向を表す単一像を必要とするということである。
一実施形態では、基準画像はリフレッシュにより更新され得る。この場合、基準画像のリフレッシュ速度は動作の過程で適応化され得、先験的には固定されていない。リフレッシュ速度は、基準の視点の品質に応じて更新され得、最低品質を維持するために自動的に適応化され得る。
基準画像のリフレッシュが開始され得るようにする判定基準の例は、整合の品質を推定することと、必要に応じて(すなわち、品質が劣化する前に)だけ基準画像を更新することである。この品質は、RANSACアルゴリズムにより行われた計算後に取得される正しい点のレベルから推定され得る。このレベルが余りにも低い(すなわち、先験的に固定された閾値未満である)と直ちに、新しい画像が撮影される。したがって基準画像はリフレッシュされる。閾値は、基準画像を決して失わないように先の画像が依然として有効となるように、選択され得る。
したがって、環境によるが、単一基準画像は、例えば回転の場合に移動要素が従う軌道の全体にとって十分である。したがって、基準周波数は固定されず、これは、基準画像が、整合の品質が低下する場合だけを除いて定期的には更新されないためである。
さらに、基準方向の画像の撮影は、基準点の柔軟性のおかげで、ロボットがロボットの未知方向に制御され得るようにする。ロボットが未知領域へ進み、基準が陳腐化すると、基準画像の自動リフレッシュは、新しい環境により良く適する画像が再撮影され得るようにする。
図2は、角度ドリフトを推定する方法を使用する、ロボットの軌道の制御の技術的例を示す。
最初に、図1を参照して上に説明したように基準方向に対する角度偏差の推定が行われる200。
このとき、目的は、ロボットの軌道を制御するように標的(工程100)に対する角度偏差の推定結果を使用することである(工程107)。
したがって、標的コースと推定角度偏差との差201が判断される。一例として、差201は、ロボットの軌道を制御するためのコマンドとして使用され得る角度αに対応する。
この差が零であれば、これは標的コースに到達した202ことを意味する。この差が零でなければ、ロボットの軌道は標的コースが観測されるように補正される必要がある203。差は201であり、次に、標的コースに到達したかどうかを照査するように再び判断される。
ロボットがその場で(すなわち、それを通る垂直軸を中心として)回転すれば、サーボ制御が以下のように与えられ得る。最初に、ロボットは、ロボットの前方を見る場合は頭の位置に対しα/2に等しい角度だけその頭を回転させる。次に、新しい基準画像が取得される。この新しい基準画像は、最大の関心点がその場の回転の制御中に正しく整合され得るということを保証できるようにする。したがってロボットは、この新しい基準画像に関連付けられた新しい基準方向に対して−α/2に等しい角度偏差で出発する。次に、ロボットはα/2に等しいこの新しい基準方向に対する角度偏差に到達するように指令され得る。この目的のためには、適応化速度回転指令を使用することによりロボットを制御し、この偏差値に到達するとロボットを停止することで十分である。
一般的に、ロボットが動いている場合に基準画像をロボットの視野内に維持するために、推定角度偏差は、最少数の関心点が整合され得るように頭の運動を制御して基準画像を取得するために使用され得る。
ロボットが直線で移動する場合、目的は標的コースに対する零角度偏差を維持することである。この目的のために、ロボットは基準画像を取得するように標的コースに対応する方向にその頭を回転させる。次に、ロボットの運動は、零角度偏差を維持するように並進および/または回転速度コマンドを使用することにより制御される。
ロボットのボディが動いている間頭の位置を標的コースの方向に維持することが可能である。これは、ロボットのボディに対するロボットの頭の位置が既知であるため、ロボットのコースは直接導出され得るからである。
基準画像内に識別された関心点のすべてが、現在画像を提供するセンサにとって可視のままでなくても、本方法はうまく機能するため有利である。これは、2つの正しく整合された対は角度偏差を推定するために理論的には十分であるからである。但し、正しい対の数が多ければ多いほど角度偏差の推定はより良くなる。
さらに、直線運動の場合、ロボットのオドメトリが、カバーされる距離を推定するためにおよびいつロボットが停止する必要があるかを判断するために使用され得る。これは、現実には関心点が無限大に位置しないため、位置推定結果を使用するより信頼できるからである。ロボットが関心点に近づけば近づくほど関心点間の距離は一層拡大するが、これはモデルにより考慮されていない。この影響を補償するために、モデルの品質は時間の経過と伴に監視され106、品質が著しく低下すると直ちに、基準画像は更新され、無限遠における点の仮定が再検証され得るようにする。
基準方向に対するロボットの角度偏差を推定する方法を使用することで、オドメトリの特徴である推定誤差を回避できるようにする。推定角度偏差に応じて判断された速度指令だけが使用され得るために有利である。
基準方向はその場の回転および回転の場合の頭に使用されるように思える。ロボットのボディはまた、並進の場合の頭と同じであるが回転の場合とは異なる標的方向に追随しなければならい。
ヒューマノイドロボットが並進を行う場合、基準方向と頭の配向は同じであり得る。このとき、頭とロボットのボディはこの方向に追随するためにサーボ制御される。
回転の場合そしてαが行われるべき回転の角度に対応すれば、頭の基準方向は出発位置に対してα/2であり、一方、ボディの基準方向は出発位置に対してαである。回転中、頭は、180°までの回転中同じ画像を維持するためにその基準方向に維持され、ボディは自身を方向αと位置合わせするためにサーボ制御される。したがって、頭に対して、ボディは出発時は−α/2方向であり、到着するとα/2方向である。
図3は、関心点が検知された画像の例を示す。この例では、高コントラストの領域と対象物の角部とに敏感な記述子が使用された。
本発明による方法という文脈内では、検知器は、同じ関心点が画像毎に発見されるように選択さなければならない。したがって、検知器は、特にロボットの運動から生じる修正にもかかわらず頑強でなければならない。修正の例は、ロボットが動いているとき(例えば、ロボットが基準画像の方向に移動するとき)のショット毎のスケールファクタの適用に対応する。ロボットが動いているときに撮影されたショットから生じるぼやけた影響もまた導入され得る。明度の変化も同様に、2つのショット間で発生し得る。これは、ロボットが十分明るい領域からあまり明るくない領域へ移動するときに起こり得る。
好適な実施形態では、画像ピラミッド上のFAST(Features from Accelerated Segment Test)検知器が使用される。有利には、この検知器は、本発明による方法という文脈内でその使用に適した特性を有する。第1の特性は、関心点の抽出が極めて迅速であるということである。したがって低コスト計算プラットフォーム上で数ミリ秒内に数百の点を抽出することが可能である。多数の関心点の抽出により、点の妨害が発生した場合の本方法の頑強性を改善する。FAST検知器の別の特性は、ぼやけたショットが発生した場合および明度の変化が発生した場合に頑強であるということである。これは、角度ドリフトを推定する方法が運動中に使用される場合に特に役立つ。
FAST検知器は、単独で使用されると、スケール変更にもかかわらず頑強ではないということに注意すべきである。この問題は画像ピラミッドの構造(すなわち、画像の多解像度表現(multiresolution representation of the image))により解決される。
ハリス検知器、SURF(Speeded Up Robust Features)検知器、SIFT(スケール不変特徴変換:Scale Invariant Feature Transform)検知器などの従来技術からの他の検知器を使用することも同様に可能である。
検知器により識別される特異点毎に、記述子が判断される。本推定方法を実施するために選択される記述子のタイプは、2つの画像上に識別された点同士の実質的整合を可能にしなければならない。整合は、2つの比較対象画像上と、一対が同一のナビゲーション環境内で取得された2つの異なる画像内の2つの同一点に対応する、識別対象対の対上とで識別された関心点の記述子を可能にする場合有効であると考えられる。
好適な実施形態では、記述子はORB(Oriented Fast and Rotated BRIEF)記述子である。この記述子は、検知器により定義された領域内の256対の画素を比較し、256ビットのベクトルをそれから導出することにより生成される。有利には、ORB記述子の判断は、後者が単純な画素比較により判断されるため、計算が速い。さらに、2つの記述子を比較することが非常に速い。これは記述子が2進ベクトルに対応するからである。このとき、例えばハミング距離などの単純なツールを使用することによりそれを2つ一組で比較することが可能である。ORB記述子の別の利点は、ぼやけた画像に適用されるおよび/または明度の変化の存在下で適用される場合に頑強であるということである。
しかし、相対的角度偏差を推定する方法はORB記述子の使用に限定されない。SIFTとSURF記述子などの他の記述子が使用され得る。
図4は、一対の整合点と、角度偏差が2つの画像から判断され得るやり方とを示す。
この例では、2つの画像400、401が概略的に示される。第1の画像400は、2つの関心点402、403を含む基準画像である。第2の画像401は、2つの関心点405、406を同様に含む現在画像である。これらの異なる関心点は整合した(工程104)。したがって、第1の対は点402と405からなり、第2の対は点403と406からなる。
角度偏差(工程105)は以下のように判断され得る。この目的は、第1に、2対の点間の画素差の測定結果から角度差を取得することである。2対の点が正しく整合したことと、2つのショット間のロボットの運動がもっぱら回転から生じるということ(すなわち、実際の運動が純粋な回転であるかそうでなければ点が無限遠に位置する)を仮定する。
X軸に沿った回転はwで示され、次式を使用することによりラジアンで表現され得る。
Figure 2016517981
ここで、zとz’は、基準画像400内と現在画像401内のそれぞれに位置する第1の対の関心点402、405の座標に対応する複素数であり、zとz’は、基準画像400内と現在画像401内のそれぞれに位置する第2の対の関心点403、406の座標に対応する複素数であり、arg()は複素数の引数を判断する関数を表す。
次に、量oは次式を使用して判断される。
Figure 2016517981
画像の中心はCで示される。dは、実数部がX軸に沿った偏差に対応し虚数部がY軸に沿った偏差に対応する複素数である。したがって、dは以下のように表現され得る:
Figure 2016517981
カメラの水平方向開口角はoで示され、垂直開口角はoで示される。iは画像の幅を、iは画素内の高さを示す。X、Y、Z軸に沿った回転wとwzは次式を使用して判断され得る。
Figure 2016517981
しかし、上の仮定は実際には検証されない可能性がある。これは、いくつかの対の点はそうであってはならない場合、整合され得るからである。これらの悪い整合は、例えば視差現象を受けて基準画像内で不可視であった新しい点の出現に起因し得る。これらの悪い整合はまた、使用される記述子の不完全な精度または関心点の位置に関する不正確さの結果であり得る。これらの悪い整合はまた、ロボットに対し余りに近くに位置する対象物に起因し得、このためショットからショットへの移動が複雑なやり方で表される。移動している対象物も同様に、悪い整合を引き起こし得る。
本明細書では、基準画像内の関心点と、それに整合しているが現実には別の点に対応する現在画像内の関心点とからなる一組は本明細書の残りの部分では表現「インコヒーレント対」で示される。対照的に、対は、関心点が正しく整合した場合コヒーレントと呼ばれる。
工程106において識別された点の対の組からコヒーレント対を抽出するために、以下の技術が使用され得る。一組の識別された対が少なくとも1つのコヒーレント対を含むことと、コヒーレント対は、それらの1つに基づいて計算されたモデルが他のコヒーレント対すべての良い結果を提供し、インコヒーレント対に悪い結果を提供するようにすることとを考慮する。対照的に、インコヒーレント対に基づき計算されたモデルは、無作為に対応する非常に少ない対の点だけの良い結果を提供することになる。この原理は、特にRANSAC(RANdom Sample Consensus)アルゴリズムにより実施される。この原理は、一組のデータ点の中から発見される最大の点の良い結果を提供するモデルを可能にする。本発明による方法という文脈内では、モデルは、特に上に与えられた式により実施され得る。次に、結果の認定は、基準画像内の関心点からおよび現在画像内の整合点からモデルにより予測される点間の距離の判断に依存する。
RANSAC技術の使用は、処理動作が最少数の点(例えば、2対の点)に対して行われるため、少ない計算資源を必要とすることから有利である。
図5は、RANSACなどのコヒーレント対を識別するための技術を適用することにより得られ得る結果の例を示す。
コヒーレント対500〜508とインコヒーレント対509〜513だけでなく基準画像530と現在画像520も示される。ロボットは2つの画像間を進んだ。インコヒーレント対は悪い整合に対応し、コヒーレント対は左から右への全体偏差を示すように見える。
図6は、移動要素の絶対角度位置を推定する方法の簡略図を示す。
以下に述べられる方法の目的はロボットの絶対角度位置を推定することである。上記推定方法とは対照的に、この方法は、ロボットの配向を、所与の基準画像に関連付けられた標的コースにもはや関係するのではなくむしろナビゲーション空間(すなわち、ロボットの運動空間)における絶対的やり方で判断できるようにする。この方法も同様に、特にロボットがその場で回転する場合にロボットが絶対角度位置に到達するようにロボットの運動を制御できるようにする。
絶対角度位置を推定する方法は、学習段階600と、複数の候補画像から基準画像を選択する段階601と、角度位置を推定する段階602とを含む。
好適な実施形態では、角度位置の推定の段階602は、上述のように相対的角度偏差を推定する方法の工程を再開する。
図7は、絶対角度位置を推定する方法の学習段階を概略的に示す。
学習段階は第1に、ナビゲーション空間を表す基準画像700を捕捉することからなる。
一例として、搭載画像センサはロボットを中心として360ラジアンの(すなわち、水平面内の)回転運動を行うように制御され得る。
この学習段階中に撮影された一組の画像は本明細書の残りの部分ではパノラマと呼ばれる。
一例として、広角またはパノラマ画像センサがこの目的のために使用され得る。しかし、このタイプのセンサは特別のレンズを必要とし、これらは画像を変形するということに注意すべきである。さらに、このタイプのセンサはロボット自体により妨害されないようにロボットの最上部に配置される必要がある。
これらの制限を克服するために、上記センサのショット角度より制限されたショット角度を有する画像センサを使用することが可能である。
ヒューマノイドロボットの場合、画像センサは、360ラジアン回転することができるようにされたロボットの頭内に組み込まれ得る。パノラマを構成する画像は、ロボットの頭を回転させるロボットの能力から恩恵を受けることにより、そして例えば相対的角度偏差を推定する方法を適用することにより頭の回転を制御することにより、必要な視野全体にわたって取得されることになる。
または、頭の動きはその場で回転するロボットにより置換され得る。これは、特にロボットの頭が360ラジアン回転し得ない場合に役立ち得る。
基準画像は、2つで部分的に重なるように取得される。一例として、パノラマ内の2つの隣接基準画像が半分ずつ重畳し得る。換言すれば、これらの2つの画像はこの場合、1つの半画像を共有する。この特徴は、所与の基準画像が場合によっては1つまたは複数の関心点および/または1つまたは複数の他の基準画像を共有することを意味する。重畳領域が大きければ大きいほど推定はより信頼できるようになるために有利である。
パノラマの基準画像毎に、それらに関連付けられたデータが抽出および/または格納され得る701。一例として、これらのデータは、関心点と、その記述子と、ロボットの初期位置に対する基準画像の角度位置とに対応する。ロボットの初期角度位置は、実際には基準として役立ち得る。パノラマを構成する基準画像は、車両内部にあるメモリ内に格納され得る。
次に、パノラマを構成する基準画像が互いに比較される702。この目的のために、パノラマの様々な画像から抽出された関心点同士が上述のように整合される。一例として、これらの比較の結果は混同行列と呼ばれる行列内に格納され得る。この行列は、そのボックスのそれぞれが、比較されたパノラマの2つの画像の整合点の数に等しい整数を含むように適応化される。次に、パノラマの画像間での類似度のレベルを照査することが可能である。
非揮発性メモリ内へパノラマの画像を記録することにより、例えばRAMタイプのランダムアクセスメモリを解放できるようにする。高速アクセスに関しては、関心点の記述子だけはランダムアクセスメモリ内に維持され得る。さらに、非揮発性メモリ内へパノラマの画像を格納することにより、ロボットが再開された後でも所与のパノラマを恒久的に維持できるようにする。
図8は、パノラマ内の基準画像を選択するやり方と、どのようにしてロボットの絶対角度位置が推定されるかとを示す。
学習段階後、ロボットの絶対角度位置は現在画像からおよびロボットのオドメトリから推定され得る。
最初に、現在画像が取得される800。
次に、ロボットの現在の角度位置は先の角度位置の推定とオドメトリによる移動の測定とから推定される(工程801)。この推定は、必ずしも精密ではないが、ロボットの絶対位置の有り得る最も精密な推定を可能にする最良の基準画像の探索の開始を可能にする。
推定角度位置801に最も近いと考えられる角度位置に関連付けられたパノラマの画像が候補基準画像として選択され、その関心点は現在画像内の関心点と整合される(工程802)。
次に、工程802において識別された対の数と先の反復において得られた対の数と(すなわち、必要に応じ既に選択された別の候補基準画像と)を比較する機能を有する試験804が適用される。
工程802において識別された対の数が所定値P以下の百分率に対応すれば、この整合に使用される基準画像の近傍であるパノラマ内の基準画像が候補基準画像として当然選択される805。一例として、P=30%。この新しい候補基準画像は、本方法により当初選択されたパノラマの画像から反復毎にますます遠ざかるように、パノラマ内で選択される。次に、工程802が再び適用される。
試験804の結果が所定値Pより高い百分率に対応する対の数を与えれば、候補基準画像は満足と考えられ、画像Iと呼ばれる。
満足であると判断された候補基準画像Iが発見されると、現在画像はパノラマ内のIの左に位置する画像Iと比較される806。
整合した関心点の数が画像Iのものより大きければ807、新しい候補画像は画像Iである(すなわちI=I)808。
整合した関心点の数が画像Iより画像Iで低ければ、現在画像はパノラマ内のIの右に位置する画像Iと比較される809。
整合した関心点の数が基準画像Iのものより大きければ10、新しい候補画像は画像Iである(すなわちI=I)811。
基準画像Iが選択されると、絶対角度位置は、入力として現在画像とパノラマ内で選択された基準画像Iとを取ることにより上記相対的角度偏差を推定する方法を使用することにより判断される812。この方法は、初期角度位置に対する角度差を推定する。したがって、絶対位置は、初期角度位置が基準画像Iに関連付けられ、ナビゲーション環境に対して固定された基準点で表現され得るため、明確に判断され得る。角度差は、ロボットの絶対位置が初期角度位置から導出され得るようにする。
図9は、絶対角度位置の推定を使用するロボットの回転運動を制御するやり方を示す。
この目的のために、絶対位置の推定900は上述(図8)のように行われる。
次に、ロボットの移動の制御を可能にするパラメータが、既に選択された目的地に到達するために通常のやり方で判断される901。
移動を行うために取られるべきコースに関連付けられたパノラマのその画像が選択される902。
搭載画像センサは、現在画像を取得するように上述のコースの方向に向けられる903。センサがヒューマノイドロボットの動く頭の上に取り付けられれば、この運動をするのは頭である。
現在画像内の点が標的画像内の点に整合され得る限り、ロボットの運動は角度ドリフトの制御により実施される904。角度ドリフトの補償による運動の制御がもはや効果的でなければ、運動はロボットのオドメトリを使用することにより制御され得る。
図10は、角度ドリフトを推定するための、相対的および絶対的角度位置を判断するための、および上述のように運動を制御するための様々な技術を実施し得るヒューマノイドロボットを示す。この図に選択された例はAldebaran Robotics社のNAO(登録商標)ロボットである。ロボットは、360ラジアン円運動を行い得る頭に搭載された2つのセンサ1000、1001を含む。
頭は、ロボットが本発明を実施するために有用な知覚および表情能力を備え得るようにする。
一例として、ロボットは、毎秒最大30の画像を捕捉することができる2つの640×480CMOSカメラ、例えば、センサが0V7670と呼ばれるOmnivision(商標)(1/6インチCMOSセンサ:3.6μm画素)であるカメラを含む。額に配置された第1のカメラ1000はその水平線方向に向けられ、一方、口に配置された第2の1001はその直接環境を調べる。ソフトウェアは、ロボットが見るものの写真と映像ストリームとが取得され得るようにする。この例では、第1のカメラ1000は、ロボットの相対的および絶対的角度位置を推定する方法を実施するためのおよび上記運動を制御する方法を実施するための現在画像と基準画像とを取得するために使用され得る。
本明細書では、これらの方法は、ロボット上、より具体的にはヒューマノイドロボット上の実装という文脈内で説明された。しかし、本発明は任意の移動要素の角度位置を判断するために適用され得る。具体的には、本発明は任意のタイプの車両、ボート、または航空機に適用され得る。
一例として、本発明は、本発明を実施するようにされたGPS(全地球測位システム)受信器を含む自動車に適用され得る。有利には、角度ドリフトおよび/または絶対角度位置の推定は、特に過度に少ない数の衛星が前記受信器に対して可視の場合のGPS測定の補正を可能にする。

Claims (16)

  1. 基準方向に対する移動要素の角度偏差を推定する方法であって、
    − 前記移動要素の基準方向を表す基準画像を取得する工程(101)と、
    − 前記移動要素の現在方向を表す現在画像を取得する工程(102)と、
    − 前記基準画像と前記現在画像内の関心点を識別する工程(103)と、
    − 少なくとも2対の関心点を判断する工程(104)であって、一対は前記現在画像内の関心点と前記基準画像内のそれに対応する関心点とからなる、工程(104)と、
    − 前記先の工程で識別された前記少なくとも2対の点を使用することにより前記移動要素の前記現在方向と前記基準方向との角度偏差を判断する工程(105)とを含む方法。
  2. 前記関心点は2進ベクトルに対応する記述子に関連付けられ、前記対の前記判断工程(104)は2つのこれらベクトルの比較により実施され、一対の関心点は、2つの関心点の前記2つのベクトルが、他の関心点に関連付けられた他の候補ベクトルに対して最も近いと考えられると識別される、請求項1に記載の方法。
  3. 前記角度偏差は、前記移動要素に対して固定された正規直交基準座標系の3つの軸X、Y、Zに沿って判断される(105)、請求項1または2に記載の方法。
  4. 前記角度偏差の前記推定の前記品質を確認する工程(106)であって、前記品質は、整合した関心点の対(104)の前記数が所定閾値を越えると十分であると考えられる、工程をさらに含む請求項1〜3のいずれか一項に記載の方法。
  5. 前記品質が不十分であると考えられると新しい基準画像が取得される(120)、請求項4に記載の方法。
  6. 前記基準画像のリフレッシュ速度は前記関心点の質に応じて適応化され、前記品質は正しい関心点のレベルから推定され、前記基準画像はこのレベルが所定閾値未満になると直ちに更新される、請求項1〜5のいずれか一項に記載の方法。
  7. 前記現在画像の前記リフレッシュ速度は、前記現在画像内で識別された前記関心点間の推定平均距離に応じて適応化され、前記リフレッシュ速度は前記関心点が互いに近づくと増加される、請求項1〜6のいずれか一項に記載の方法。
  8. 前記基準方向は前記移動要素が移動するために追随する必要がある標的コースに対応し、前記移動要素の前記移動を制御する(203)ためのコマンドは、最小化された前記方法により推定された角度偏差(200)であるように判断され適用される(201、202)、請求項1〜7のいずれか一項に記載の方法。
  9. 前記基準画像は、前記現在画像を取得する責任を負うセンサの視野内に少なくとも部分的に留まり、所定最少数の関心点が整合し得るように選択される、請求項1〜8のいずれか一項に記載の方法。
  10. 前記当初推定角度偏差は、前記移動要素が移動するために追随する必要がある標的コースに対してαラジアンであり、前記基準方向は、−α/2ラジアンの角度偏差が加えられた前記標的コースに対応し、前記移動要素の移動を制御するためのコマンドは、前記推定角度偏差がその後+α/2ラジアンに可能な限り近くなるように判断され適用される、請求項1〜9のいずれか一項に記載の方法。
  11. 前記基準画像は、前記移動要素に搭載されショット時に前記基準方向に向けられる画像センサ(1000)により取得される、請求項1〜10のいずれか一項に記載の方法。
  12. ナビゲーション空間に対して固定された基準点における移動要素の角度位置を推定する方法であり、
    − 前記ナビゲーション空間をカバーする複数の画像からなるパノラマを取得する工程(6600、700)であって、前記パノラマの1つの画像は前記移動要素から離れる方向を表す、工程と、
    − オドメトリにより前記移動物体の角度位置を推定する工程と、
    − 前記パノラマの前記画像から基準画像を選択する工程(601)であって、前記画像は前記先行工程において推定された前記角度位置に対応する、工程と、
    − 前記移動要素の前記角度位置の推定を精緻化する工程(602)であって、前記角度位置は、前記選択された基準画像と共に請求項1〜12のいずれか一項に記載の方法を適用することにより推定される角度ドリフトから導出される、工程とを含む方法。
  13. 前記移動要素はヒューマノイド型のロボットである、請求項1〜12のいずれか一項に記載の方法。
  14. 前記移動要素は自動車である、請求項1〜13のいずれか一項に記載の方法。
  15. 請求項1〜14のいずれか一項に記載の方法を実施するようにされた手段を含むヒューマノイドロボット。
  16. プログラムがデータ処理モジュールにより行われると請求項1〜14のいずれか一項に記載の方法を実行するための命令を有するコンピュータプログラム。
JP2016506953A 2013-04-11 2014-04-09 基準方向に対する移動要素の角度偏差を推定する方法 Expired - Fee Related JP6229041B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1353295 2013-04-11
FR1353295A FR3004570B1 (fr) 2013-04-11 2013-04-11 Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference
PCT/EP2014/057135 WO2014166986A1 (fr) 2013-04-11 2014-04-09 Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference

Publications (2)

Publication Number Publication Date
JP2016517981A true JP2016517981A (ja) 2016-06-20
JP6229041B2 JP6229041B2 (ja) 2017-11-08

Family

ID=48699093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016506953A Expired - Fee Related JP6229041B2 (ja) 2013-04-11 2014-04-09 基準方向に対する移動要素の角度偏差を推定する方法

Country Status (9)

Country Link
US (1) US20160055646A1 (ja)
EP (1) EP2984625B1 (ja)
JP (1) JP6229041B2 (ja)
CN (1) CN105324792B (ja)
DK (1) DK2984625T3 (ja)
ES (1) ES2655978T3 (ja)
FR (1) FR3004570B1 (ja)
NO (1) NO2984625T3 (ja)
WO (1) WO2014166986A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2933604T3 (en) 2014-04-14 2017-03-13 Softbank Robotics Europe PROCEDURE FOR LOCATING A ROBOT IN A LOCATION PLAN
JP6599603B2 (ja) * 2014-04-18 2019-10-30 東芝ライフスタイル株式会社 自律走行体
EP3070625B1 (en) * 2015-03-19 2019-06-12 Accenture Global Services Limited Image-recognition-based guidance for network device configuration and other enviroments
JP6651295B2 (ja) * 2015-03-23 2020-02-19 株式会社メガチップス 移動体制御装置、プログラムおよび集積回路
CN106023183B (zh) * 2016-05-16 2019-01-11 西北工业大学 一种实时的直线段匹配方法
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
CN107932508B (zh) * 2017-11-17 2019-10-11 西安电子科技大学 基于态势评估技术的移动机器人行为选择方法
CN109764889A (zh) * 2018-12-06 2019-05-17 深圳前海达闼云端智能科技有限公司 导盲方法和装置,存储介质和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146197A (ja) * 2006-12-07 2008-06-26 Ihi Corp ナビゲーション装置とその制御方法
JP2010250469A (ja) * 2009-04-14 2010-11-04 Yaskawa Electric Corp 移動体及び移動体の教示方法
US20120027085A1 (en) * 2010-07-23 2012-02-02 Siemens Enterprise Communications Gmbh & Co. Kg Method for Encoding of a Video Stream

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
AU3718497A (en) * 1996-06-28 1998-01-21 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
US7119803B2 (en) * 2002-12-30 2006-10-10 Intel Corporation Method, apparatus and article for display unit power management
US7692642B2 (en) * 2004-12-30 2010-04-06 Intel Corporation Method and apparatus for controlling display refresh
JP4148276B2 (ja) * 2006-05-09 2008-09-10 ソニー株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
JP5063234B2 (ja) * 2007-07-20 2012-10-31 キヤノン株式会社 撮像装置、撮像システム、及び、撮像装置の動作方法
JP4929109B2 (ja) * 2007-09-25 2012-05-09 株式会社東芝 ジェスチャ認識装置及びその方法
WO2011013862A1 (ko) * 2009-07-28 2011-02-03 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
EP2302564A1 (en) * 2009-09-23 2011-03-30 Iee International Electronics & Engineering S.A. Real-time dynamic reference image generation for range imaging system
WO2012064106A2 (en) * 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
CN102087530B (zh) * 2010-12-07 2012-06-13 东南大学 基于手绘地图和路径的移动机器人视觉导航方法
KR20120070291A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그의 동시 위치 인식 및 지도 작성 방법
KR20120078838A (ko) * 2011-01-03 2012-07-11 삼성전자주식회사 휴대단말의 영상통화 제공 방법 및 장치
US20120236021A1 (en) * 2011-03-15 2012-09-20 Qualcomm Mems Technologies, Inc. Methods and apparatus for dither selection
US20130057519A1 (en) * 2011-09-01 2013-03-07 Sharp Laboratories Of America, Inc. Display refresh system
US9064449B2 (en) * 2012-01-20 2015-06-23 Sharp Laboratories Of America, Inc. Electronic devices configured for adapting refresh behavior
US20130194295A1 (en) * 2012-01-27 2013-08-01 Qualcomm Mems Technologies, Inc. System and method for choosing display modes
FR2988201B1 (fr) * 2012-03-13 2014-05-02 Thales Sa Procede d'aide a la navigation par anticipation de deviations lineaires ou angulaires
US9355585B2 (en) * 2012-04-03 2016-05-31 Apple Inc. Electronic devices with adaptive frame rate displays
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
CN102829785B (zh) * 2012-08-30 2014-12-31 中国人民解放军国防科学技术大学 基于序列图像和基准图匹配的飞行器全参数导航方法
US9558721B2 (en) * 2012-10-15 2017-01-31 Apple Inc. Content-based adaptive refresh schemes for low-power displays
US9524694B2 (en) * 2014-10-29 2016-12-20 Apple Inc. Display with spatial and temporal refresh rate buffers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146197A (ja) * 2006-12-07 2008-06-26 Ihi Corp ナビゲーション装置とその制御方法
JP2010250469A (ja) * 2009-04-14 2010-11-04 Yaskawa Electric Corp 移動体及び移動体の教示方法
US20120027085A1 (en) * 2010-07-23 2012-02-02 Siemens Enterprise Communications Gmbh & Co. Kg Method for Encoding of a Video Stream

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BELLOTTO ET AL.: "Appearance-based localization for mobile robots using digital zoom and visual compass", ROBOTICS AND AUTONOMOUS SYSTEMS, vol. 56, no. 2, JPN5016004847, 29 January 2008 (2008-01-29), NL, pages 143 - 156, XP022437630, ISSN: 0003444657, DOI: 10.1016/j.robot.2007.07.001 *
萩原良信 外2名: "自己移動量を応用した教示経路外における移動ロボットの位置・方向の推定", 電気学会論文誌C 電子・情報・システム部門誌, vol. 第133巻 第2号, JPN6016045009, 1 February 2013 (2013-02-01), pages 356 - 364, ISSN: 0003444656 *

Also Published As

Publication number Publication date
CN105324792B (zh) 2018-05-11
NO2984625T3 (ja) 2018-04-07
JP6229041B2 (ja) 2017-11-08
CN105324792A (zh) 2016-02-10
US20160055646A1 (en) 2016-02-25
DK2984625T3 (en) 2018-01-22
WO2014166986A1 (fr) 2014-10-16
EP2984625A1 (fr) 2016-02-17
EP2984625B1 (fr) 2017-11-08
FR3004570B1 (fr) 2016-09-02
FR3004570A1 (fr) 2014-10-17
ES2655978T3 (es) 2018-02-22

Similar Documents

Publication Publication Date Title
JP6229041B2 (ja) 基準方向に対する移動要素の角度偏差を推定する方法
CN107990899B (zh) 一种基于slam的定位方法和系统
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
KR102016551B1 (ko) 위치 추정 장치 및 방법
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN108955718B (zh) 一种视觉里程计及其定位方法、机器人以及存储介质
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
WO2016035324A1 (en) Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion
US10347001B2 (en) Localizing and mapping platform
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
US10401175B2 (en) Optical inertial measurement apparatus and method
CN114638897B (zh) 基于无重叠视域的多相机系统的初始化方法、系统及装置
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP5086824B2 (ja) 追尾装置及び追尾方法
Huai et al. Real-time large scale 3D reconstruction by fusing Kinect and IMU data
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN110052020B (zh) 便携式装置或机器人系统中运行的设备、控制设备和方法
US10977810B2 (en) Camera motion estimation
Artemciukas et al. Kalman filter for hybrid tracking technique in augmented reality
Tribou Relative Pose Estimation Using Non-overlapping Multicamera Clusters
CN115790581A (zh) 基于在轨特因环境的高速vslam增强现实头盔自主定位方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6229041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees