JP2017526082A - 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体 - Google Patents

動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体 Download PDF

Info

Publication number
JP2017526082A
JP2017526082A JP2017511789A JP2017511789A JP2017526082A JP 2017526082 A JP2017526082 A JP 2017526082A JP 2017511789 A JP2017511789 A JP 2017511789A JP 2017511789 A JP2017511789 A JP 2017511789A JP 2017526082 A JP2017526082 A JP 2017526082A
Authority
JP
Japan
Prior art keywords
feature
image
coordinate system
camera
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017511789A
Other languages
English (en)
Inventor
ビーク ペトルス ジェイ.エル. ヴァン
ビーク ペトルス ジェイ.エル. ヴァン
シンユ シュ
シンユ シュ
ミアオ リャオ
ミアオ リャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2017526082A publication Critical patent/JP2017526082A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本発明の態様は、エゴモーションのビジョンベースの計算方法およびシステムに関する。

Description

本発明の実施形態は、概して、動作推定方法およびシステムに関し、特に、エゴモーション(ego-motion)のビジュアルベースの計算方法およびシステムに関する。
車両が走行する表面道路に関する車両のエゴモーションの正確な推定は、自動運転およびコンピュータビジョンベースの運転支援の重要な要素となり得る。エゴモーションを計算するために、他のセンサに対して1つ以上のカメラを使用することによって、センサ間の較正を必要とぜずに、エゴモーションデータと、ビジョンベースアルゴリズム(例えば、障害物検出および/または回避、歩行者検出および/または回避、対象物検出および/または回避、および他のビジョンベースのアルゴリズム)との統合が可能となり得る。これによって、メンテナンスの必要性およびコストが低減され得る。主体(例えば車両、ヒト、ロボット、他の移動体等)に設置された1つ以上のカメラからの入力のみを使用した、上記主体のエゴモーションの推定プロセスは、ビジュアルオドメトリ(VO)と称される。
VOにおいては、移動体の移動が1つ以上の車載カメラから取得される画像にもたらす変化を検査することによって、移動体の位置が増分的に推定される。VOが効果的に機能するためには、明白な移動を抽出することができるように、その状況における十分な照明と、十分な内容を有する静的場面とが必要となり得る。さらに、場面が十分に重複されるように、一時的な連続フレームが取得されるべきである。
動作推定を提供するVOの1つの利点は、VOが凹凸のある地形や他の悪条件での車輪スリップの影響を受けないことである。さらに、VOは、例えば、全地球測位システム(GPS)、慣性計測ユニット(IMU)、レーザオドメトリ、および動作推定をもたらす他のシステム等の他の動作推定プロセスおよびシステムに、重要な補足情報を提供することができる。さらに、例えば、水中、空中、およびGPSが機能しないであろう他の環境等のGPSが機能しない環境、ならびに、例えばマルチパス、不十分な衛星範囲、および他の信頼性に関わる要因等のためにGPS情報が信頼できない環境において、VOの重要性が増加し得る。
映像入力のみを利用する動作推定のための動作推定アルゴリズムの多くは、静的場面を仮定する。さらに、映像入力のみを利用する動作推定のための動作推定アルゴリズムの多くは、通過する車両によって生じる、動的環境および/または混雑した環境、または大規模な閉塞状態に対処することができない。さらに、動作推定における特徴照合および外れ値除去は正確なものではなく、そして失敗することがある。動作推定スキームの多くは、非常に多くの数のキーポイントを必要とし、構造物のない場面において利用可能なキーポイントの数が制限される場合、失敗することがある。
上述の仮定に依存せず、上述の制限を克服するリアルタイムVO法およびシステムが所望される。
本発明のいくつかの実施形態は、エゴモーションを推定するためのカメラを用いる方法およびシステムを含んでいる。
本発明の第1の態様によると、移動体および接地面に対して、正確に較正されたカメラが上記移動体に強固に設置されてもよい。移動体が主に平らな接地面上を移動すると仮定することによって、任意の時刻における移動体の動作のパラメータ化を、6自由度から3自由度に簡略化することができ、それによって、移動体が移動する間の各時刻におけるカメラと地面との固定関係が維持される。
本発明の第2の態様によると、カメラから着信画像が受信され得る。本発明の第3の態様によると、受信した着信画像における特徴検出が行われ得る。本発明の第4の態様によると、検出された各特徴についての特徴記述子が計算され得る。本発明の第5の態様によると、受信した着信画像に関して計算された特徴記述子と、先に受信した画像に関して計算された特徴記述子との間で特徴照合が行われ得る。本発明の第6の態様によると、特徴対応に関するキーポイントが、画像座標から世界座標に投影され得る。本発明の第7の態様によると、特徴対応に関する複数組の世界座標から動作推定が計算され得る。本発明の第8の態様によると、キー位置が検出された時、グローバル座標系における現カメラ位置が生成され得る。本発明の第9の態様によると、現カメラ位置から動作軌道が決定され得る。本発明の第10の態様によると、先に受信した画像に関して計算された特徴記述子が、受信した着信画像に関して計算された特徴記述子に更新され得る。
本発明の上述の、およびその他の目的、特徴、利点は、添付の図面と共に説明される、本発明の以下の詳細な説明を検討することによってより容易に理解されるであろう。
図1は、本発明の例示的な実施形態を示すチャートであり、本発明は、受信した着信画像における特徴検出を行う工程と、検出された上記各特徴に関する特徴記述子を計算する工程と、上記受信した着信画像に関して計算された特徴記述子と、前に受信した画像に関して計算された特徴記述子との間の特徴照合を行う工程と、特徴対応に関するキーポイントを、画像座標から世界座標に投影する工程と、上記特徴対応に関する複数組の世界座標から動作推定を計算する工程と、キー位置が検出された時、グローバル座標系における現カメラ位置を生成する工程と、上記現カメラ位置から動作軌道を決定する工程と、前に受信した画像に関して計算された上記特徴記述子を、上記受信した着信画像に関して計算された上記特徴記述子に更新する工程とを含んでいる。 図2は、本発明の実施形態に関する複数の座標系を示す図である。 本発明の例示的な実施形態に係る、移動体プラットホームにおける例示的なカメラ構成を示す図である。 絶対標定に基づく(AOベース)動作推定を含む本発明の例示的な実施形態を示すチャートである。 直交プロクラステス分析に基づく動作推定を含む本発明の例示的な実施形態を示すチャートである。
本発明の実施形態は、全図面を通して類似部分には類似の番号が示されている図面を参照することによって最もよく理解されるであろう。上述の図面は、本詳細な説明の一部として明確に組み込まれている。
本明細書において概略的に説明され、図面に示されている本発明の要素は、種々の他の構成に配置および設計可能であることが容易に理解されるであろう。したがって、本発明の方法、システムおよび装置の実施形態の下記のより詳細な説明は、本発明の範囲を限定することを意図しておらず、単に、本発明の現在の好ましい実施形態を示しているにすぎない。
本発明の実施形態の要素は、ハードウェア、ファームウェア、および/またはコンピュータ可読記憶媒体を備えている非一時的コンピュータプログラム製品に組み込まれ得る。コンピュータ可読記憶媒体は、当該コンピュータ可読記憶媒体内に記憶された、計算システムをプログラムするために利用可能な命令を有している。本明細書に示す例示的な実施形態は、複数の実施形態のうちの1つを説明するにすぎないが、当業者であれば、本発明の範囲にありながら、任意の実施形態において、上記の要素を実施することができることが理解されるべきである。
図面のチャートおよびグラフは、実行の明確な順序を示し得るが、実行順序は、図示されている順序と異なってもよいことが理解される。例えば、図示されている順序に対して、ブロックの実行順序を変更してもよい。また、他の例として、図面で連続的に示している2つ以上のブロックを同時に実行してもよく、あるいは、部分的に同時に実行してもよい。当業者は、コンピュータ可読記憶媒体を備えている非一時的コンピュータプログラム製品(コンピュータ可読記憶媒体は、当該コンピュータ可読記憶媒体内に記憶された、計算システムをプログラムするために利用可能な命令を有している)、ハードウェア、および/またはファームウェアは、本明細書に記載されている種々の論理関数を実行するために当業者によって作成されてもよいことを理解する。
車両が走行する表面道路に関する車両のエゴモーションの正確な推定は、自動運転およびコンピュータビジョンベースの運転支援の重要な要素となり得る。エゴモーションを計算するために、他のセンサに対して1つ以上のカメラを使用することによって、センサ間の較正を必要とぜずに、エゴモーションデータと、ビジョンベースアルゴリズム(例えば、障害物検出および/または回避、歩行者検出および/または回避、対象物検出および/または回避、および他のビジョンベースのアルゴリズム)との統合が可能となり得る。これによって、メンテナンスの必要性およびコストが低減され得る。主体(例えば車両、ヒト、ロボット、他の移動体等)に設置された1つ以上のカメラからの入力のみを使用した、上記主体のエゴモーションの推定プロセスは、ビジュアルオドメトリ(VO)と称される。
VOにおいては、移動体の移動が1つ以上の車載カメラから取得される画像にもたらす変化を検査することによって、移動体の位置が増分的に推定される。VOが効果的に機能するためには、明白な移動を抽出することができるように、その状況における十分な照明と、十分な内容を有する静的場面とが必要となり得る。さらに、場面が十分に重複されるように、一時的な連続フレームが取得されるべきである。
動作推定を提供するVOの1つの利点は、VOが凹凸のある地形や他の悪条件での車輪スリップの影響を受けないことである。さらに、VOは、例えば、全地球測位システム(GPS)、慣性計測ユニット(IMU)、レーザオドメトリ、および動作推定をもたらす他のシステム等の他の動作推定プロセスおよびシステムに、重要な補足情報を提供することができる。さらに、例えば、水中、空中、およびGPSが機能しないであろう他の環境等のGPSが機能しない環境、ならびに、例えばマルチパス、不十分な衛星範囲、および他の信頼性に関わる要因等のためにGPS情報が信頼できない環境において、VOの重要性が増加し得る。
映像入力のみを利用する動作推定のための動作推定アルゴリズムの多くは、静的場面を仮定する。さらに、映像入力のみを利用する動作推定のための動作推定アルゴリズムの多くは、通過する車両によって生じる、動的環境および/または混雑した環境、または大規模な閉塞状態に対処することができない。さらに、動作推定における特徴照合および外れ値除去は正確なものではなく、そして失敗することがある。動作推定スキームの多くは、非常に多くの数のキーポイントを必要とし、構造物のない場面において利用可能なキーポイントの数が制限される場合、失敗することがある。
上述の仮定に依存せず、上述の制限を克服するリアルタイムVO法およびシステムが所望される。
図1に関して説明されている本発明のいくつかの実施形態は、ビジュアルオドメトリのための方法100を備え得る。着信画像フレームおよび着信フレームとも称される着信画像が、プロセッサ要素内で受信され得る(102)。本発明のいくつかの実施形態においては、上記着信画像は、画像取得要素から直接的に受信されてもよい。代替実施形態においては、上記着信画像は、画像取得要素から間接的に受信されてもよい。本発明のいくつかの実施形態においては、上記画像取得要素および上記プロセッサ要素は、共に、移動体に強固に取り付けられたカメラ内にあってもよい。本発明の代替実施形態においては、上記画像取得要素は、移動体に強固に取り付けられたカメラ内にあってもよく、一方、上記プロセッサ要素は、移動体に搭載されるが、強固に取り付けられたカメラに一体化されなくてもよい。本発明のいくつかの実施形態においては、上記着信画像は、カラー画像であってもよい。本発明の代替実施形態においては、上記着信画像は、グレースケール画像であってもよい。本発明のいくつかの実施形態においては、上記着信画像は、取得したカラー画像から生成したグレースケール画像であってもよい。いくつかの実施形態においては、着信グレースケール画像は、画像取得要素内に生成されてもよい。これらの実施形態の代替実施形態においては、上記着信グレースケール画像は、画像取得要素の外部で、取得したカラー画像から生成されてもよい。
例えばエッジ、コーナー、ブロブ、ピーク、および強度における顕著に強い変化を示す他の空間的特徴等の、強度における顕著に強い変化を示す、受信した着信画像における1つ以上の領域を特定するために、受信した着信画像において特徴検出が行われ得る(104)。1つ以上の特定された各領域の中心、または略中心が、キーポイントと示され、それによって、受信した着信画像に関する1つ以上のキーポイントが生成される。特徴検出を行うことは、例えば、コーナー検出器、ブロブ検出器、ピーク検出器、Scale-Invariant Feature Transform (SIFT)キーポイント検出器、Speeded Up Robust Features (SURF)キーポイント検出器、Features from Accelerated Segment Test (FAST)キーポイント検出器、Oriented FAST and Rotated BRIEF (ORB)キーポイント検出器、Maximally Stable Extremal Regions (MSER)キーポイント検出器、Binary Robust Independent Elementary Features (BRIEF)キーポイント検出器、Binary Robust Invariant Scalable Keypoints (BRISK)キーポイント検出器、Fast REtinA Keypoint (FREAK)キーポイント検出器、STARキーポイント検出器、およびその他のキーポイント特徴検出器等の本技術で公知の1つ以上のキーポイント特徴検出器を、受信した着信画像に利用することを含んでもよい。本発明のいくつかの実施形態においては、FASTキーポイント検出器が、リアルタイムの自動ナビゲーション用途に適したその迅速な検出スピードのため使用され得る。
本発明のいくつかの実施形態においては、特徴検出104を行うために、グリッドベースFAST特徴検出器を使用してもよい。これらの実施形態においては、受信した着信画像を、m×nグリッドに分割してもよい。本発明のいくつかの実施形態においては、mおよびnは異なる値でもよい。代替実施形態においては、mの値、およびnの値は同じであってもよい。FASTキーポイント検出器を各グリッド要素に利用してもよい。本発明のいくつかの実施形態においては、画像内に検出されるキーポイントの最大カウントにおける最大キーポイントカウント閾値が指定されてもよい。最大キーポイントカウント閾値の値は、各着信画像フレームの処理スピードを調整するために使用されてもよい。本発明のいくつかの実施形態においては、グリッド要素の数は、着信画像の所望の処理スピードに基づいて選択されてもよい。
各指定キーポイントの周囲の領域を特徴付けるための特徴記述子が計算され得る(106)。本発明のいくつかの実施形態においては、領域に関する特徴記述子は、例えば、当該領域の画素強度または色値等の外観であってもよい。本発明のいくつかの実施形態においては、領域に関する特徴記述子は、当該領域の外観に基づいてもよく、例えば、原画素値は、画素値、画素値のエネルギー、または原画素値から計算されるいくつかのその他の統計値の平均によって、正規化されてもよい。代替実施形態においては、原画素値が画素値の平均によって調整されてもよく、例えば、平均画素値が原画素値から引かれてもよい。本発明のいくつかの実施形態においては、特徴記述子は、領域を横断する空間的勾配であってもよい。本発明のいくつかの実施形態においては、上記領域に関する特徴記述子は、視点変化、回転、スケール変化の1つ以上に対してロバストであってもよい。例示的な記述子として、SIFT特徴記述子、SURF特徴記述子、ORB特徴記述子、BRIEF特徴記述子、BRISK特徴記述子、FREAK特徴記述子、および他の視点不変、回転不変、またはスケール不変特徴記述子が含まれる。本発明のいくつかの実施形態においては、上記特徴記述子は小型の特徴記述子であってもよい。上述の特徴記述子は、例示するためのものであって限定するためのものではない。
受信した着信フレームから計算した特徴記述子と、前フレームから計算した特徴記述子との間の特徴照合が行われ得る(108)。受信した着信フレームにおける各キーポイントが、前フレームからのキーポイントに関連付けられてもよく、それによって、複数の特徴対応が生成され、各特徴対応は、受信した着信フレームにおけるキーポイントと、前フレームにおけるキーポイントとを関連付ける。
本発明のいくつかの実施形態においては、受信した着信フレームに関して計算された各特徴記述子が、前フレームに関して計算された各特徴記述子と網羅的に比較されてもよい。着信フレーム特徴記述子と、前フレーム特徴記述子とを比較することは、類似性尺度を計算することを含んでもよい。特徴記述子が特徴の外観である本発明のいくつかの実施形態においては、上記類似性尺度が2乗和であってもよい。上記特徴記述子が特徴の外観である本発明の代替実施形態においては、上記類似性尺度が正規化相互相関であってもよい。
本発明のいくつかの実施形態においては、特徴照合を行うこと(108)は、kd木(k-dimensional tree)を用いた高速最近傍探索を含んでもよい。上記特徴記述子がBRIEF記述子等のバイナリ記述子である本発明のいくつかの実施形態においては、ハミング距離を使用して類似性が測定されてもよい。他の非バイナリ特徴記述子が利用され得る代替実施形態においては、例えばL2ノルム、L1ノルム、およびノルムによって定義される他の距離等の数学的ノルムが類似性尺度のために利用されてもよい。
本発明のいくつかの実施形態においては、特徴照合は、動作変化を計算するための十分に正確な照合のみを保持するように、余分なものが除去されてもよい。本発明のいくつかの実施形態においては、上位2つの照合間の距離比テストが行われてもよい。最も近接する照合と、2番目に近接する照合との間の比が計算されてもよい。上記の比がユーザが指定した閾値より小さい場合、最も近接する照合が採用されてもよい。本発明のいくつかの実施形態においては、ユーザが指定した閾値は、0.65に等しくてもよい。距離比テストによって照合を行った後、前画像において1つ以上の特徴に照合する受信した入力画像における特徴を除くために、相互整合性チェックが行われてもよい。上記相互整合性チェックは、相互に望ましくない全ての照合を除去する。
各特徴対応組に関連付けられたキーポイントの座標が、画像座標系から、移動体座標系とも称される世界座標系に投影されてもよい(110)。
図2は、本発明の実施形態に係る複数の座標系を示している。図2は、2つの時刻t=kおよびt=k+1のそれぞれにおける、強固に設置された単一の車載カメラ204および206を有する、移動体200および202を示している。XW、およびZで示された座標軸を有するグローバル世界座標系208がWと示されてもよい。グローバル世界座標系208(W)は、移動体200および202が平らな接地面経路210に沿って移動する時、固定されている。平らな接地面210は、Z=0の平面にあると仮定され得る。グローバル世界座標系208(W)の起点は、経路の出発地点である。カメラ座標系212は、XC、およびZで示された座標軸を有し、Cと示され、画像座標系214は、XI、およびZで示された座標軸を有し、Iと示され、移動体座標系216は、XM、およびZで示された座標軸を有し、Mと示されてもよい。移動体座標系216は、世界座標系と称されてもよい。カメラ座標系212(C)、および移動体座標系216(M)は、移動体200および202が移動すると移動してもよい。
カメラ204および206は、移動体200および202に強固に設置されているため、カメラ座標系212(C)は、移動体座標系216(M)と固定関係を有している。Pと示され得る点に対応する移動体座標系216(M)における座標ベクトルXXが、式XX=R*XX+tに従って、カメラ座標系212(C)における点Pの座標ベクトルXXに関連付けられてもよい。
上記式において、Rは移動体座標系216(M)からカメラ座標系212(C)までの回転行列を示し、tは、カメラ座標系212(C)における移動体座標系216(M)の起点の座標ベクトルである並進ベクトルを示してもよい。Rおよびtは、外部カメラパラメータであり、カメラ較正によって取得されてもよい。点Pは、カメラによって画像平面に投影されてもよい。投影された像点を、画像座標系座標ベクトルXXと共にpとして示すことによって、カメラ座標ベクトルXXが、式l*XX=K*XXに従って、XXに関連付けられてもよい。
上記式において、Kはカメラ内部行列を示し、lは3次元から2次元への表示による奥行きの損失を示す倍率を示してもよい。
内部カメラパラメータおよび外部カメラパラメータは、本技術で公知の技術によって概算され得る。
本発明のいくつかの実施形態においては、内部パラメータが取得され、移動体に不変に記憶されてもよい。本発明のいくつかの実施形態においては、移動体の動作中に、外部カメラパラメータの再較正が行われてもよい。地上の較正パターンが取得されてもよい。較正パターンの画像から得られるコーナー点が抽出され、外部カメラパラメータが計算されてもよい。これらの新たに計算された外部カメラパラメータ、および記憶された内部カメラパラメータは、再較正が必要な時にカメラパラメータを更新するために使用されてもよい。
[x,y]と示される画像座標における画像のキーポイントについて、世界座標系とも称される移動体座標系における対応点は、下記式に従って計算されてもよい。
Figure 2017526082
上記式において、Kは内部カメラパラメータを示し、Rおよびtは外部カメラパラメータを示し、[X,Y,Z]は移動体座標系における座標を示し、lは移動体座標系における座標の未知の倍数を示してもよい。したがって、移動体座標は、下記式に従って計算されてもよい。
Figure 2017526082
移動体が主に接地面上を移動し、カメラが設置面のみを写すと仮定すると、世界座標系のキーポイント座標は、接地面の方程式を満たさなければならない。任意の面の一般式はaX+bY+cZ+d=0と表してもよく、下記式に書き換えてもよい。
Figure 2017526082
したがって、
Figure 2017526082
および
Figure 2017526082
地面が、Z=0の平面にあり、d=0であると仮定すると、接地面の法線ベクトルは、[a b c]=[0 0 1]であり、上記方程式中の全変数は公知である。したがって、キーポイントの各座標についてlの値が計算され、計算されたlの値を利用して移動体座標が計算されてもよい。
再び図1を参照すると、複数組の特徴対応に関するキーポイントの世界座標を用いて動作推定を計算してもよい(112)。動作推定は、前フレームにおける特徴対応点に関連付けられた各キーポイントの3次元座標と、現フレームにおける対応するキーポイントの3次元座標とを合わせることが可能な、Tk,k−1と示され得る、最適な剛体変換を含んでもよい。
前フレームにおける特徴対応点に関連付けられたキーポイントの3次元座標の集合をA、現フレームにおける対応するキーポイントの3次元座標の集合をBと示すことによって、AとBとの関係をB=Tk,k−1Aと改めてもよい。
上記式において、Tk,k−1は現フレームと前フレームとの間の変換を示してもよい。カメラ動作は剛体動作であるため、変換Tk,k−1は、Rk,k−1と示され得る、前時間と現時間との間の剛体回転、およびtk,k−1と示され得る、前時間と現時間との間の並進から構成されてもよい。したがって、下記式となる。
Figure 2017526082
本発明のいくつかの実施形態においては、移動体プラットホームにおけるカメラ構成を図3に関連して示してもよい。正確に較正されたカメラ300を、移動体302および接地面304に対して強固に設置してもよい。本発明のいくつかの実施形態においては、カメラ300を、本体シャーシ上の移動体302の前方に設置してもよい。移動体302の真正面における地面の良好な視野をもたらすために、カメラ300を地面に向かって傾斜させてもよい。本発明の代替実施形態においては(不図示)、カメラを本体シャーシ上の移動体の後端に設置してもよい。移動体の背後の地面の良好な視野をもたらすために、カメラを地面に向かって傾斜させてもよい。
Hと示され得る接地面304上の高さ306、およびΘと示され得る、接地面304に対する垂線310と、カメラ300の照準線312との間の角度308を一定であると仮定してもよい。さらに、角度Θ(308)は、移動体302が地面を移動する時に大きな振動を受けないと仮定してもよい。地面に対する外部カメラパラメータは、HおよびΘの値、移動体座標系からのカメラ座標系の回転および並進を特徴付ける。
移動体302が主に平らな接地面304上を移動するとさらに仮定すると、カメラと地面との固定関係が、移動体が移動する間の各時刻で保持されるという仮定が引き続き有効となる。
上述した仮定は、任意の時刻における移動体の動作のパラメータ化(つまり、全てグローバル世界座標系に関する、[xk,k−1,yk,k−1]と示され得るxおよびyにおける並進、およびθk,k−1と示され得る回転)を6自由度から3自由度に簡略化することを可能にする。したがって、フレーム間変換Tk,k−1を以下のように改めてもよい。
Figure 2017526082
剛体回転Rk,k−1および並進tk,k−1を推定するための絶対標定に基づく方法400を含むいくつかの実施形態を図4に関連して示してもよい。これらの例示的な実施形態においては、剛体回転Rk,k−1、および並進tk,k−1を、下記式に従って、AとBとの組となる点に対応する中心点間の、Eと示され得る平均二乗誤差(MSE)を最小化することによって推定してもよい。
Figure 2017526082
上記式において、nは特徴対応組の数を示し、A’およびB’は下記式に従って計算された中心点を示してもよい。
Figure 2017526082
これらの例示的な実施形態においては、下記式にそれぞれ従って、AおよびBの各点集合について重心が計算されてもよい(402)。
Figure 2017526082
下記式に従って、各点集合を、それぞれの起点に戻してもよい(404)。
Figure 2017526082
下記式に従って、回転角θk,k−1を計算してもよい(406)。
Figure 2017526082
Figure 2017526082
上記式において、以下の通りである。
Figure 2017526082
Figure 2017526082
上記式において、・はドット積、xは外積を示してもよい。
Figure 2017526082
上記式は、回転が起こる平面に対する垂線を示してもよい。
下記式に従って、回転角θk,k−1を用いて、回転行列Rk,k−1を構成してもよい(408)。
Figure 2017526082
下記式に従って、並進tk,k−1を計算してもよい(410)。
Figure 2017526082
剛体回転Rk,k−1、および並進tk,k−1を推定するための直交プロクラステス分析に基づく方法500を含む代替実施形態を図5に関連して示してもよい。
これらの例示的な実施形態においては、下記式にそれぞれ従って、AおよびBの各点集合について重心が計算されてもよい(502)。
Figure 2017526082
下記式に従って、各点集合を、それぞれの起点に戻してもよい(504)。
Figure 2017526082
特異値分解(SVD)を用いて、回転行列を計算してもよい(506)。まず、下記式に従って、Hと示され得る共分散行列を計算してもよい。
Figure 2017526082
共分散行列Hの特異値分解が計算されてもよい。
Figure 2017526082
下記式に従って、回転行列Rk,k−1を計算してもよい。
Figure 2017526082
上記式において、d=sign(det(VU))であり、右手座標系が保持される。
下記式に従って、並進tk,k−1を計算してもよい(508)。
Figure 2017526082
本発明のいくつかの実施形態においては、動作推定(112)は、例えば、画像ノイズ、閉塞、振れ、視点の変化、照明の変化、特徴検出器の数学的モデルが原因ではない他の要因等によって生じる外れ値を除去するための外れ値除去を含んでもよい。本発明のいくつかの実施形態においては、ランダムサンプルコンセンサス(RANdom Sample Consensus (RANSAC))反復動作推定が行われてもよい。RANSACはランダムに抽出されたデータ点集合からモデル仮説を計算し、上記の仮説を他のデータ点で確認する。他のデータと最も強く一致した仮説が解として選択される。これらの実施形態においては、推定されたモデルは、2つのカメラ位置間の相対動作Rk,k−1およびtk,k−1であり、データ点は候補特徴対応である。本発明のいくつかの実施形態においては、下記の疑似コードに従って動作推定が行われてもよい。
〔シンタックス1〕
Figure 2017526082
いくつかの実施形態においては、反復数Nが50に設定され、サンプルのペア数kが3に設定され、誤差閾値Tが3〜5mmの範囲にあり、インライア(inlier)閾値の数がT=5であり、インライア比の閾値がT=0.55である。ドリフトは誤差蓄積に影響し得る。本発明のいくつかの実施形態は、ドリフトを減らすために、増加する一連の動作推定に関する増加する誤差の蓄積のため、各動作推定に対応するカメラ位置を決定しなくてもよい。したがって、図1を再び参照すると、現在計算された動作推定が、カメラ位置を推定するために利用され、それによってキー位置が特定されるべきかどうかが決定されてもよい(118)。本発明のいくつかの実施形態においては、現在の動作推定の回転角θk,k−1が角度閾値に対する第1の条件を満たす場合、または移動距離が距離閾値に対する第2の条件を満たす場合、現カメラ位置がキー位置とみなされてもよい。いくつかの実施形態においては、回転角θk,k−1が角度閾値より大きい場合、または移動距離が距離閾値より大きい場合、現カメラ位置がキー位置とみなされてもよい。下記式に従って移動距離を計算してもよい。
Figure 2017526082
現カメラ位置がキー位置と見なされない場合(120)、方法100は、次の着信画像が受信される(102)のを待って続いてもよい。
現カメラ位置がキー位置であると判断された場合(122)、式C=Ck−1k,k−1
に従って、現カメラ位置が生成されてもよい。
上記式において、Ck−1は時間k−1におけるカメラ位置を示している。本発明のいくつかの実施形態においては、最初のカメラ位置は恒等行列に設定されてもよい。現カメラ位置は、一連の全変換Tk,k−1(k=1,...,n)を含み、nは現時刻である。現カメラ位置Cは下記式を有している。
Figure 2017526082
そして、動作パラメータ[x,y,θ]が、キー位置から決定され、記憶されてもよい(128)。現フレームから設定された記述子が、前フレームから設定された記述子を更新してもよい(130)。方法100は、次の着信画像が受信される(102)のを待って続いてもよい。
本発明のいくつかの実施形態は、コンピュータ可読記憶媒体を含むコンピュータプログラム製品を含んでもよい。コンピュータ可読記憶媒体は、当該コンピュータ可読記憶媒体内に記憶された、本明細書に記載された任意の特徴および方法を実行するための計算システムをプログラムするために利用可能な命令を有している。例示的なコンピュータ可読記憶媒体としては、限定するわけではないが、フラッシュメモリ装置、ディスク記録媒体(例えば、フロッピー(登録商標)ディスク、光学ディスク、磁気光学ディスク、デジタル多目的ディスク(DVD)、コンパクトディスク(CD)、マイクロドライブ、および他のディスク記憶媒体等)、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROMS)、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM(登録商標))、ランダムアクセスメモリ(RAMS)、ビデオランダムアクセスメモリ(VRAM)、ダイナミックランダムアクセスメモリ(DRAM)、および命令および/またはデータを記憶するのに適した任意のタイプの媒体または装置が挙げられる。
上述の説明において用いられた用語および表現は、限定ではなく説明するための用語として本明細書で使用されており、そのような用語および表現の使用において、例示および説明された特徴、またはその一部の均等物を排除することは意図していない。本発明の範囲は、以下の請求項によってのみ定義および限定されることが認識されている。

Claims (20)

  1. 動作推定方法であって、上記方法は、
    着信画像を受信する工程と、
    上記受信した着信画像における複数の領域を特定するために、上記受信した着信画像における特徴検出を行い、上記複数の領域における各領域が画像座標系のキーポイントに関連付けられている工程と、
    上記複数の領域における各領域に関する特徴記述子を計算し、それによって上記着信画像に関する複数の特徴記述子を生成する工程と、
    上記受信した着信画像に関する上記複数の特徴記述子と、前画像に関して計算された複数の特徴記述子との間の特徴照合を行い、それによって、複数の特徴対応を生成し、上記複数の特徴対応における各特徴対応に関して、上記画像座標系から、世界座標系に上記関連するキーポイントを投影し、それによって複数組の世界座標を生成する工程と、
    上記複数組の世界座標から動作推定を計算する工程と、
    キー位置を選択する工程と、
    グローバル座標系における現カメラ位置を生成する工程と、
    上記現カメラ位置から動作軌道を決定する工程と、
    前フレームに関して計算された上記複数の特徴記述子を、上記受信した着信フレームに関する上記複数の特徴記述子に更新する工程とを含むことを特徴とする方法。
  2. 上記動作推定は、回転行列と、並進ベクトルとを含むことを特徴とする、請求項1に記載の方法。
  3. 上記回転行列は面内回転に関連することを特徴とする、請求項2に記載の方法。
  4. 上記受信した着信画像は、移動体に強固に設置されたカメラから受信されることを特徴とする、請求項1に記載の方法。
  5. 特徴検出を行う上記工程は、エッジ検出器、コーナー検出器、ブロブ検出器、ピーク検出器、SIFTキーポイント検出器、SURFキーポイント検出器、FASTキーポイント検出器、グリッドベースFASTキーポイント検出器、ORBキーポイント検出器、MSERキーポイント検出器、BRIEFキーポイント検出器、BRISKキーポイント検出器、FREAKキーポイント検出器、およびSTARキーポイント検出器からなる群から選択される特徴検出器を使用することを含むことを特徴とする、請求項1に記載の方法。
  6. 上記特徴記述子が、画素値のブロック、正規化画素値のブロック、勾配値のブロック、調整画素値のブロック、SIFT特徴記述子、SURF特徴記述子、ORB特徴記述子、BRIEF特徴記述子、BRISK特徴記述子、およびFREAK特徴記述子からなる群から選択される特徴記述子であることを特徴とする、請求項1に記載の方法。
  7. 特徴照合を行う上記工程は、kd木を用いた高速最近傍探索を含むことを特徴とする、請求項1に記載の方法。
  8. 特徴照合を行う上記工程は、複数の候補照合を除くことを含むことを特徴とする、請求項1に記載の方法。
  9. 動作推定を計算する上記工程は、直交プロクラステス分析に基づく動作推定器、および絶対標定に基づく動作推定器からなる群から選択される動作推定器を使用することを含むことを特徴とする、請求項1に記載の方法。
  10. 動作推定を計算する上記工程は、上記複数の特徴対応における外れ値を除去することを含むことを特徴とする、請求項1に記載の方法。
  11. 上記除去工程は、RANSAC動作推定を行うことを含むことを特徴とする、請求項10に記載の方法。
  12. キー位置を選択する上記工程は、上記動作推定の回転角と角度閾値とを比較し、移動体の移動距離と距離閾値とを比較する工程と、
    上記角度比較が第1の基準を満たす場合、または上記距離比較が第2の基準を満たす場合、キー位置を検出する工程とを含むことを特徴とする、請求項1に記載の方法。
  13. 上記第1の基準は、上記回転角であって、上記角度閾値より大きく、
    上記第2の基準は、上記移動距離であって、上記距離閾値より大きいことを特徴とする、請求項12に記載の方法。
  14. 現カメラ位置を生成する上記工程は、上記の推定された動作と、前カメラ位置とを連結する工程を含むことを特徴とする、請求項1に記載の方法。
  15. 強固に設置されたカメラと、
    プロセッサ要素と、
    上記プロセッサ要素に動作推定を行う方法を実行させるための、コンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体とを備えている移動体であって、上記方法は、
    着信画像を受信する工程と、
    上記受信した着信画像における複数の領域を特定するために、上記受信した着信画像における特徴検出を行い、上記複数の領域における各領域が画像座標系のキーポイントに関連付けられている工程と、
    上記複数の領域における各領域に関する特徴記述子を計算し、それによって上記着信画像に関する複数の特徴記述子を生成する工程と、
    上記受信した着信画像に関する上記複数の特徴記述子と、前画像に関して計算された複数の特徴記述子との間の特徴照合を行い、それによって、複数の特徴対応を生成し、上記複数の特徴対応における各特徴対応に関して、上記画像座標系から、世界座標系に上記関連するキーポイントを投影し、それによって複数組の世界座標を生成する工程と、
    上記複数組の世界座標から動作推定を計算する工程と、
    キー位置を選択する工程と、
    グローバル座標系における現カメラ位置を生成する工程と、
    上記現カメラ位置から動作軌道を決定する工程と、
    前フレームに関して計算された上記複数の特徴記述子を、上記受信した着信フレームに関する上記複数の特徴記述子に更新する工程とを含むことを特徴とする移動体。
  16. 上記カメラは、接地面に対して強固に設置されていることを特徴とする、請求項15に記載の移動体。
  17. 上記カメラは、上記移動体の先端または後端、および上記移動体の本体シャーシ上に設置され、
    上記カメラが上記移動体の上記先端に設置された場合、上記カメラは、上記移動体の真正面における接地経路の視野を有するように傾斜し、上記カメラが上記移動体の上記後端に設置された場合、上記カメラは、上記移動体の背後における上記接地経路の視野を有するように傾斜することを特徴とする、請求項15に記載の移動体。
  18. プロセッサに動作推定を行う方法を実行させるための、コンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体であって、上記方法は、
    着信画像を受信する工程と、
    上記受信した着信画像における複数の領域を特定するために、上記受信した着信画像における特徴検出を行い、上記複数の領域における各領域が画像座標系のキーポイントに関連付けられている工程と、
    上記複数の領域における各領域に関する特徴記述子を計算し、それによって上記着信画像に関する複数の特徴記述子を生成する工程と、
    上記受信した着信画像に関する上記複数の特徴記述子と、前画像に関して計算された複数の特徴記述子との間の特徴照合を行い、それによって、複数の特徴対応を生成し、上記複数の特徴対応における各特徴対応に関して、上記画像座標系から、世界座標系に上記関連するキーポイントを投影し、それによって複数組の世界座標を生成する工程と、
    上記複数組の世界座標から動作推定を計算する工程と、
    キー位置を選択する工程と、
    グローバル座標系における現カメラ位置を生成する工程と、
    上記現カメラ位置から動作軌道を決定する工程と、
    前フレームに関して計算された上記複数の特徴記述子を、上記受信した着信フレームに関する上記複数の特徴記述子に更新する工程とを含むことを特徴とする非一時的コンピュータ可読媒体。
  19. 上記プロセッサが移動体に一体化されることを特徴とする、請求項18に記載の非一時的コンピュータ可読媒体。
  20. 上記着信画像は、移動体に取り付けられたカメラによって生成されることを特徴とする、請求項18に記載の非一時的コンピュータ可読媒体。
JP2017511789A 2014-09-03 2015-08-31 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体 Pending JP2017526082A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/476,524 US10339389B2 (en) 2014-09-03 2014-09-03 Methods and systems for vision-based motion estimation
US14/476,524 2014-09-03
PCT/JP2015/004428 WO2016035324A1 (en) 2014-09-03 2015-08-31 Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion

Publications (1)

Publication Number Publication Date
JP2017526082A true JP2017526082A (ja) 2017-09-07

Family

ID=55402859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511789A Pending JP2017526082A (ja) 2014-09-03 2015-08-31 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体

Country Status (4)

Country Link
US (1) US10339389B2 (ja)
JP (1) JP2017526082A (ja)
CN (1) CN107077137A (ja)
WO (1) WO2016035324A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9969337B2 (en) * 2014-09-03 2018-05-15 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US10154281B2 (en) * 2016-01-22 2018-12-11 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for keypoint trajectory coding on compact descriptor for video analysis
DE102016115327A1 (de) * 2016-08-18 2018-02-22 Connaught Electronics Ltd. Verfahren zum Erkennen zumindest eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs anhand von Objektmerkmalen aus Bildern, Kamerasystem sowie Kraftfahrzeug
KR101851155B1 (ko) 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
DE102016220216A1 (de) * 2016-10-17 2018-04-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Abtasten eines Standortes
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法
CN107123142B (zh) * 2017-05-09 2020-05-01 北京京东尚科信息技术有限公司 位姿估计方法和装置
US10444761B2 (en) * 2017-06-14 2019-10-15 Trifo, Inc. Monocular modes for autonomous platform guidance systems with auxiliary sensors
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN109918975B (zh) * 2017-12-13 2022-10-21 腾讯科技(深圳)有限公司 一种增强现实的处理方法、对象识别的方法及终端
US11087492B2 (en) * 2018-03-21 2021-08-10 ISVision America Methods for identifying location of automated guided vehicles on a mapped substrate
WO2019204800A1 (en) * 2018-04-20 2019-10-24 WeRide Corp. Method and system for generating high definition map
CN108597036B (zh) * 2018-05-03 2022-04-12 三星电子(中国)研发中心 虚拟现实环境危险感知方法及装置
CN108981687B (zh) * 2018-05-07 2021-01-15 清华大学 一种视觉与惯性融合的室内定位方法
US11157011B2 (en) 2018-07-30 2021-10-26 Fedex Corporate Services, Inc. Enhanced systems, apparatus, and methods for improved automated and autonomous operation of logistics ground support equipment
KR20200084934A (ko) * 2018-12-20 2020-07-14 삼성전자주식회사 차량의 주행을 제어하는 장치 및 차량의 주행을 제어하는 장치가 캘리브레이션을 수행하는 방법
CN111380529B (zh) * 2018-12-28 2023-10-03 浙江菜鸟供应链管理有限公司 移动设备定位方法、装置、系统及移动设备
CN112179358B (zh) * 2019-07-05 2022-12-20 东元电机股份有限公司 地图数据比对辅助定位系统及其方法
EP3789961B1 (en) * 2019-09-04 2023-06-14 Continental Autonomous Mobility Germany GmbH Sensor device for calculating a motion of a camera in a vehicle
CN111650936B (zh) * 2020-06-03 2023-01-17 杭州迦智科技有限公司 一种伺服控制方法、处理器、存储介质和可移动平台
KR20220026422A (ko) * 2020-08-25 2022-03-04 삼성전자주식회사 카메라 캘리브레이션 장치 및 이의 동작 방법
TWI768548B (zh) * 2020-11-19 2022-06-21 財團法人資訊工業策進會 定位用基礎資訊產生系統與方法以及自身定位判斷裝置
CN112985439B (zh) * 2021-02-08 2023-10-17 青岛大学 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法
US11475240B2 (en) * 2021-03-19 2022-10-18 Apple Inc. Configurable keypoint descriptor generation
CN113111733B (zh) * 2021-03-24 2022-09-30 广州华微明天软件技术有限公司 一种基于姿态流的打架行为识别方法
CN113063424B (zh) * 2021-03-29 2023-03-24 湖南国科微电子股份有限公司 一种商场内导航方法、装置、设备及存储介质
CN113223050B (zh) * 2021-05-12 2022-07-26 之江实验室 一种基于ArUco码的机器人运动轨迹实时采集方法
US20230046465A1 (en) * 2021-07-30 2023-02-16 Gopro, Inc. Holistic camera calibration system from sparse optical flow
CN115995063A (zh) * 2021-10-18 2023-04-21 中车株洲电力机车研究所有限公司 作业车辆检测与跟踪方法和系统
CN114170274B (zh) * 2022-02-11 2022-06-14 北京宏景智驾科技有限公司 目标跟踪方法和装置、电子设备和存储介质
CN115031627B (zh) * 2022-05-07 2024-04-30 西北工业大学 一种实现水下集群内个体之间视觉感知的方法
CN114818970B (zh) * 2022-05-17 2023-04-21 北京百度网讯科技有限公司 经典数据处理方法、计算设备及存储介质
CN117912093A (zh) * 2022-10-12 2024-04-19 华人运通(上海)云计算科技有限公司 人体姿态检测方法和基于视觉感知的安全人机交互方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266224A (ja) * 2008-04-22 2009-11-12 Honeywell Internatl Inc リアルタイム・ビジュアル・オドメトリの方法およびシステム
WO2013185102A1 (en) * 2012-06-08 2013-12-12 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP4546956B2 (ja) * 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
US8855848B2 (en) * 2007-06-05 2014-10-07 GM Global Technology Operations LLC Radar, lidar and camera enhanced methods for vehicle dynamics estimation
US7787689B2 (en) * 2007-07-06 2010-08-31 Topcon Corporation Location measuring device and method
US8866901B2 (en) * 2010-01-15 2014-10-21 Honda Elesys Co., Ltd. Motion calculation device and motion calculation method
JP2011174799A (ja) * 2010-02-24 2011-09-08 Mitsubishi Electric Corp 撮影経路計算装置
US8885049B2 (en) * 2010-03-19 2014-11-11 Sony Corporation Method and device for determining calibration parameters of a camera
JP5637355B2 (ja) * 2010-03-26 2014-12-10 清水建設株式会社 移動体位置検出システムおよび方法
JP5610870B2 (ja) * 2010-06-21 2014-10-22 三菱重工業株式会社 無人走行車両の誘導装置及び無人走行車両の誘導方法
EP2619742B1 (en) * 2010-09-24 2018-02-28 iRobot Corporation Systems and methods for vslam optimization
KR101758058B1 (ko) * 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
CN102866706B (zh) * 2012-09-13 2015-03-25 深圳市银星智能科技股份有限公司 一种采用智能手机导航的清扫机器人及其导航清扫方法
US9607401B2 (en) * 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
EP2851870B1 (en) * 2013-09-20 2019-01-23 Application Solutions (Electronics and Vision) Limited Method for estimating ego motion of an object
US9969337B2 (en) * 2014-09-03 2018-05-15 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US9946264B2 (en) * 2016-03-22 2018-04-17 Sharp Laboratories Of America, Inc. Autonomous navigation using visual odometry

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266224A (ja) * 2008-04-22 2009-11-12 Honeywell Internatl Inc リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
WO2013185102A1 (en) * 2012-06-08 2013-12-12 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUGO SILVA ET AL.: "Combining sparse and dense methods in 6D Visual Od", AUTONOMOUS ROBOT SYSTEMS. INTERNATIONAL CONFERENCE, JPN6017046330, 24 April 2013 (2013-04-24), US, pages 49 - 54, ISSN: 0003953360 *

Also Published As

Publication number Publication date
CN107077137A (zh) 2017-08-18
WO2016035324A1 (en) 2016-03-10
US20160063330A1 (en) 2016-03-03
US10339389B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
US9969337B2 (en) Methods and systems for mobile-agent navigation
US10762643B2 (en) Method for evaluating image data of a vehicle camera
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
Kitt et al. Monocular visual odometry using a planar road model to solve scale ambiguity
US9330471B2 (en) Camera aided motion direction and speed estimation
US9864927B2 (en) Method of detecting structural parts of a scene
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP4702569B2 (ja) 車両用画像処理装置
Parra et al. Robust visual odometry for vehicle localization in urban environments
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102455632B1 (ko) 스테레오 매칭 방법 및 장치
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
JP6116765B1 (ja) 物体検出装置及び物体検出方法
Lee et al. Temporally consistent road surface profile estimation using stereo vision
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Rawashdeh et al. Scene Structure Classification as Preprocessing for Feature-Based Visual Odometry
US20220291009A1 (en) Information processing apparatus, information processing method, and storage medium
Liu et al. World Scale Estimation Monocular Visual Odometry with Ground Feature

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190108