JP6349418B2 - 高精度単眼移動によるオブジェクト位置特定 - Google Patents

高精度単眼移動によるオブジェクト位置特定 Download PDF

Info

Publication number
JP6349418B2
JP6349418B2 JP2016573693A JP2016573693A JP6349418B2 JP 6349418 B2 JP6349418 B2 JP 6349418B2 JP 2016573693 A JP2016573693 A JP 2016573693A JP 2016573693 A JP2016573693 A JP 2016573693A JP 6349418 B2 JP6349418 B2 JP 6349418B2
Authority
JP
Japan
Prior art keywords
sfm
bounding box
dense
queue
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016573693A
Other languages
English (en)
Other versions
JP2017516238A (ja
Inventor
マンモハン チャンドラカー、
マンモハン チャンドラカー、
シユ ソング、
シユ ソング、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2017516238A publication Critical patent/JP2017516238A/ja
Application granted granted Critical
Publication of JP6349418B2 publication Critical patent/JP6349418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

(関連出願情報)
本出願は、その内容が参照により本明細書に組み込まれている、2014年3月6日に出願した仮出願第61/948,981号および2015年3月4日に出願した仮出願第62/128,347号の優先権を主張するものである。
単一のカメラのみを使用するビデオストリーム内の移動オブジェクトの3次元位置特定(three−dimensional localization)は、困難な場合がある。特に、既存の方法は、疎な特徴点(sparse feature point)を使用するが、この技術は、安定した特徴点軌道(feature track)を確立することが難しいので、たとえば、自動車などのオブジェクト上で使用するのは困難である。他の既存の方法は、高い位置特定誤差を引き起こす、固定されたグランドプレーンに対してオブジェクトバウンディングボックスを三角測量するものである。これらの既存の技術は、コストのかかる推論機構も伴い得る。
移動オブジェクト位置特定の方法は、ビデオフレーム内の検出されたオブジェクトおよび単眼ストラクチャフロムモーション(SFM:structure−from−motion)情報に基づきビデオフレーム内のグランドプレーンを推定することを含む。フレーム内のオブジェクトに対するオブジェクト姿勢は、密な特徴点追跡(dense feature tracking)を使用してSFM情報に基づき計算される。検出されたオブジェクトに対する3次元位置は、推定されたグランドプレーンおよび計算されたオブジェクト姿勢に基づき決定される。
移動オブジェクト位置特定のシステムは、ビデオフレーム内の検出されたオブジェクトおよび単眼ストラクチャフロムモーション(SFM)情報に基づきビデオフレーム内のグランドプレーンを推定し、密特徴点追跡を使用してSFM情報に基づきフレーム内のオブジェクトに対するオブジェクト姿勢を計算し、推定されたグランドプレーンおよび計算されたオブジェクト姿勢に基づき検出されたオブジェクトに対する3次元位置を決定するように構成されたプロセッサを備えている。
本発明の原理によるオブジェクト位置特定のブロック/流れ図である。 本発明の原理による密な3次元推定(dense three−dimensional estimation)のブロック図である。 本発明の原理による結合3次元オブジェクト位置特定(joint three−dimensional object localization)のブロック図である。 本発明の原理による移動オブジェクト位置特定システムのブロック図である。
本発明の実施形態は、単眼ストラクチャフロムモーション(SFM)を使用し、SFM、密なフレーム間ステレオ、およびオブジェクト検出からのキューを組み合わせることによってグランドプレーンを適応的に推定する。オブジェクト姿勢は、ごく少数の疎な特徴に基づく姿勢推定は不安定なので、強度合わせによって推定される。密な特徴は、エピポーラ拘束を課す一次元オプティカルフロー機構を使用して追跡される。これらの軌道における外れ値は、推定されたオブジェクト姿勢を使用して排除される。本発明の実施態様によって採用されているSFMキューは、追跡される3次元点の再投影誤差を最小にするが、オブジェクト検出キューは、オブジェクト追跡出力に関して最高である検出スコアを有する一連の二次元バウンディングボックスと最も整合する最良の3次元バウンディングボックスに適合する
本発明の実施態様は、さまざまなキューを使用することによってオブジェクト位置特定における優れた精度をもたらす。それに加えて、位置特定は、姿勢計算に対して密追跡および強度合わせを使用しているのでより安定しており、動領域抽出および複合推論が使用されないので、より素早く実行される。
次に、図1を参照すると、オブジェクト位置特定のブロック図が示されている。入力ビデオ102は、一般的な2Dオブジェクト検出104および適応グランドプレーン検出(adaptive ground plane detection)106において使用されている。それに加えて、リアルタイム単眼SFM108は、適応グラントプレーン検出106、さらには、密な3D推定110の両方に情報を提供するために使用される。2Dオブジェクト検出104、適応グランドプレーン検出106、および、密な3D推定110の結果は、3次元内の位置を決定するために結合3Dオブジェクト位置特定112で使用される。
次に図2を参照すると、密な3D推定110のより詳細な図が示されている。密な3D推定110は、強度合わせされたオブジェクト姿勢計算202およびエピポーラ誘導密度追跡(epipolar−guided dense tracking)204を使用する。
強度合わせされたオブジェクト姿勢計算202について、オブジェクトの姿勢は、ベクトルΩ=(x,z,ψ,θ,φ,h)によって定義され、ここで、xおよびzは、オブジェクトの背面がグランドと交差する直線の中心に対応するカメラの座標におけるオブジェクトの原点の座標であり、ψ、θ、φはオブジェクトのピッチ角、ロール角、およびヨー角であり、hは、グランドプレーンからのカメラの高さである。時刻tにおいてオブジェクト姿勢が与えられた場合、時刻t+1における姿勢は、
Figure 0006349418
に従って投影された画像内のすべてのピクセルにおいて強度Iを最もよく合わせる姿勢として決定され、
ここで、πΩは、2D像平面へのオブジェクト座標における3D点の投影を表す。
エピポーラ誘導密度追跡204は、フレームtとフレームt+1との間のTV−L1正則化オプティカルフローを推定する。フロー推定は、検出バウンディングボックス内のみで実行され、計算効率を最大化する。オプティカルフローベクトルは、エピポーラ幾何学の条件を満たすように制約される。このフロー推定は、オプティカルフロー問題を二次元探索から一次元探索に縮小するために使用される。特徴点軌道は、妥当性確認がなされ、三角測量される。オプティカルフロー問題は、以下の式で表すことができる。
Figure 0006349418
ここで、xは画像位置であり、pは画像上の点であり、pはpを通るエピポーラ直線の方向であり、uはエピポーラ直線に沿った距離である。
次に図3を参照すると、結合3Dオブジェクト位置特定112に対する結合最適化に関する追加の詳細が示されている。コスト関数は、オブジェクトバウンディングボックスからのコスト、SFM、オブジェクト検出、およびグランドプレーン推定、軌跡平滑化、およびオブジェクトサイズからの事前分布を組み込む。レーベンバーグ−マーカート最適化が実行され、コスト関数を最小化する最良の3Dバウンディングボックスを見つける。
Figure 0006349418
ここで、ε’SFMは、SFMからのコストであり、ε’objはオブジェクトバウンディングボックスからのコストであり、ε’priorは組み合わされた平滑化およびオブジェクトサイズ事前分布からの事前分布である。例示的なパラメータ値は、λ=0.7およびλ=2.7である。量ε’objは、
Figure 0006349418
として定義され、
ここで、ε’boxはオブジェクトバウンディングボックス誤差であり、ε’detは検出コストであり、パラメータλは0.03の例示的な値を有する。量ε’priorは、
Figure 0006349418
として定義され、
ここで、ε’smoothは軌跡平滑化事前分布であり、ε’sizeはオブジェクトサイズ事前分布であり、パラメータに対する例示的な値は、λ=0.03である。
3Dオブジェクト位置特定112は、SFMキュー302と、ボンディングボックスキュー304と、オブジェクト検出キュー306とを使用する。ブロック302におけるSFMキューからオブジェクト位置特定コストを見つけることで、シーン内のi=1,...,N個のオブジェクトを追跡し、各オブジェクト上のj=1,...,M個の特徴はフレームt=s,...,e内で追跡され、ここで、sおよびeはオブジェクトiの最初と最後のフレームである。次いで、
Figure 0006349418
が観察された投影であり、
Figure 0006349418
がフレームtにおけるマッチした2Dピクセルである場合、特徴点軌道に対するSFM再投影誤差は、
Figure 0006349418
として定義されてよく、ここで、uおよびvは像平面上の2Dピクセルの座標である。
N=[nα,nβ,nγ]を定義し、nγ=(−n,n,−n、nβ=−n、およびnα=nβ×nγとすると、オブジェクト座標系内で3D点
Figure 0006349418
が与えられた場合、オブジェクト座標からカメラ座標への変換は、
Figure 0006349418
で与えられ、ただし、
Figure 0006349418
であり、ここで、ωψ=(0,ψ,0)であり、[..]×は外積行列である。次いで、オブジェクト座標系内で3D点
Figure 0006349418
を投影する式は、同次関係式
Figure 0006349418
によって与えられ、ここで、λは未知のスケール係数であり、Kは3×3の内在的カメラ較正行列である。
2Dバウンディングボックスキュー304Aからオブジェクト位置特定コストを決定することで、トラックレット(tracklet)の集合は、位置特定に対する入力とみなされるが、ここで、トラックレットは、オブジェクトの軌道である。位置特定に対する2Dバウンディングボックスコストは、
Figure 0006349418
によって与えられ、ここで、b(t)は3Dバウンディングボックスの2D投影であり、D(t)は追跡からの2Dバウンディングボックスである。バウンディングボックスの8個の隅vが与えられた場合、その投影qは、
Figure 0006349418
であり、ここで、
Figure 0006349418
は同次スケール係数である。次いで、
Figure 0006349418
を定義する。
頂点v,...,vを有する3Dバウンディングボックスについて、対応する像点は、q,...,qであり、ここで、各qは2つの数(p,q)で表される像平面上の2Dピクセルである。
オブジェクト検出キュー306からのオブジェクト位置特定コストにより、本発明の実施態様は追跡出力にだけ依存するようにならない。s(・)をバウンディングボックスの検出スコアを計算する関数として使用すると、検出項は、
Figure 0006349418
となり、ここで、
Figure 0006349418
はそれぞれの推定された3Dバウンディングボックスの投影である。
検出器を動作させることなく検出スコア関数s(・)を構築するために、検出スコアは、モデルを当てはめることによって計算される。検出器は、いくつかのバウンディングボックス候補およびそれらのバウンディングボックスのスコアを提供する。モデルは、ガウス分布の混合である。各フレームで、4×4の最大階数共分散行列Σは、μを中心として
Figure 0006349418
として推定され、ここで、εmn=b−μであり、Mはオブジェクトの数であり、Nは候補バウンディングボックスの数であり、ここで、kへの依存関係は便宜上抑制されている。Aはガウス分布の振幅であり、μはガウス分布の平均であり、εmnは平均からの距離であり、Σは共分散であり、δはガウス分布のこの総和によって近似されるスコアである。
本明細書で説明されている実施形態は、全体がハードウェアであるか、全体がソフトウェアであるか、またはハードウェアとソフトウェアの両方の要素を含んでいてよいことは理解されるべきである。好ましい一実施形態において、本発明は、限定はしないが、ファームウェア、常駐ソフトウェア、マイクロコードなどを含む、ハードウェアおよびソフトウェアで実装される。
実施形態は、コンピュータまたは命令実行システムによってまたはコンピュータまたは命令実行システムと関連して使用するためのプログラムコードを提供するコンピュータ使用可能またはコンピュータ可読媒体からアクセス可能なコンピュータプログラム製品を含んでいてよい。コンピュータ使用可能またはコンピュータ可読媒体は、命令実行システム、装置、またはデバイスで使用するための、または命令実行システム、装置、またはデバイスに関連して使用するためのプログラムを記憶する、伝達する、伝搬する、または搬送する任意の装置を含み得る。媒体は、磁気、光、電子、電磁、赤外線、もしくは半導体システム(または装置もしくはデバイス)、または伝搬媒体とすることができる。媒体は、半導体もしくはソリッドステートメモリ、磁気テープ、取り外し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、リジッド磁気ディスク、および光ディスクなどのコンピュータ可読記憶媒体を含み得る。
プログラムコードを記憶し、および/または実行するのに適したデータ処理システムは、システムバスを通じてメモリ要素に直接的にまたは間接的に結合された少なくとも1つのプロセッサを備えていてよい。メモリ要素は、プログラムコードの実際の実行時に使用されるローカルメモリ、大容量記憶装置、および実行時にコードが大容量記憶装置から取り出される回数を減らすための少なくとも一部のプログラムコードを一時的に記憶するキャッシュメモリを含み得る。入出力またはI/Oデバイス(限定はしないが、キーボード、ディスプレイ、ポインティングデバイスなどを含む)は、直接的に、または介在するI/Oコントローラを通じてのいずれかで、システムに結合され得る。
ネットワークアダプタもシステムに結合されてよく、これにより、データ処理システムを他のデータ処理システムまたはリモートプリンタまたは記憶装置デバイスに、介在するプライベートまたはパブリックネットワークを通じて結合させることが可能になる。モデム、ケーブルモデム、イーサネットカードは、現在利用可能な種類のネットワークアダプタのうちのごくわずかのものである。
次に図4を参照すると、オブジェクト位置特定システム400が示されている。ハードウェアプロセッサ402は、メモリ404に記憶されているビデオデータにアクセスして、位置情報を提供する。2D検出モジュール406は、プロセッサ402を使用して、SFMモジュール410がリアルタイム単眼SFMを実行している間にビデオ上で二次元オブジェクト検出を実行する。グランドプレーンモジュール408は、2Dオブジェクト検出情報およびSFM情報を使用してフレーム内のオブジェクトに対するグランドプレーンを推定する。ブロック412では、プロセッサ402を使用して密な3D推定を実行する。結合3Dオブジェクト位置特定モジュールは、グランドプレーンモジュール408および密な3D推定モジュール412からの情報を使用してオブジェクト位置情報を提供する。
前記の内容は、あらゆる点で説明され例示されているが、制限的ではないものと理解されるべきであり、本明細書で開示されている発明の範囲は、詳細な説明から決定されるべきでなく、むしろ、特許法によって許される全範囲に従って解釈されるように請求項から決定されるべきである。追加の情報は、本出願の付録Aおよび付録Bに掲載されている。図示され本明細書で説明されている実施形態は、本発明の原理を説明するだけであり、当業者であれば、本発明の範囲および精神から逸脱することなくさまざまな修正を実施することができることは理解されるであろう。当業者であれば、本発明の範囲および精神から逸脱することなく、さまざまな他の特徴の組合せを実施することも可能である。

Claims (8)

  1. 移動オブジェクト位置特定の方法であって、
    ビデオフレーム内の検出されたオブジェクトおよび単眼ストラクチャフロムモーション(SFM)情報に基づき前記ビデオフレーム内のグランドプレーンを推定することと、
    前記フレーム内のオブジェクトに対するオブジェクト姿勢を、密な特徴点追跡を使用して前記SFM情報に基づき計算することと、
    前記検出されたオブジェクトに対する3次元位置を、前記推定されたグランドプレーンおよび前記計算されたオブジェクト姿勢に基づき決定することと、
    を含み、
    前記3次元位置を決定することは、コスト関数を最小化する3次元バウンディングボックスを見つけるレーベンバーグ−マーカート最適化を含み、
    前記コスト関数は、
    ε=ε’ SFM +λ ε’ obj +λ ε’ prior
    であり、ここで、ε’ SFM は、SFMからのコストであり、ε’ obj はオブジェクトバウンディングボックスからのコストであり、ε’ prior は前記組み合わされた平滑化およびオブジェクトサイズ事前分布からの事前分布であり、λ およびλ は重み付け係数である方法。
  2. 前記検出されたオブジェクトに対する前記3次元位置を決定することは、SFMキュー、バウンディングボックスキュー、およびオブジェクト検出キューに基づく請求項1に記載の方法。
  3. 前記密な特徴点追跡は、密な強度合わせに基づきオブジェクト姿勢を決定することと、
    エピポーラ誘導オプティカルフローに基づき密な特徴を追跡することと、を含む請求項1に記載の方法。
  4. オブジェクト位置特定の速度を上げるのに動領域抽出および複合推論が使用されない請求項1に記載の方法。
  5. 移動オブジェクト位置特定のシステムであって、
    ビデオフレーム内の検出されたオブジェクトおよび単眼ストラクチャフロムモーション(SFM)情報に基づき前記ビデオフレーム内のグランドプレーンを推定し、密特徴点追跡を使用して前記SFM情報に基づき前記フレーム内のオブジェクトに対するオブジェクト姿勢を計算し、前記推定されたグランドプレーンおよび前記計算されたオブジェクト姿勢に基づき前記検出されたオブジェクトに対する3次元位置を決定するように構成されたプロセッサを備え、
    前記プロセッサは、コスト関数を最小化する3次元バウンディングボックスを見つけるレーベンバーグ−マーカート最適化を使用して前記3次元位置を決定するように構成され、
    前記コスト関数は、
    ε=ε’ SFM +λ ε’ obj +λ ε’ prior
    であり、ここで、ε’ SFM は、SFMからのコストであり、ε’ obj はオブジェクトバウンディングボックスからのコストであり、ε’ prior は前記組み合わされた平滑化およびオブジェクトサイズ事前分布からの事前分布であり、λ およびλ は重み付け係数であるシステム。
  6. 前記プロセッサは、前記検出されたオブジェクトに対する前記3次元位置を、SFMキュー、バウンディングボックスキュー、およびオブジェクト検出キューに基づき決定するように構成される請求項に記載のシステム。
  7. 前記プロセッサは、密な強度合わせに基づきオブジェクト姿勢を決定することと、エピポーラ誘導オプティカルフローに基づき密な特徴を追跡することとによって密な特徴を追跡するように構成される請求項に記載のシステム。
  8. 前記プロセッサは、オブジェクト位置特定の速度を上げるのに動領域抽出および複合推論を使用しないように構成される請求項に記載のシステム。
JP2016573693A 2014-03-06 2015-03-06 高精度単眼移動によるオブジェクト位置特定 Active JP6349418B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201461948981P 2014-03-06 2014-03-06
US61/948,981 2014-03-06
US201562128347P 2015-03-04 2015-03-04
US62/128,347 2015-03-04
US14/639,536 US9367922B2 (en) 2014-03-06 2015-03-05 High accuracy monocular moving object localization
US14/639,536 2015-03-05
PCT/US2015/019094 WO2015134832A1 (en) 2014-03-06 2015-03-06 High accuracy monocular moving object localization

Publications (2)

Publication Number Publication Date
JP2017516238A JP2017516238A (ja) 2017-06-15
JP6349418B2 true JP6349418B2 (ja) 2018-06-27

Family

ID=54017855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016573693A Active JP6349418B2 (ja) 2014-03-06 2015-03-06 高精度単眼移動によるオブジェクト位置特定

Country Status (4)

Country Link
US (1) US9367922B2 (ja)
EP (1) EP3114833B1 (ja)
JP (1) JP6349418B2 (ja)
WO (1) WO2015134832A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10248872B2 (en) 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings
DE102017123228A1 (de) 2017-10-06 2019-04-11 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
CN108427912B (zh) * 2018-02-05 2020-06-05 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
US11295532B2 (en) 2018-11-15 2022-04-05 Samsung Electronics Co., Ltd. Method and apparatus for aligning 3D model
EP3809314A1 (en) * 2019-10-15 2021-04-21 Bentley Systems, Incorporated 3d object detection from calibrated 2d images background
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
EP3852063A1 (en) 2020-01-15 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft A camera system and a method for a characterization of an environment
CN112102411B (zh) * 2020-11-02 2021-02-12 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
US20220180549A1 (en) * 2020-12-08 2022-06-09 Waymo Llc Three-dimensional location prediction from images

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
JP5012615B2 (ja) * 2008-03-27 2012-08-29 ソニー株式会社 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8749630B2 (en) 2010-05-13 2014-06-10 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for automatic objects localization
JP2012127896A (ja) * 2010-12-17 2012-07-05 Kumamoto Univ 移動体位置測定装置
CN103247075B (zh) 2013-05-13 2015-08-19 北京工业大学 基于变分机制的室内环境三维重建方法
US9189689B2 (en) * 2013-10-30 2015-11-17 Nec Laboratories America, Inc. Robust scale estimation in real-time monocular SFM for autonomous driving

Also Published As

Publication number Publication date
JP2017516238A (ja) 2017-06-15
EP3114833A4 (en) 2017-09-06
US20150254834A1 (en) 2015-09-10
EP3114833A1 (en) 2017-01-11
EP3114833B1 (en) 2019-10-16
US9367922B2 (en) 2016-06-14
WO2015134832A1 (en) 2015-09-11

Similar Documents

Publication Publication Date Title
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
US20210190497A1 (en) Simultaneous location and mapping (slam) using dual event cameras
Urban et al. Mlpnp-a real-time maximum likelihood solution to the perspective-n-point problem
JP5548482B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP5539680B2 (ja) 線形特徴を用いた対象追跡
Lee et al. Indoor mapping using planes extracted from noisy RGB-D sensors
Scherer et al. Using depth in visual simultaneous localisation and mapping
WO2022156755A1 (zh) 一种室内定位方法、装置、设备和计算机可读存储介质
KR20150144731A (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Knorr et al. Online extrinsic multi-camera calibration using ground plane induced homographies
Buch et al. Prediction of ICP pose uncertainties using Monte Carlo simulation with synthetic depth images
JPWO2018168255A1 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラム
JP2013205175A (ja) 3次元対象面認識装置および方法、ならびにプログラム
JP2017096813A (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
CN114013449A (zh) 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
WO2019183928A1 (zh) 一种室内机器人定位的方法及机器人
Lee et al. Robust multithreaded object tracker through occlusions for spatial augmented reality
Ha et al. 6-DOF direct homography tracking with extended Kalman filter
Kim et al. Pose initialization method of mixed reality system for inspection using convolutional neural network
US20120050552A1 (en) Rotation Cancellation for Moving Obstacle Detection
US9477890B2 (en) Object detection using limited learned attribute ranges
Liu et al. Algorithm for camera parameter adjustment in multicamera systems

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

R150 Certificate of patent or registration of utility model

Ref document number: 6349418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350