JP5952001B2 - 深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム - Google Patents

深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム Download PDF

Info

Publication number
JP5952001B2
JP5952001B2 JP2012009590A JP2012009590A JP5952001B2 JP 5952001 B2 JP5952001 B2 JP 5952001B2 JP 2012009590 A JP2012009590 A JP 2012009590A JP 2012009590 A JP2012009590 A JP 2012009590A JP 5952001 B2 JP5952001 B2 JP 5952001B2
Authority
JP
Japan
Prior art keywords
camera
depth
plane
intersection
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012009590A
Other languages
English (en)
Other versions
JP2012151851A (ja
Inventor
宣 ▲みん▼ 李
宣 ▲ミン▼ 李
李 榮 範
榮 範 李
慶 桓 金
慶 桓 金
尚 ▲う▼ 金
尚 ▲う▼ 金
金 道 均
道 均 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012151851A publication Critical patent/JP2012151851A/ja
Application granted granted Critical
Publication of JP5952001B2 publication Critical patent/JP5952001B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、カメラのモーションをリアルタイムで推定するための技術に関する。
拡張現実(Augmented Reality)は、現実の世界に仮想のオブジェクトを重複してみせる技術である。一般的に、現実の世界はビデオカメラなどによって獲得された映像を用いる。ビデオ映像に仮想オブジェクトを視感的な差なしに重複して表すためには、撮影されたビデオ映像と同じ視点で仮想オブジェクトを整合し、ビデオカメラが動くたびに仮想オブジェクトの方向および位置を更新しなければならない。そのためにはビデオカメラの方向および位置をリアルタイムで確認しなければならない。
従来におけるカメラモーション(方向および位置)を推定する方法として、大部分の光の波長に対する強度信号を検出するカメラセンサで出力された映像(以下、カラー映像)を対象にする。フレームごとにカメラモーションを推定するためには、カラー映像で特徴的な成分(例えば、点または線)の集合を抽出し、隣接したフレームで特徴成分のカラー映像内の位置情報を比較して算出する方式を用いる。このとき、特徴的な成分を抽出するためには周辺の画素値と著しく異なる点や線を抽出するため、各画素のカラー(あるいは明度(intensity))値を用いる。
しかし、従来の技術によると、三次元空間上の同一な点はフレームごとに同一あるいは類似のカラー値を有していることを前提とする。そのために照明環境が急激に変化する場合には前フレームで抽出された特徴成分が現フレームで抽出されないか、または特徴成分を記述する記述子(descriptor)の特性が変化することから2つの特徴成分間の正確なマッチングが保障されないなど、カメラモーションの推定が失敗する可能性が大きい。また、隣接の画素と区別される特徴的な画素が少ない場合にも(類似パターンテクスチャの反復、または同一のカラーからなる領域など)カメラモーションの推定が困難である。
本発明の目的は、照明環境が動的に変化したり、空間内のテクスチャ状態に関係なくカメラモーションを推定することにある。
本発明の目的は、現実の空間上に多く存在する平面情報を深さカメラから抽出し、抽出された平面情報を用いて各平面に対する特徴点を算出することによって、カメラモーションの推定に活用することにある。
本発明の目的は、拡張現実、混合現実、ロボット掃除機、ロボット自動走行、乗り物(vehicle)の自動走行、スマートフォン、およびタブレットPCアプリケーションなど、カメラの位置および方向追跡が必須な分野に活用することにある。
本発明の目的は、カラーカメラに基づいたモーション推定技術の限界を克服するために、深さカメラで生成された深さ映像を用いることによって、明度値に基づいたカラー映像ではモーション推定できない場合でも動作可能にすることにある。
本発明に目的は、深さ映像の空間内の平面情報が存在しない場合、微分演算子を深さ映像に適用することによって、回転不変特徴(rotation invariant feature)を有するエッジを抽出することにある。
一実施形態に係るカメラモーション推定装置は、深さ映像の平面情報から交差点を抽出する交差点抽出部と、前記抽出された交差点を用いて前記平面情報に含まれた各平面に関連する特徴点を算出する特徴点検出部と、前記算出された特徴点を用いて前記深さ映像を提供した深さカメラのモーションを抽出するモーション抽出部とを備える。
前記カメラモーション推定装置は、前記深さ映像から平面情報を抽出する平面抽出部をさらに備えてもよい。
前記平面抽出部は、前記深さカメラから獲得したポイントサンプルを3次元方程式に適用させて前記平面情報としての平面集合を定義してもよい。
前記交差点抽出部は、前記平面情報として抽出された平面集合の元素のうち、3つの元素から構成された部分集合を生成し、生成された部分集合内の三平面方程式を表すベクトルをそれぞれ3つずつ抽出し、抽出された3つのベクトルを用いて前記交差点を抽出してもよい。
前記カメラモーション推定装置は、前記平面情報に含まれた2つの平面間の交差線を抽出する交差線抽出部をさらに備えてもよい。
前記特徴点検出部は、前記交差点を基準として前記抽出された交差線に沿って一定の間隔だけ離隔された各平面に関連する特徴点を算出してもよい。
前記特徴点検出部は、前記一定間隔を調整して複数の特徴点を算出してもよい。
前記モーション抽出部は、第1深さカメラから抽出された第1特徴点と第2深さカメラから抽出された第2特徴点とを用いて、前記第1深さカメラと前記第2深さカメラとの間の回転情報または移動情報を算出してもよい。
他の実施形態に係るカメラモーション装置は、第1深さカメラの第1フレームで抽出された第1平面情報に含まれた第1特徴点を算出し、第2深さカメラの第2フレームで抽出された第2平面情報に含まれた第2特徴点を算出する特徴点検出部と、前記第1特徴点と前記第2特徴点を用いて前記第1深さカメラと前記第2深さカメラとの間のモーションを抽出するモーション抽出部とを備えてもよい。
前記交差線抽出部は、前記深さ映像に微分演算子を適用してエッジを抽出してもよい。前記モーション抽出部は、前記抽出されたエッジを用いて前記深さ映像を提供した深さカメラのモーションを抽出してもよい。
一実施形態に係るカメラモーション推定方法は、深さカメラで獲得した深さ映像の平面情報から交差点を抽出するステップと、前記抽出された交差点を用いて前記平面情報に含まれた各平面に関連する特徴点を算出するステップと、前記算出された特徴点を用いて前記深さカメラのモーションを抽出するステップとを含む。
一実施形態に係る拡張現実システムは、深さ映像を生成する深さカメラと、前記生成された深さ映像を用いて前記深さカメラに対するモーションを推定するカメラモーション推定装置と、前記推定されたカメラモーションでカメラポーズを更新するポーズ更新部と、前記更新されたカメラポーズを用いて仮想カメラポーズを更新する仮想カメラポーズ更新部と、前記深さカメラと同じ視点を有するカラーカメラからカラー映像を獲得するカラー映像獲得部と、仮想オブジェクトデータベースを参照して前記更新された仮想カメラポーズと仮想オブジェクトを整合する整合器と、前記獲得したカラー映像と前記整合された仮想オブジェクトとを整合する現実映像/仮想オブジェクト整合部とを備える。
他の実施形態に係る拡張現実システムは、深さ映像を生成する深さカメラと、前記生成された深さ映像を用いて前記深さカメラに対するモーションを推定するカメラモーション推定装置と、前記推定されたカメラモーションでカメラポーズを更新するポーズ更新部と、前記深さカメラと異なる視点を有するカラーカメラからカラー映像を獲得するカラー映像獲得部と、互いに異なる視点を有する前記深さ映像と前記カラー映像を同じ視点を有するように矯正するカメラ矯正部と、前記更新されたカメラポーズと前記カメラ矯正部によって矯正された視点を用いて仮想カメラポーズを更新する仮想カメラポーズ更新部と、仮想オブジェクトデータベースを参照して前記更新された仮想カメラポーズと仮想オブジェクトとを整合する整合器と、前記視点が矯正されたカラー映像と前記整合された仮想オブジェクトとを整合する現実映像/仮想オブジェクト整合部とを備える。
他の実施形態に係るカメラモーション推定装置は、深さ映像に微分演算子を適用してエッジを抽出するエッジ抽出部と、前記抽出されたエッジを用いて前記深さ映像を提供した深さカメラのモーションを抽出するモーション抽出部とを備える。
本発明によると、照明環境が動的に変化したり、空間内のテクスチャ状態に関係なくカメラモーションを推定することができる。
本発明によると、現実の空間上に多く存在する平面情報を深さカメラから抽出し、抽出された平面情報を用いて各平面に対する特徴点を算出することによって、カメラモーションの推定に活用することができる。
本発明によると、拡張現実、混合現実、ロボット掃除機、ロボット自動走行、乗り物の自動走行、スマートフォン、およびタブレットPCアプリケーションなど、カメラの位置および方向追跡が必須な分野に活用することができる。
本発明によると、カラーカメラに基づいたモーション推定技術の限界を克服するために、深さカメラで生成された深さ映像を用いることによって、明度値に基づいたカラー映像ではモーション推定できない場合でも動作可能にすることができる。
本発明によると、深さ映像の空間内の平面情報が存在しない場合、微分演算子を深さ映像に適用することによって、回転不変特徴を有するエッジを抽出する。
カメラモーション推定装置の構成を示すブロック図である。 三平面を含む環境における深さ映像とカラー映像を示す図である。 深さ映像を用いてカメラモーションを推定する一例を示す図である。 深さ映像から抽出された平面情報から交差点と交差線を抽出する一例を示す図である。 同じ視点を有するカラー映像と深さ映像が提供される場合、拡張現実システムで仮想オブジェクトを整合する一例を示すブロック図である。 異なる視点を有するカラー映像と深さ映像が提供される場合、拡張現実システムで仮想オブジェクトを整合する一例を示すブロック図である。 深さ映像から抽出されたカメラモーションを用いてカラー映像に仮想オブジェクトを整合する一例を示す図である。 三平面が物理的に交差しないカラー映像に仮想オブジェクトを整合する一例を示す図である。 上記した平面以外にも実際のオブジェクトが存在するカラー映像に仮想オブジェクトを整合する一例を示す図である。 深さカメラで撮影した深さ映像を用いて仮想オブジェクトを整合する一例を示す図である。 カメラモーションの推定方法の順を示すフローチャートである。 カメラモーション推定装置に対する他の実施形態を示すブロック図である。 カメラモーションの推定方法に対する他の実施形態を示すフローチャートである。
以下、添付の図面および添付の図面に記載された内容を参照して本発明の様々な実施形態を詳説するが、本発明が実施形態によって制限されたり限定されることはない。
カメラモーションを推定するためには映像内の特徴成分を抽出してフレームごとに特徴成分の間のマッチングを通してカメラの方向/位置算出のときに利用しなければならない。しかし、映像から特徴成分を正常に抽出できない場合(テクスチャの不足、反復的なテクスチャパターン、照明が暗かったり明度の差が激しい場合など)にはカメラモーションの抽出が困難である。したがって、カメラモーションの推定の一実施形態の拡張現実システムにおいて、実写ビデオに仮想オブジェクトを重複して表すことができない。したがって、カメラモーションを確実に抽出するためには、人為的に空間内のテクスチャ情報を配置しなければならないなどの制約がある。
本発明ではこのような問題を解決するために、照明条件が変化する場合にカラー映像では同じ地点の画素値は変わるが、深さ映像では照明が変化しても位置が同一であるため同一の値を有する。したがって、カメラモーション推定装置は深さ映像を用いてカメラモーションを推定する方案を提案する。
図1は、カメラモーション推定装置の構成を示すブロック図である。図1を参考すると、カメラモーション推定装置100は、深さ映像獲得部110、平面抽出部120、交差点抽出部130、交差線抽出部140、特徴点検出部150、モーション抽出部160、およびポーズ更新部170を備える。
深さカメラ(depth camera)10は、TOF(Time−Of−Flight)方式で3次元深さ映像を生成する。このような深さカメラ10は、3次元の立体映像を獲得するために活用される。
深さ映像獲得部110は深さカメラ10で生成された深さ映像を獲得する。
図2は、三平面を含む環境における深さ映像とカラー映像を示す図である。図2を参照すると、深さ映像210とカラー映像220は三平面を含んでいる。一般に、深さ映像210は、カラー映像220に比べて照明環境の変化と空間内のテクスチャ状態に影響をあまり受けない。しかし、カラー映像220は照明環境の変化とテクスチャ状態に影響を多く受けるため、カメラモーションの推定に用いることが難い。特に、カラー映像220は、隣接の画素と区別される特徴的な画素が少ない場合にも(類似パターンのテクスチャが反復、または同一のカラーからなる領域など)カメラモーションの推定が難しい。
したがって、カメラモーション推定装置100は深さ映像210を用いてカメラモーションを推定できる。
図2では深さ映像210とカラー映像220が三平面を含む一例を挙げて説明するが、空間上に必ず3つの平面のみが存在するものではなく、単に交差点を求めるために必要な最小の数が3つであるため、説明の便宜のために3つで表記した。すなわち、3つ以上の平面を含む深さ映像210とカラー映像220の場合にも、カメラモーション推定装置100は深さ映像210を用いてカメラモーションの推定を行うことができる。
平面抽出部120は、獲得した深さ映像から平面情報を抽出する。平面抽出部120は、深さカメラ10から獲得したポイントサンプル(point sample)を用いて空間内の全ての平面情報を抽出する。実施形態において、平面抽出部120は、RANSAC(Random Sample Consensus)アルゴリズムを用いて平面情報を抽出する。例えば、平面抽出部120は、ポイントサンプルを3次元方程式に適用して平面情報としての平面集合を定義する。
ここで、Sはj番目のフレームで抽出された全ての平面を元素として有する平面集合、jはフレーム番号、iはj番目のフレームで抽出された平面インデックス、nは全体の平面数である。
交差点抽出部130は平面情報から交差点を抽出する。例えば、交差線抽出部140が平面情報に含まれた複数の平面のうち、2つの平面間の交差線を抽出すると、交差点抽出部130は抽出された交差線の間の交差によって交差点を算出する。このとき、交差線は、初期交差点ではない後で付加的に求める交差点を算出するために算出される。または交差点抽出部130は、以下、式(4)を用いて平面方式から交差点を直接に算出する。
例えば、交差点抽出部130は、平面情報に含まれた3つの平面を用いて三次元空間上における交差点を求めてもよい。一般に、平面間の交差点を求めるためには最小3つの平面が必要である。そのために、交差点抽出部130は、平面集合Sの元素のうち、3つの元素からなる全ての部分集合
の組合せを生成してもよい。
ここで、
はSの部分集合として3つの平面から構成される。jはフレーム番号、a、b、cは
に属する平面インデックス(Sに属する平面)、nは全体の平面数(Sで言及のnと同一)交差点抽出部130は実施形態によって上記の部分集合の数を設定する。
ここで、tは部分集合の数であり、nは全体の平面数である。
交差点抽出部130は上記の部分集合内の三平面方程式を表すベクトルを抽出する。すなわち、交差点抽出部130は、部分集合
内の三平面方程式を表すベクトルをそれぞれ(a、b、c、d)、(a、b、c、d)、(a、b、c、d)といえる。
続いて、交差点抽出部130は、抽出されたベクトルを用いて交差点を抽出する。例えば、交差点抽出部130は、j番目のフレーム上で抽出された部分集合内の三平面の交差点の三次元空間上における座標
(ここで、jはフレーム番号、tは全体の平面数)を式(4)によって求めることができる。
ここで、
は三平面に対するそれぞれの座標値であってもよい。
このとき、
である。
「DET=0」である場合、交差点抽出部130は、3つの平面のうち2つ以上の平面が互いに平行し、平面間の交差点が存在しない場合であるため、算出から除外されてもよい。
特徴点検出部150は、抽出された交差点を用いて平面情報に含まれた各平面に関連する特徴点を算出してもよい。
図3は、深さ映像を用いてカメラモーションを推定する一例を示す図である。図3を参照すると、交差線抽出部140は、平面情報π、π、πに含まれた2つの平面(πとπ、πとπ、πとπ)間の交差線L12、L31、L23を抽出する。
特徴点検出部150は、交差点を基準として抽出された交差線に沿って一定の間隔だけ離隔された各平面に関連する特徴点を算出する。図示すように、2つの平面間には交差線L12、L31、L23が存在する。特徴点検出部150は各交差線に沿って一定の間隔「λ」だけ離れた箇所にある追加的な特徴点

を求めることができる。
ここで、
はπ平面に対する特徴点であり、
はπ平面に対する特徴点であり、
はπ平面に対する特徴点である。
図4は、深さ映像で抽出された平面情報から交差点と交差線を抽出する一例を示す図である。図4を参照すると、交差線抽出部140は平面情報に含まれた3つの平面に対する交差点を求めるため、隣接した2つの平面間の交差線を抽出する410。図面にからは3つの平面が出ているため、交差線抽出部140は3つの交差線を抽出する。交差点抽出部130は、抽出された3つの交差線が接点する中央座標点を交差点として抽出する420。特徴点検出部150は、交差点を基準として抽出された交差線に沿って一定の間隔だけ離隔された各平面に関連する特徴点を算出する430。
このとき、特徴点検出部150は、一定間隔を調整して複数の特徴点を算出する。すなわち、追加的な特徴点の数はλである数のmの三倍数に増加し、抽出された特徴点の総数はnfeauters=1+3mである。図面430において、三平面間の交差線および交差点を用いて追加的に抽出した特徴点を見せ、「m=3」の場合である。このように、特徴点検出部150は、上記のようにj番目のフレームithにおける特徴点を算出し、j+1回目フレームith+1における特徴点を求めることができる。
モーション抽出部160は、算出された特徴点を用いて深さカメラのモーションを抽出する。例えば、モーション抽出部160は、第1深さカメラから抽出された第1特徴点と第2深さカメラから抽出された第2特徴点とを用いて、第1深さカメラと第2深さカメラとの間の回転情報または移動情報を算出する。
実施形態において、第1特徴点はj番目のフレームで抽出された特徴点であり、第2特徴点はj+1回目フレームで抽出された特徴点であってもよい。モーション抽出部160は、2つのフレームj、j+1における特徴点集合
を用いて1深さカメラと第2深さカメラとの間の相対的な回転情報または移動情報を算出する。
ここで、R3x3は回転情報、T3x1は移動情報である。F(Function)は2つの特徴点を整合するための関数である。このとき、2つの特徴点集合を整合するための関数(F)はICP(Iterative Closet Points)のようなアルゴリズムを用いてもよい。
モーション抽出部160は、第1、第2深さカメラ間の変換行列である「RT」を式(7)のように求めることができる。
また、ポーズ更新部170は、変換行列を用いて第1深さカメラと第2深さカメラのポーズを式(8)のように求めることができる。このとき、初期カメラポーズProjは初めてのフレームの深さカメラ座標系に定義してもよく、ワールド座標系と一致すると仮定するとき、基本行列(identity matrix)のように表してもよい。
ここで、Projはj+1回目フレームの深さカメラ座標系、RT−1は変換行列の逆行列、Projはj番目のフレームの深さカメラ座標系である。
このような、カメラモーション推定装置100は、拡張現実システムに適用されて実行されることができる。拡張現実システムは、現実世界に仮想のオブジェクトを重複してみせるものである。
実施形態において、交差線抽出部140は、深さ映像に微分演算子を適用してエッジを直接抽出する。微分演算子は、1次微分演算子(gradient)または2次微分演算子(laplacian)であってもよい。1次微分演算子は、x方向の微分fとy方向の微分fに区分する。
ここで、xはx軸方向深さ映像のピクセル値、yはy軸方向深さ映像のピクセル値であってもよい。
交差線抽出部140は表1に記載されている様々な1次微分演算子を深さ映像に適用することによってエッジを抽出する。
2次微分は1次微分をさらに一回微分する方法である。例えば、交差線抽出部140は、2次微分演算子でラプラシアンマスクを適用する「ラプラシアン演算子」を深さ映像に適用することによってエッジを抽出する。ラプラシアン演算子は、深さ映像における明るさの変化量を測定して変化の大きい部分をエッジとして抽出する方式であり、1次微分する方式に比べて雑音に強いという長所がある。
一例として、交差線抽出部140は、深さ映像の空間内の平面情報が存在しない場合、2次微分演算子を深さ映像に適用することによって、回転不変の特徴(rotation invariant feature)を有するエッジを抽出する。
交差線抽出部140は式(10)の行列を深さ映像に適用することによって、エッジを抽出する。式(10)はエッジを検出するための1つの実施形態であるラプラシアン演算子を実現するためのマスクとして、交差線抽出部140は、ラプラシアン演算子の他にも様々な2次微分演算子(例えば、ガウシアン−ラプラシアン演算子)を用いてエッジを抽出してもよい。
モーション抽出部160は、抽出されたエッジを用いて深さ映像を提供した深さカメラのモーションを抽出する。
図5は、同じ視点を有するカラー映像と深さ映像が提供される場合、拡張現実システムにおいて仮想オブジェクトを整合する一例を示すブロック図である。図5を参照すると、拡張現実システム500は深さカメラ510で獲得した深さ映像をカメラモーション推定装置520に通過させてカメラモーションを推定し、推定されたカメラモーションを用いてポーズ更新部530でカメラポーズを更新する。仮想カメラポーズ更新部560は、ポーズ更新部530から受信された更新のカメラポーズを用いて仮想カメラポーズを更新する。
仮想オブジェクトデータベース580は、整合対象となる仮想オブジェクトを格納している。仮想カメラポーズ更新部560における仮想カメラポーズの更新に応じて整合器570は、仮想オブジェクトデータベース580から仮想オブジェクトを抽出し、抽出された仮想オブジェクトを更新された仮想カメラポーズで整合することができる。
カラー映像獲得部550は、深さカメラ510と同じ視点を有するカラーカメラ540でカラー映像を獲得する。
現実映像/仮想オブジェクト整合部590は、カラー映像と整合された仮想オブジェクトを整合する。
図6は、異なる視点を有するカラー映像と深さ映像が提供される場合、拡張現実システムで仮想オブジェクトを整合する一例を示すブロック図である。図6を参照すると、拡張現実システム600は、深さカメラ601で獲得した深さ映像をカメラモーション推定装置602に通過させ、深さカメラ601のモーションを推定する。
カラー映像獲得部606は、深さカメラ601と異なる視点を有するカラーカメラ605でカラー映像を獲得する。
拡張現実システム600は互いに異なる視点を矯正するために、カメラ矯正部604をさらに備えてもよい。カメラ矯正部604は、視点が互いに異なる深さ映像とカラー映像を同じ視点を有するよう矯正する。
仮想カメラポーズ更新部607は、ポーズ更新部603から更新されたカメラポーズとカメラ矯正部604で矯正された視点を用いて仮想カメラポーズを更新する。
整合器608は、仮想オブジェクトデータベース609を参照して更新された仮想カメラポーズと仮想オブジェクトを整合する。
現実映像/仮想オブジェクト整合部610は、視点が矯正されたカラー映像と整合された仮想オブジェクトを整合する。
図7は、深さ映像から抽出されたカメラモーションを用いてカラー映像に仮想オブジェクトを整合する一例を示す図である。図7を参照すると、拡張現実システムは深さ映像710と、深さ映像710と同じ視点を有するカラー映像720とを整合して整合映像730を生成する。すなわち、整合映像730は、深さ映像710から抽出されたカメラモーション(回転、移動)情報を用いてカラー映像720に仮想オブジェクトのヤカンが重なった映像である。すなわち、カメラの動きが仮想オブジェクトのポーズにも反映されることを意味する。
図8は、三平面が物理的に交差しないカラー映像に仮想オブジェクトを整合する一例を示す図である。図8を参照すると、三平面が空間上で物理的に交差しない場合でも拡張現実システムは深さ映像810と、深さ映像810と同じ視点を有するカラー映像820とを整合して整合映像830を生成する。カラー映像820で確認されるように、照明環境が変化しているもののカメラモーション推定装置100は深さ映像810を用いてカメラモーションを推定することによって、カラー映像820の照明変化が深さ映像810に影響を及ぼさないことから、カメラモーションを正確に推定することができる。
図9は、上記した平面の他にも実際のオブジェクトが存在するカラー映像に仮想オブジェクトを整合する一例を示す図である。図9を参照すると、拡張現実システムは、カラー映像920に実際のオブジェクトが存在する場合でも深さ映像910とカラー映像920とを整合して整合映像930を生成する。すなわち、カラー映像920で確認されるように、実際のオブジェクト(電話機、装飾品)が存在するもののカメラモーション推定装置100は深さ映像910を用いてカメラモーションを推定することによって、カラー映像920に含まれた実際のオブジェクトが深さ映像910に影響を及ぼさないことから、カメラモーションを正確に推定することができる。
図10は、深さカメラで撮影した深さ映像を用いて仮想オブジェクトを整合する一例を示す図である。図10を参照すると、1010は実際空間を示し、1020は深さカメラで撮影した深さ映像を示す。1020では実際空間1010内に平面の他に実際のオブジェクト(電話機)が含まれている。1030は拡張現実システムがカメラモーション推定装置100を用いてカメラモーションを推定することによって、実際のオブジェクト(電話機)と仮想オブジェクト(ヤカン)とを整合した映像である。
図11は、カメラモーションの推定方法の順を示すフローチャートである。図11を参照すると、カメラモーションの推定方法はカメラモーション推定装置100によって実行される。
ステップS1110において、カメラモーション推定装置100は、深さカメラ10で獲得した深さ映像から平面情報を抽出する。例えば、深さ映像は3次元の立体映像であるため、3つの平面が抽出され得る。カメラモーション推定装置100は、深さカメラ10から獲得したポイントサンプルを3次元方程式に適用して平面情報としての平面集合を定義する。
ステップS1120において、カメラモーション推定装置100は、抽出された平面情報に含まれた2つの平面間の交差線を抽出する。平面情報に3つの平面π、π、πが存在する場合、カメラモーション推定装置100は2つの平面(πとπ、πとπ、πとπ)の間の交差線L12、L31、L23を抽出する。
ステップS1130において、カメラモーション推定装置100は、抽出された交差線を用いて交差点を抽出する。例えば、カメラモーション推定装置100は、平面情報として抽出された平面集合の元素のうち3つの元素から構成された部分集合を生成し、生成された部分集合内の三平面方程式を表すベクトルをそれぞれ3つずつ抽出し、抽出された3つのベクトルを用いて交差点を抽出する。
ステップS1140において、カメラモーション推定装置100は、交差点を基準として交差線に沿って各平面に関連する特徴点を算出する。カメラモーション推定装置100は、交差点で交差線に沿って一定間隔(λ)だけ離隔された各平面π、π、πに関連する特徴点
を算出する。
ステップS1150において、カメラモーション推定装置100は、算出された特徴点を用いて深さカメラのモーションを抽出する。カメラモーション推定装置100は、第1深さカメラから抽出された第1特徴点と第2深さカメラから抽出された第2特徴点を用いて、第1深さカメラと第2深さカメラとの間の回転情報と移動情報を算出する。
このようなカメラモーション推定装置100は、照明変化が大きくてフレーム間の同じ特徴点を抽出することができない場合でもカメラモーションの推定技術の活用の範囲を広げることができる。すなわち、カメラモーション推定装置100は、照明が極めて暗くて特徴点が抽出されない場合、均一(homogeneous)な材質(例えば、モノカラー(mono color))からなる空間で特徴点が検索されない場合、反復的なテクスチャパターンによって特徴点間の正確なマッチングが困難である場合など、カメラモーションを推定を適用するとき環境制約の条件を緩和させてカメラモーションの推定技術の活用の範囲を広げることができる。
また、現実空間では壁、底、天井、机などのような平面情報を容易に抽出する。したがって、カメラモーション推定装置100は、現実環境の特徴を用いて複雑な過程を行うことなく、より容易かつ手軽にカメラモーションを推定することができる。
また、カメラモーション推定装置100は、カラーカメラと深さカメラを同時に活用した強い(robust)ハイブリッド(hybrid)カメラモーションの推定システムを開発するとき、深さカメラのモーション抽出モジュールとして利用可能である。
図12は、カメラモーション推定装置に対する他の実施形態を示すブロック図である。図12を参照すると、カメラモーション推定装置1200は、深さ映像獲得部1210、エッジ抽出部1220、モーション抽出部1230、およびポーズ更新部1240を備える。
深さ映像獲得部1210は深さカメラで生成された深さ映像を獲得することができる。
エッジ抽出部1220は、深さ映像に微分演算子を適用してエッジを抽出する。エッジ抽出部1220は、深さ映像に1次微分演算子を適用してエッジを抽出する(式(9)および表1を参考)。すなわち、エッジ抽出部1220は、様々な方式の1次微分演算子(Roberts、Prewitt、Sobel、Frei−chen)を用いてエッジを抽出する。
または、エッジ抽出部1220は、深さ映像に2次微分演算子を適用してエッジを抽出する(式(10)を参考)。2次微分は、1次微分をさらに一回微分する方法である。例えば、エッジ抽出部1220は、2次微分演算子でラプラシアンマスクを適用する「ラプラシアン演算子」を深さ映像に適用することによってエッジを抽出する。ラプラシアン演算子は、深さ映像における明るさの変化量を測定して変化の大きい部分をエッジで抽出する方式であり、1次微分する方式に比べて雑音に強いという長所がある。
一例として、エッジ抽出部1220は、深さ映像の空間内の平面情報が存在しない場合、2次微分演算子を深さ映像に適用することによって、回転不変の特徴を有するエッジを抽出する。
モーション抽出部1230は、抽出されたエッジを用いて深さ映像を提供した深さカメラのモーションを抽出する。
ポーズ更新部1240は、抽出された深さカメラのモーションで深さカメラポーズを更新する。
図13は、カメラモーションの推定方法に対する他の実施形態を示すフローチャートである。
ステップS1310において、カメラモーション推定装置1200は深さ映像に微分演算子を適用してエッジを抽出する。カメラモーション推定装置1200は深さカメラで生成された深さ映像を獲得し、獲得された深さ映像に1次微分演算子または2次微分演算子を適用してエッジを抽出する。
例えば、カメラモーション推定装置1200は、2次微分演算子でラプラシアンマスクを適用する「ラプラシアン演算子」を深さ映像に適用することによってエッジを抽出する。1次微分演算子と2次微分演算子でエッジを抽出する詳しい方法については、式(9)および式(10)によって詳しく説明したため、その説明を省略する。
ステップS1320において、カメラモーション推定装置1200は、エッジを用いて深さ映像を提供した深さカメラのモーションを抽出する。
本発明の実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
100 カメラモーション推定装置
110 深さ映像獲得部
120 平面抽出部
130 交差点抽出部
140 交差線抽出部
150 特徴点検出部
160 モーション抽出部
170 ポーズ更新部

Claims (17)

  1. 深さ映像の平面情報から交差点を抽出する交差点抽出部と、
    前記抽出された交差点を用いて前記平面情報に含まれた各平面に関連する特徴点を算出する特徴点検出部と、
    前記算出された特徴点を用いて前記深さ映像を提供した深さカメラのモーションを抽出するモーション抽出部と、
    前記平面情報に含まれた2つの平面間の交差線を抽出する交差線抽出部と、
    を備え、
    前記特徴点検出部は、前記交差点を基準として前記抽出された交差線に沿って一定の間隔だけ離隔された各平面に関連する特徴点を算出する、
    ことを特徴とするカメラモーション推定装置。
  2. 前記深さ映像から平面情報を抽出する平面抽出部をさらに備えることを特徴とする請求項1に記載のカメラモーション推定装置。
  3. 前記平面抽出部は、前記深さカメラから獲得したポイントサンプルを3次元方程式に適用させて前記平面情報としての平面集合を定義することを特徴とする請求項2に記載のカメラモーション推定装置。
  4. 前記交差点抽出部は、前記平面情報として抽出された平面集合の元素のうち、3つの元素から構成された部分集合を生成し、生成された部分集合内の三平面方程式を表すベクトルをそれぞれ3つずつ抽出し、抽出された3つのベクトルを用いて前記交差点を抽出することを特徴とする請求項1に記載のカメラモーション推定装置。
  5. 前記特徴点検出部は、前記一定間隔を調整して複数の特徴点を算出することを特徴とする請求項に記載のカメラモーション推定装置。
  6. 第1深さカメラの第1フレームで抽出された第1平面情報に含まれた第1特徴点を算出し、第2深さカメラの第2フレームで抽出された第2平面情報に含まれた第2特徴点を算出する特徴点検出部と、
    前記第1特徴点と前記第2特徴点を用いて前記第1深さカメラと前記第2深さカメラとの間のモーションを抽出するモーション抽出部と、
    を備えることを特徴とするカメラモーション推定装置。
  7. 深さカメラポーズを更新するポーズ更新部をさらに備えることを特徴とする請求項に記載のカメラモーション推定装置。
  8. 前記第1深さカメラから獲得した第1ポイントサンプルを3次元方程式に適用させて第1平面集合を定義し、前記第2深さカメラから獲得した第2ポイントサンプルを3次元方程式に適用させて第2平面集合を定義する平面抽出部をさらに備えることを特徴とする請求項に記載のカメラモーション推定装置。
  9. 前記第1平面情報に含まれた2つの平面間の第1交差線を抽出する交差線抽出部と、
    前記抽出された第1交差線を用いて前記第1平面情報として抽出された第1平面集合の元素のうち、3つの元素から構成された第1の部分集合を生成し、生成された第1の部分集合内の三平面方程式を表す第1ベクトルを抽出し、抽出された第1ベクトルを用いて前記第1フレームに関連する交差点を抽出する交差点抽出部と、
    をさらに備えることを特徴とする請求項に記載のカメラモーション推定装置。
  10. 前記特徴点検出部は、前記交差点を基準として前記抽出された第1交差線に沿って一定の間隔だけ離隔された各平面に関連する少なくとも1つ以上の第1特徴点を算出することを特徴とする請求項に記載のカメラモーション推定装置。
  11. 深さカメラで獲得した深さ映像の平面情報から交差点を抽出するステップと、
    前記抽出された交差点を用いて前記平面情報に含まれた各平面に関連する特徴点を算出するステップと、
    前記算出された特徴点を用いて前記深さカメラのモーションを抽出するステップと、
    前記平面情報に含まれた2つの平面間の交差線を抽出するステップと、
    を含み、
    前記各平面に関連する特徴点を算出するステップは、前記交差点を基準として前記抽出された交差線に沿って一定の間隔だけ離隔された少なくとも1つ以上の特徴点を算出するステップを含む、
    ことを特徴とするカメラモーションの推定方法。
  12. 前記深さカメラから獲得したポイントサンプルを3次元方程式に適用させて前記平面情報としての平面集合を定義するステップをさらに含むことを特徴とする請求項11に記載のカメラモーションの推定方法。
  13. 前記交差点を抽出するステップは、
    記抽出された交差線を用いて選択されたi(iは平面の数)個の元素から構成された部分集合を生成するステップと、
    前記生成された部分集合内の前記i個の平面方程式を表すベクトルを抽出するステップと、
    前記抽出されたベクトルを用いて前記i個のn×n(nは自然数)行列を構成し、構成されたn×n行列で前記交差点を抽出するステップと、
    をさらに含むことを特徴とする請求項11に記載のカメラモーションの推定方法。
  14. 前記深さ映像に微分演算子を適用してエッジを抽出するステップをさらに含み、
    前記深さカメラのモーションを抽出するステップは、前記抽出されたエッジを用いて前記深さ映像を提供した深さカメラのモーションを抽出するステップを含むことを特徴とする請求項11に記載のカメラモーションの推定方法。
  15. 深さ映像を生成する深さカメラと、
    前記生成された深さ映像を用いて前記深さカメラに対するモーションを推定するカメラモーション推定装置と、
    前記推定されたカメラモーションでカメラポーズを更新するポーズ更新部と、
    前記更新されたカメラポーズを用いて仮想カメラポーズを更新する仮想カメラポーズ更新部と、
    前記深さカメラと同じ視点を有するカラーカメラからカラー映像を獲得するカラー映像獲得部と、
    仮想オブジェクトデータベースを参照して前記更新された仮想カメラポーズと仮想オブジェクトを整合する整合器と、
    前記獲得したカラー映像と前記整合された仮想オブジェクトとを整合する現実映像/仮想オブジェクト整合部と、
    を備えることを特徴とする拡張現実システム。
  16. 深さ映像を生成する深さカメラと、
    前記生成された深さ映像を用いて前記深さカメラに対するモーションを推定するカメラモーション推定装置と、
    前記推定されたカメラモーションでカメラポーズを更新するポーズ更新部と、
    前記深さカメラと異なる視点を有するカラーカメラからカラー映像を獲得するカラー映像獲得部と、
    互いに異なる視点を有する前記深さ映像と前記カラー映像を同じ視点を有するように矯正するカメラ矯正部と、
    前記更新されたカメラポーズと前記カメラ矯正部によって矯正された視点を用いて仮想カメラポーズを更新する仮想カメラポーズ更新部と、
    仮想オブジェクトデータベースを参照して前記更新された仮想カメラポーズと仮想オブジェクトとを整合する整合器と、
    前記視点が矯正されたカラー映像と前記整合された仮想オブジェクトとを整合する現実映像/仮想オブジェクト整合部と、
    を備えることを特徴とする拡張現実システム。
  17. 第1深さカメラの第1フレームで抽出された第1平面情報に含まれた第1特徴点を算出し、第2深さカメラの第2フレームで抽出された第2平面情報に含まれた第2特徴点を算出するステップと、
    前記第1特徴点と前記第2特徴点を用いて前記第1深さカメラと前記第2深さカメラとの間のモーションを抽出するモーションステップと、
    を備えることを特徴とするカメラモーション推定方法。
JP2012009590A 2011-01-20 2012-01-20 深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム Active JP5952001B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201161434597P 2011-01-20 2011-01-20
US61/434,597 2011-01-20
KR20110015099 2011-02-21
KR10-2011-0015099 2011-02-21
KR1020110032162A KR101758058B1 (ko) 2011-01-20 2011-04-07 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
KR10-2011-0032162 2011-04-07

Publications (2)

Publication Number Publication Date
JP2012151851A JP2012151851A (ja) 2012-08-09
JP5952001B2 true JP5952001B2 (ja) 2016-07-13

Family

ID=46715514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012009590A Active JP5952001B2 (ja) 2011-01-20 2012-01-20 深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム

Country Status (3)

Country Link
US (1) US9304194B2 (ja)
JP (1) JP5952001B2 (ja)
KR (1) KR101758058B1 (ja)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
CN108345006B (zh) * 2012-09-10 2022-04-08 广稹阿马斯公司 捕捉运动场景的设备、装置和系统
JP6065499B2 (ja) * 2012-09-26 2017-01-25 沖電気工業株式会社 情報処理装置、プログラム及び情報処理方法
US9189850B1 (en) * 2013-01-29 2015-11-17 Amazon Technologies, Inc. Egomotion estimation of an imaging device
EP2953098B1 (en) 2013-02-01 2019-03-13 Sony Corporation Information processing device, terminal device, information processing method, and programme
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
KR101518485B1 (ko) * 2013-11-29 2015-05-11 김홍기 지능형 객체 추적 시스템
JP6201148B2 (ja) * 2013-12-20 2017-09-27 パナソニックIpマネジメント株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えた移動体搭載用カメラ及びプログラム
US9761059B2 (en) 2014-01-03 2017-09-12 Intel Corporation Dynamic augmentation of a physical scene
US10270985B2 (en) * 2014-09-03 2019-04-23 Intel Corporation Augmentation of textual content with a digital scene
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
KR102335045B1 (ko) * 2014-10-07 2021-12-03 주식회사 케이티 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치
JP6542524B2 (ja) * 2014-10-29 2019-07-10 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、およびプログラム
US9600892B2 (en) * 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
WO2016095057A1 (en) * 2014-12-19 2016-06-23 Sulon Technologies Inc. Peripheral tracking for an augmented reality head mounted device
JP6715864B2 (ja) * 2015-05-21 2020-07-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像に対する深度マップを決定するための方法及び装置
EP3338136B1 (en) * 2015-08-04 2022-09-14 Yasrebi, Seyed-Nima Augmented reality in vehicle platforms
JP6705636B2 (ja) 2015-10-14 2020-06-03 東芝ライフスタイル株式会社 電気掃除機
KR101817583B1 (ko) * 2015-11-30 2018-01-12 한국생산기술연구원 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
EP3452991A4 (en) * 2016-05-02 2020-01-08 Warner Bros. Entertainment Inc. GEOMETRY ADJUSTMENT IN VIRTUAL REALITY AND EXTENDED REALITY
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
CN108510540B (zh) * 2017-02-23 2020-02-07 杭州海康威视数字技术股份有限公司 立体视觉摄像机及其高度获取方法
US11978011B2 (en) 2017-05-01 2024-05-07 Symbol Technologies, Llc Method and apparatus for object status detection
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US11600084B2 (en) 2017-05-05 2023-03-07 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
AU2017225023A1 (en) * 2017-09-05 2019-03-21 Canon Kabushiki Kaisha System and method for determining a camera pose
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
KR102640871B1 (ko) 2018-10-30 2024-02-27 삼성전자주식회사 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법
KR102098687B1 (ko) * 2018-11-02 2020-04-09 서울대학교산학협력단 영상 모서리 정렬 기반 영상 항법 및 장치
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
CN113286073A (zh) * 2020-02-19 2021-08-20 北京小米移动软件有限公司 拍摄方法、拍摄装置及存储介质
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
WO2022009329A1 (ja) * 2020-07-08 2022-01-13 三菱電機エンジニアリング株式会社 位置合わせ装置及び位置合わせ方法
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
CN112083403B (zh) * 2020-07-21 2023-10-10 青岛小鸟看看科技有限公司 用于虚拟场景的定位追踪误差校正方法及系统
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
KR102399047B1 (ko) 2021-08-12 2022-05-18 (주)에이아이매틱스 자율주행에서의 시각적 속성 추정을 위한 시각 정보 처리 방법 및 시스템

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP4726191B2 (ja) * 2005-02-04 2011-07-20 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法、そのプログラムおよび記憶媒体
JP4769079B2 (ja) * 2005-12-15 2011-09-07 日本放送協会 カメラ情報解析装置
JP4964541B2 (ja) 2006-09-11 2012-07-04 オリンパス株式会社 撮像装置、画像処理装置、撮像システム及び画像処理プログラム
JP2008153741A (ja) 2006-12-14 2008-07-03 Sharp Corp 奥行方向移動判定装置および方法、手ぶれ補正装置、プログラムおよび記録媒体
KR20080105698A (ko) 2007-06-01 2008-12-04 (주)제어와정보 다시점 영상을 이용한 3차원 형상 추정 방법 및 구현
KR101066550B1 (ko) 2008-08-11 2011-09-21 한국전자통신연구원 가상시점 영상 생성방법 및 그 장치
US8179448B2 (en) 2008-08-26 2012-05-15 National Taiwan University Auto depth field capturing system and method thereof
KR101002785B1 (ko) 2009-02-06 2010-12-21 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템
US20100277470A1 (en) 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
JP2012151851A (ja) 2012-08-09
US20120236119A1 (en) 2012-09-20
KR101758058B1 (ko) 2017-07-17
KR20120084635A (ko) 2012-07-30
US9304194B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
JP5952001B2 (ja) 深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
CN108369741B (zh) 用于配准数据的方法和系统
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US20160012588A1 (en) Method for Calibrating Cameras with Non-Overlapping Views
US10957068B2 (en) Information processing apparatus and method of controlling the same
US11842514B1 (en) Determining a pose of an object from rgb-d images
KR20120072009A (ko) 다중 사용자의 인터렉션 인식 장치 및 방법
Kim et al. Planar structures from line correspondences in a manhattan world
CN106530407A (zh) 一种用于虚拟现实的三维全景拼接方法、装置和系统
US20170147609A1 (en) Method for analyzing and searching 3d models
CN110738667A (zh) 一种基于动态场景的rgb-d slam方法和系统
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
CN105335959B (zh) 成像装置快速对焦方法及其设备
Wientapper et al. Composing the feature map retrieval process for robust and ready-to-use monocular tracking
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
KR101039298B1 (ko) 다수의 특징점 기반 마커를 인식하기 위한 순차 검색 방법 및 이를 이용한 증강현실 구현 방법
Ghidoni et al. A multi-viewpoint feature-based re-identification system driven by skeleton keypoints
Islam et al. MVS‐SLAM: Enhanced multiview geometry for improved semantic RGBD SLAM in dynamic environment
CN110009683B (zh) 基于MaskRCNN的实时平面上物体检测方法
JP2017033556A (ja) 画像処理方法及び電子機器
Kalutskiy et al. Method of moving object detection from mobile vision system
KR20230049969A (ko) 글로벌 측위 장치 및 방법
KR102240570B1 (ko) 신장 트리 생성 방법 및 장치,스테레오 매칭 방법 및 장치,업 샘플링 방법 및 장치,및 기준 픽셀 생성 방법 및 장치
Shiratori et al. Detection of pointing position by omnidirectional camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160609

R150 Certificate of patent or registration of utility model

Ref document number: 5952001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250