JP6894707B2 - 情報処理装置およびその制御方法、プログラム - Google Patents
情報処理装置およびその制御方法、プログラム Download PDFInfo
- Publication number
- JP6894707B2 JP6894707B2 JP2017001434A JP2017001434A JP6894707B2 JP 6894707 B2 JP6894707 B2 JP 6894707B2 JP 2017001434 A JP2017001434 A JP 2017001434A JP 2017001434 A JP2017001434 A JP 2017001434A JP 6894707 B2 JP6894707 B2 JP 6894707B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- degree
- features
- information processing
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Description
第1実施形態では、現実空間における撮像装置の位置/姿勢の計測について説明する。現実空間における撮像装置の位置/姿勢は、たとえば、複合現実感システムにおける現実空間と仮想物体の位置合わせ、すなわち仮想物体の描画に利用される。複合現実感を体験するユーザは、頭部装着型表示装置HMD(Head-Mounted Display)を装着し、HMDを通して仮想物体が重畳された現実空間を観察する。HMDには撮像装置としてステレオカメラが搭載されており、ステレオカメラが撮像した画像上にステレオカメラの現実空間における位置/姿勢に基づいて描画された仮想物体像が重畳されてユーザに提示される。
画像を撮像する撮像装置1100はステレオカメラに限るものではなく、現実空間の画像を撮像するカメラであればよい。例えば、撮像装置1100は、単眼カメラで構成されても良いし、相対的な位置/姿勢が既知な三台以上のカメラで構成されても良い。また、撮像装置1100はカラー画像を撮像するカメラに限るものではなく、濃淡画像を撮像するカメラであっても良いし、奥行き情報を撮像するカメラであってもよい。但し、単眼カメラを用いる場合には、利用可能性の決定や位置/姿勢の算出に当たって奥行きが必要となるため、例えばKleinらの手法(非特許文献5)を用いてカメラの動きから奥行きを算出することが必要になる。また、位置・姿勢を算出するための画像を撮像する撮像装置とCGが合成される画像を撮像する撮像装置は同一のものであってもよいし、別々のものであってもよい。
第1実施形態では、画像特徴として特徴点を用いた。しかしながら、画像特徴は画像の幾何情報から撮像装置1100の位置/姿勢を算出できるものであれば何でも良い。例えばKotakeらの手法(非特許文献6)のように画像中のエッジを特徴として用いても良い。この場合、特徴保持部130が保持する画像特徴の幾何属性は、例えば、画像上のエッジの両端点の二次元位置とすればよい。また、物体の三次元モデルを画像特徴とし、モデルと入力画像とを比較して撮像装置1100の位置/姿勢を得るKorkaloらの手法(非特許文献7)が用いられてもよい。また、三次元モデルの代わりにマーカを画像特徴とし、マーカに基づく位置姿勢推定であるKatoらの手法(非特許文献2)が用いられても良い。
第1実施形態では、ステップS140の特徴配置決定処理において、正規化相互相関による特徴点のマッチングを用いた。しかしながら、保持特徴と検出特徴の配置の決定に用いられ得る手法はこれに限られるものではなく、画像間での特徴点の対応関係を見つけることができるものであれば何でもよい。例えば、Loweの手法であるSIFT特徴量のマッチング(非特許文献9)が用いられてもよい。また、例えば、特徴量記述が用いられても良い。また、例えばTomasiらの手法(非特許文献10)のように、前フレームの特徴から直接現フレームの特徴の配置が算出(追跡)されても良い。また、慣性センサ等を用いて特徴の動きを予測して配置を決定しても良い。その際には、ステップS160において位置姿勢算出を行う際に、保持特徴と入力特徴を改めて対応づける必要がある。対応付けの方法は前述したように正規化相互相関を用いても良いし、SIFTなどの特徴量を用いても良い。
また、第1実施形態では、利用可能性が取り得る値を0か1に限って説明したが、利用可能性は二値である必要はなく、0から1の実数値が保持されても良い。その場合には、ステップS150において利用可能性を決定する際に、近傍として探索された保持特徴のもつ利用可能性の平均を算出し、算出された平均値が閾値以上であれば1、それ以外は0のように決定されても良い。
第1実施形態では、撮像装置1100として画像を撮像するカメラを用いていたが、三次元データを取得できるレンジファインダやToF(Time of Flight)センサなどが用いられても良い。その場合、ステップS130における特徴点の検出では、三次元データからランダムに特徴点が選択されても良いし、何らかのポリシーにのっとって三次元データからキーポイントとなる特徴点が選択されるようにしても良い。或いは、入力した三次元データすべてを特徴点として用いるようにしても良い。また、ステップS140では、SHOT特徴などの三次元特徴記述子を用いたマッチングによって配置を決定しても良いし、ICP(Iterative Closest Point)を用いて配置を決定しても良い。
第1実施形態では、画像入力部150への画像入力は撮像装置1100から直接行われているがこれに限られるものではない。画像入力部150が、ファイルに保存されているデータを読み込むようにしても良い。
第1実施形態で用いられた各種の閾値をユーザが設定するための構成が設けられてもよい。ユーザ設定を可能とする閾値としては、たとえば、
・画像上での特徴点対応付け(ステップS140)において同一特徴点とみなすかどうか判定するための閾値Mth、
・近傍探索時(ステップS150)の二次元画像上の距離の閾値Nthおよび深度差の閾値Dth、
・近傍の保持特徴の利用可能性によって入力特徴の利用可能性を決定する(ステップS150)際の閾値Rthなどが挙げられる。
第1実施形態では、配置決定部120において決定された配置において、検出特徴の近傍にある保持特徴を探索し、近傍に利用可能性の低い保持特徴が多い場合には、その検出特徴の利用可能性が低くなるように決定していた。第2実施形態では、決定した利用可能性をさらに更新することで、位置/姿勢の算出に悪影響を及ぼす特徴をより確実に除外することを可能にする。
第2実施形態では、第1実施形態と同様に利用可能性の値が0もしくは1としたが、第1実施形態の変形例でも述べたように、利用可能性は二値である必要はない。例えば、0から1の実数値が利用可能性の値として保持されても良い。その場合、変形例1−4で述べたように、近傍の保持特徴点の持つ利用可能性の平均値が閾値以上であれば当該検出特徴点の利用可能性を1、それ以外は0に設定するようにしてもよい。但し、これに限られるものではなく、たとえば、ステップS2020において利用可能性を決定する際に、検出特徴点の近傍で探索された保持特徴点の持つ利用可能性の値の平均を当該検出特徴点の利用可能性として決定するようにしてもよい。その場合、ステップS2040での利用可能性の伝播においては、利用可能性が閾値以下である検出特徴点の利用可能性を0にするように再帰的に伝播させるようにしても良い。また、確率伝搬法を用いて利用可能性を計算してもよい。また、利用可能性の値として二値でない値を採用する場合、第1実施形態の変形例で述べた方法と同様に、ステップS160で位置姿勢算出する際の重みとして利用可能性が用いられても良い。
第1実施形態および第2実施形態では、利用可能性の決定は検出特徴点に対してのみ行い、特徴保持部130で保持している保持特徴点の利用可能性が変化することはなかった。第3実施形態では、位置/姿勢の算出結果を基に保持特徴点の利用可能性を更新する。これにより、静止していた物体が動き出すなどの変化が生じた際にも高精度、高安定に位置/姿勢を算出することを可能にする。なお、上述したように、特徴保持部130は、各保持特徴について所定の座標系(たとえば、世界座標系)における三次元位置の座標を保持している。
第3実施形態では、第1実施形態と同様に利用可能性の値を0もしくは1としたが、第1実施形態の変形例で述べたように、利用可能性の値は二値である必要はなく、たとえば0から1の実数値をとるようにしても良い。その場合、保持特徴点に対する利用可能性の更新方法は第1実施形態および第2実施形態で検出特徴に対して実施した処理と同等のものを適用できる。
第3実施形態において、利用可能性更新処理(ステップS365)は、ステップS160(位置/姿勢算出処理)とステップS170(画像合成・表示)の間で実行されるが、これに限られるものではない。ステップS365の利用可能性更新処理は、ステップS160から次に特徴保持部130の情報を用いるステップS140(特徴配置決定処理)の実行前までの間であれば、どこで実行されても良いし、並列処理されても良い。
第3実施形態では、更新部290が、特徴保持部130で保持している保持特徴点と、検出部160で検出した検出特徴点との両方の利用可能性を更新し、特徴保持部130へ入力しているが、これに限られるものではない。たとえば、検出部160で検出された検出特徴点の情報のみを特徴保持部130へ入力し、特徴保持部130によって保持される特徴点を入れ替えるようにしてもよい。これによれば、逐次的に位置/姿勢を算出するオドメトリ処理を実現できる。また、特徴保持部130で保持している保持特徴点を更新するようにしてもよい。このようにすれば、1フレームのみの情報から生成されるためにノイズや誤判定が比較的多くなる新規に検出した特徴の情報を特徴保持部130における保持対象から除外することができ、安定的に位置/姿勢を算出することができる。
Claims (19)
- 現実空間における複数の特徴を入力データから取得する取得手段と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における3次元の位置が既知である特徴に対応付けて保持する保持手段と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、
前記保持手段は、前記現実空間における3次元の位置の経時変化が大きい特徴よりも小さい特徴に、より高い前記度合いを対応付けて保持することを特徴とする情報処理装置。 - 前記決定手段は、前記一つの特徴の位置姿勢算出への利用の可否を2値の前記度合いとして決定することを特徴とする請求項1に記載の情報処理装置。
- 現実空間における複数の特徴を入力データから取得する取得手段と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、
前記決定手段は、前記一つの特徴の近傍にある特徴のうち対応付けられた前記度合いが所定の値より小さいものが所定の割合より多い場合に、前記一つの特徴を利用不可に決定することを特徴とする情報処理装置。 - 現実空間における複数の特徴を入力データから取得する取得手段と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、
前記決定手段は、前記一つの特徴の近傍にある特徴の対応付けられた前記度合いの平均値が所定の値より小さい場合に前記一つの特徴を利用不可に決定することを特徴とする情報処理装置。 - 前記決定手段は、前記一つの特徴の近傍にある特徴において、対応付けられた前記度合いが利用不可である特徴が所定の割合より多い場合に、前記一つの特徴の前記度合いを利用不可に決定し、他の場合に前記一つの特徴の利用可に決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記決定手段は、さらに、前記複数の特徴の各々について、近傍の特徴に基づいて前記度合いが利用不可に決定された特徴の近傍に存在する特徴に対応付けられた前記度合いを利用不可に変更することを特徴とする請求項3に記載の情報処理装置。
- 前記決定手段は、近傍に対応付けられた前記度合いが利用不可に決定された特徴が存在し、近傍の特徴の前記度合いの平均値が所定の閾値以下の場合に、当該特徴に対する前記度合いを利用不可に変更することを特徴とする請求項6に記載の情報処理装置。
- 前記決定手段による特徴の利用不可への前記変更は、再帰的に実行されることを特徴とする請求項6または7に記載の情報処理装置。
- 前記決定手段によって利用可に決定された特徴に基づいて、前記装置の位置姿勢を算出する算出手段と、をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記装置の位置姿勢を算出するための重みとして前記度合いを決定し、
前記算出手段は、前記度合いに基づいて、前記装置の位置姿勢を算出することを特徴とする請求項9に記載の情報処理装置。 - 現実空間における複数の特徴を入力データから取得する取得手段と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、
前記決定手段によって利用可に決定された特徴に基づいて算出された前記装置の位置姿勢に基づいて、前記複数の特徴の前記度合いを更新する更新手段と、を備えることを特徴とする情報処理装置。 - 前記更新手段は、
前記算出された前記装置の位置姿勢に基づいて前記複数の特徴を前記特徴の座標系に投影し、
前記投影された特徴の位置と対応する特徴の位置との差に基づいて前記投影された特徴の前記度合いを更新し、前記複数の特徴のうちの一つの特徴の前記度合いを、投影された前記複数の特徴の配置において前記一つの特徴の近傍に存在している特徴の前記度合いに基づいて更新する、ことを特徴とする請求項11に記載の情報処理装置。 - 算出された前記装置の位置姿勢に基づいて、撮像装置によって撮像した画像に仮想物体の像を合成する画像合成手段と、
前記画像合成手段が合成した画像を表示する表示手段と、をさらに備えることを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。 - 前記入力データを取得した装置は、撮像装置であって、
前記取得手段は、前記入力データとして前記撮像装置によって撮像された画像から前記特徴を取得することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。 - 現実空間における複数の特徴を入力データから取得する取得工程と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における3次元の位置が既知である特徴に対応付けて保持する保持工程と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を有し、
前記保持工程では、前記現実空間における3次元の位置の経時変化が大きい特徴よりも小さい特徴に、より高い前記度合いを対応付けて保持することを特徴とする情報処理方法。 - 現実空間における複数の特徴を入力データから取得する取得工程と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を有し、
前記決定工程では、前記一つの特徴の近傍にある特徴のうち対応付けられた前記度合いが所定の値より小さいものが所定の割合より多い場合に、前記一つの特徴を利用不可に決定することを特徴とする情報処理方法。 - 現実空間における複数の特徴を入力データから取得する取得工程と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を備え、
前記決定工程では、前記一つの特徴の近傍にある特徴の対応付けられた前記度合いの平均値が所定の値より小さい場合に前記一つの特徴を利用不可に決定することを特徴とする情報処理方法。 - 現実空間における複数の特徴を入力データから取得する取得工程と、
前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、
前記決定工程によって利用可に決定された特徴に基づいて算出された前記装置の位置姿勢に基づいて、前記複数の特徴の前記度合いを更新する更新工程と、を有することを特徴とする情報処理方法。 - コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017001434A JP6894707B2 (ja) | 2017-01-06 | 2017-01-06 | 情報処理装置およびその制御方法、プログラム |
US15/861,800 US10861185B2 (en) | 2017-01-06 | 2018-01-04 | Information processing apparatus and method of controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017001434A JP6894707B2 (ja) | 2017-01-06 | 2017-01-06 | 情報処理装置およびその制御方法、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018112790A JP2018112790A (ja) | 2018-07-19 |
JP2018112790A5 JP2018112790A5 (ja) | 2020-02-13 |
JP6894707B2 true JP6894707B2 (ja) | 2021-06-30 |
Family
ID=62783250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017001434A Active JP6894707B2 (ja) | 2017-01-06 | 2017-01-06 | 情報処理装置およびその制御方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10861185B2 (ja) |
JP (1) | JP6894707B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10957068B2 (en) | 2017-01-06 | 2021-03-23 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
CN109708649B (zh) * | 2018-12-07 | 2021-02-09 | 中国空间技术研究院 | 一种遥感卫星的姿态确定方法及系统 |
US11748445B1 (en) | 2019-04-30 | 2023-09-05 | Apple Inc. | Techniques for managing feature maps |
US11410328B1 (en) * | 2019-04-30 | 2022-08-09 | Apple Inc. | Techniques for maintaining feature point maps |
US11288877B2 (en) | 2020-01-10 | 2022-03-29 | 38th Research Institute, China Electronics Technology Group Corp. | Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality |
CN111260793B (zh) * | 2020-01-10 | 2020-11-24 | 中国电子科技集团公司第三十八研究所 | 面向增强和混合现实的远程虚实高精度匹配定位的方法 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348175A (ja) * | 1999-06-08 | 2000-12-15 | Sony Corp | 対応点検出装置及び方法 |
JP2002032741A (ja) * | 2000-07-13 | 2002-01-31 | Sony Corp | 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体 |
US20070140529A1 (en) * | 2005-12-21 | 2007-06-21 | Fujifilm Corporation | Method and device for calculating motion vector between two images and program of calculating motion vector between two images |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
US8903135B2 (en) * | 2010-06-30 | 2014-12-02 | Panasonic Corporation | Stereo image processing apparatus and method of processing stereo image |
WO2012011432A1 (ja) * | 2010-07-20 | 2012-01-26 | 株式会社エヌ・ティ・ティ・ドコモ | 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム |
US8953847B2 (en) * | 2010-10-01 | 2015-02-10 | Saab Ab | Method and apparatus for solving position and orientation from correlated point features in images |
EP2640057B1 (en) * | 2010-11-11 | 2016-07-27 | Panasonic Intellectual Property Corporation of America | Image processing device, image processing method and program |
US8401225B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
JP5530391B2 (ja) | 2011-04-05 | 2014-06-25 | 日本電信電話株式会社 | カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム |
US8842163B2 (en) * | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US9525862B2 (en) * | 2011-08-31 | 2016-12-20 | Metaio Gmbh | Method for estimating a camera motion and for determining a three-dimensional model of a real environment |
JP5820236B2 (ja) * | 2011-10-28 | 2015-11-24 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
JP5680524B2 (ja) * | 2011-12-09 | 2015-03-04 | 株式会社日立国際電気 | 画像処理装置 |
JP6188387B2 (ja) * | 2012-04-17 | 2017-08-30 | パナソニック株式会社 | 視差算出装置及び視差算出方法 |
JP6107081B2 (ja) * | 2012-11-21 | 2017-04-05 | 富士通株式会社 | 画像処理装置、画像処理方法及びプログラム |
EP2951783B1 (en) * | 2013-02-04 | 2019-04-03 | Harman International Industries, Inc. | Method and system for detecting moving objects |
US10055013B2 (en) * | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
JP6237326B2 (ja) * | 2014-02-25 | 2017-11-29 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
US9779331B2 (en) * | 2014-04-24 | 2017-10-03 | Conduent Business Services, Llc | Method and system for partial occlusion handling in vehicle tracking using deformable parts model |
JP6405891B2 (ja) * | 2014-10-29 | 2018-10-17 | 富士通株式会社 | 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム |
CN107430841B (zh) * | 2015-03-31 | 2021-03-09 | 索尼公司 | 信息处理设备、信息处理方法、程序以及图像显示系统 |
JP6502485B2 (ja) * | 2015-05-21 | 2019-04-17 | オリンパス株式会社 | 撮像装置 |
JP6493877B2 (ja) | 2015-08-25 | 2019-04-03 | 富士フイルム株式会社 | 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム |
JPWO2017060951A1 (ja) * | 2015-10-05 | 2018-07-05 | 株式会社日立製作所 | 画像圧縮装置、画像復号装置、および画像処理方法 |
TWI587246B (zh) * | 2015-11-20 | 2017-06-11 | 晶睿通訊股份有限公司 | 影像物件判別方法及其具有影像物件判別功能的攝影系統 |
US10095928B2 (en) * | 2015-12-22 | 2018-10-09 | WorldViz, Inc. | Methods and systems for marker identification |
WO2017199285A1 (ja) * | 2016-05-16 | 2017-11-23 | オリンパス株式会社 | 画像処理装置及び画像処理方法 |
GB2552648B (en) * | 2016-07-22 | 2020-09-16 | Imperial College Sci Tech & Medicine | Estimating dimensions for an enclosed space using a multi-directional camera |
US9964955B2 (en) * | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
JP2018051728A (ja) * | 2016-09-30 | 2018-04-05 | ファナック株式会社 | 対象物の三次元位置を検出する検出方法および検出装置 |
US10957068B2 (en) * | 2017-01-06 | 2021-03-23 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
US10347001B2 (en) * | 2017-04-28 | 2019-07-09 | 8th Wall Inc. | Localizing and mapping platform |
JP7032871B2 (ja) * | 2017-05-17 | 2022-03-09 | キヤノン株式会社 | 画像処理装置及び画像処理方法、プログラム、記憶媒体 |
US10406645B2 (en) * | 2017-05-24 | 2019-09-10 | Trimble Inc. | Calibration approach for camera placement |
WO2018220711A1 (ja) * | 2017-05-30 | 2018-12-06 | オリンパス株式会社 | 画像処理装置 |
JP6949612B2 (ja) * | 2017-08-09 | 2021-10-13 | キヤノン株式会社 | 動画再生装置およびその制御方法、並びにプログラム |
JP6412998B1 (ja) * | 2017-09-29 | 2018-10-24 | 株式会社Qoncept | 動体追跡装置、動体追跡方法、動体追跡プログラム |
JP2019129371A (ja) * | 2018-01-23 | 2019-08-01 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム |
-
2017
- 2017-01-06 JP JP2017001434A patent/JP6894707B2/ja active Active
-
2018
- 2018-01-04 US US15/861,800 patent/US10861185B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10861185B2 (en) | 2020-12-08 |
US20180197308A1 (en) | 2018-07-12 |
JP2018112790A (ja) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6894707B2 (ja) | 情報処理装置およびその制御方法、プログラム | |
JP6985897B2 (ja) | 情報処理装置およびその制御方法、プログラム | |
JP6338021B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US11037325B2 (en) | Information processing apparatus and method of controlling the same | |
Klein et al. | Parallel tracking and mapping for small AR workspaces | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
WO2017041731A1 (en) | Markerless multi-user multi-object augmented reality on mobile devices | |
Gee et al. | Real-time model-based SLAM using line segments | |
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6503906B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN110568447A (zh) | 视觉定位的方法、装置及计算机可读介质 | |
Vidas et al. | Real-time mobile 3D temperature mapping | |
JP2004213332A (ja) | キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具 | |
JP6744747B2 (ja) | 情報処理装置およびその制御方法 | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP2011085971A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム | |
JP6860620B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019190974A (ja) | キャリブレーション装置、キャリブレーション方法、及びプログラム | |
JP6061770B2 (ja) | カメラ姿勢推定装置及びそのプログラム | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
JP2017011328A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP4938748B2 (ja) | 画像認識装置及びプログラム | |
WO2019013162A1 (ja) | 情報処理装置、情報処理方法 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191226 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210604 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6894707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |