JP2006091011A - マルチビュー視差表示 - Google Patents
マルチビュー視差表示 Download PDFInfo
- Publication number
- JP2006091011A JP2006091011A JP2005259913A JP2005259913A JP2006091011A JP 2006091011 A JP2006091011 A JP 2006091011A JP 2005259913 A JP2005259913 A JP 2005259913A JP 2005259913 A JP2005259913 A JP 2005259913A JP 2006091011 A JP2006091011 A JP 2006091011A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- map
- images
- disparity
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【解決手段】 本発明の画像データ処理法は、(a)同じシーンの複数の画像を提供する(20)ステップと、(b)その複数の画像からの少なくとも2対の画像の対のそれぞれに対して、視差マップを生成する(22)ステップと、(c)それぞれの視差マップを共通座標系の中に変換する(24)ステップと、変換された視差マップをマージしてシーンの奥行き情報に関する単一の表現を提供する(25)ステップとを含む。
【選択図】 図8
Description
画像データの処理方法であって、
(a)1つのシーンの複数の画像を提供するステップ(20)と、
(b)該複数の画像からの少なくとも2対の画像のそれぞれに対して視差マップを生成するステップ(22)と、
(c)各視差マップを共通座標系の中に変換するステップ(24)と、
(d)該変換された視差マップをマージして、該シーンの奥行き情報の単一の表現を提供するステップ(25)と
を包含する、方法。
上記共通座標系は、上記複数の画像のうちの1つの画像の視点の位置を含むことを特徴とする、項目1に記載の方法。
上記複数画像のうちの1つの画像は、上記複数画像の中で最も中央に近い画像であることを特徴とする、項目2に記載の方法。
上記ステップ(c)(24)は、各視差マップに、シア変換およびスケール変換を適用することを包含することを特徴とする、項目1から3のいずれか一項に記載の方法。
上記変換は、上記共通座標系の中の各位置に、複数の視差を生成することを特徴とする、項目1から4のいずれか一項に記載の方法。
上記共通座標系の中の各位置において、上記視差の中の最大のものが選択されることを特徴とする、項目5に記載の方法。
上記単一の表現の中の視差が得られない位置を記録するために、関数が定義されることを特徴とする、項目1から6のいずれか一項に記載の方法。
上記関数は、上記単一の表現の中の視差が得られない各位置に対して、視差の値を生成するために使用されることを特徴とする、項目7に記載の方法。
上記視差の値は、視差の得られない領域の両側の視差の値の間の内挿法によって生成されることを特徴とする、項目8に記載の方法。
上記変換された視差マップのそれぞれは、パラメータを用いて表示されることを特徴とする、項目1から9の何れか一項に記載の方法。
上記パラメータは、視点パラメータ、位置、および変換のスケール係数を含むことを特徴とする、項目10に記載の方法。
各視差マップと上記共通座標系の視差マップとの間の上記変換の上記パラメータは、調査手順を使用して決定されることを特徴とする、項目10または11に記載の方法。
上記調査手順は、各視差マップの点における上記視差の値と、上記共通座標系の上記視差マップとの間の距離の平方を最小化することを包含することを特徴とする、項目12に記載の方法。
上記調査手順は、各視差マップと上記共通座標系の上記視差マップとの相互情報を最大化することを包含することを特徴とする、項目12に記載の方法。
上記相互情報は、各視差マップおよび上記共通座標系の視差マップ内の上記視差の、(i)結合確率分布と、(ii)積確率分布と間の依存度の基準を含むことを特徴とする、項目14に記載の方法。
上記調査は、黄金分割法を含むことを特徴とする、項目13から15のいずれか一項に記載の方法。
上記ステップ(d)の上記単一の表現は、上記変換された視差マップの平均値を含むことを特徴とする、項目1から16のいずれか一項に記載の方法。
上記平均値は、加重平均値であることを特徴とする、項目17に記載の方法。
上記加重は、各視差マップ内の不確実性から導かれることを特徴とする、項目18に記載の方法。
上記加重は、各視差マップのインデックスに基づくことを特徴とする、項目18に記載の方法。
ステレオマッチングアルゴリズムの出力に対して適用されることを特徴とする、項目1から20のいずれか一項に記載の方法。
項目1から21のいずれか一項に記載の方法を包含することを特徴とする、シーンの奥行きマップを生成する方法。
項目1から20のいずれか一項に記載の方法に従って、新しいビューに対する奥行き情報を生成することを包含することを特徴とする、シーンの新しいビューを合成する方法。
項目1から20のいずれか一項に従って得られた、上記変換のパラメータ表示化に関連した整合性基準であって、該整合性基準の値はアルゴリズムの性能を表す整合性基準の最適化を包含することを特徴とする、ステレオマッチングアルゴリズムを評価する方法。
項目24の方法に従った上記アルゴリズムの最適化と、2つあるいはそれ以上の視差マップが、固定された整合性のレベルに到達するまでパラメータ設定を変更することと、を包含することを特徴とする、上記ステレオマッチングアルゴリズムに対するパラメータ設定を決定する方法。
項目1から25のいずれか一項に記載の方法を実行するコンピュータ(33)を制御するプログラム。
記憶媒体(31)に貯蔵される、項目26に記載のプログラム。
項目26に記載のプログラムの、通信ネットワーク(37)を経由しての、送信。
項目1から25のいずれか一項に記載の方法を、実行するためにプログラムされたコンピュータ。
画像データの処理装置であって、
(a)シーンの複数の画像を提供するための手段(1〜6)と、
(b)該複数の画像からの少なくとも2対の画像のそれぞれに対する視差マップ(8)を生成するための手段(7)と、
(c)各視差マップを共通座標系の中に変換するための手段(10)と、
(d)該変換された視差マップ(8)をマージすることにより、該シーンの奥行き情報の単一の表現(9)を提供するための手段(10)と
を備える、装置。
Dn(i,j,tn)≒skDk(i,j,tk)。 [1]
基準視点nはK個のキュクロプス的位置の中から選ばれる。その他のK−1個の視差マップはDnに提携させ(aligned)られる。その他のK−1個の視点との間の平均距離を最小化するために、基準点としては最も「中央」の視点を採ることが自然である。
fk(i,j0)=j0+tkDk(i,j0)。
次に方程式2で定義された関数を、fk(i,j0)をDk(i,j,tk)の中の水平方向位置を決定するために使用して、j0=1....Jの範囲での第2の繰り返し計算により、構成することが出来る。より正確に言えば、j0の個々の値に対して、視差Dk(i,j0)が、fk(i,j0)を直近の整数に丸めることで得られる、新しい位置の値と比較される。2つの視差のうちの大きいほうが、新しい位置に保存される。これは,次のように表記できる;
Dk(i,j,tk)およびDn(i,j,0)の間のアライメントを評価する最も簡明な方法は、Vk(i,j,tk)=1であるすべての有効なな位置(i,j)における、各点ごとの2つの関数の距離を合計することである。それぞれのアライメントの間に、パラメータtkに加えて尺度係数skに関して探査することが可能である。しかし、これは、最適化の手順をより複雑化し、より多くの計算を必要とする。その代わりに、与えられたアライメントにおいてDkの平均値がDnの平均値に等しいことを要求することにより、尺度係数は単純に固定されることが出来る。この方法を選択すれば、以下の定義が導かれる;
この実施形態は、以前に定義された距離最小化手順と対比していくつかの利点を有する。変数dkは、与えられたtkに対して、Dk(i,j,tk)の中の任意の視差であるとし、また、k≠nである変数dnは、Dn(i,j,tn)の中の任意の視差であるとする。ここで、2つの確率分布が定義されることが出来る。それは、結合分布pr(dk,dn)および積分布pr(dk)pr(dn)である。相互情報Hn(Dk,tk)は、2つの分布の間の依存度の尺度として解釈されることが出来る。特に、Dk(i,j,tk)がDn(i,j,0)と独立であるときは、Hn(Dk,tk)=0である。一般に、Hnで評価される依存度は、2つの視差マップが正しく位置合わせされているときには、最大値となる。ビットで計られる相互情報は,つぎのように定義される
図6は図3の中で得られた三つの視差マップの積分を示す。B34の対が基準として用いられ、これに対してB12およびB56がシアされる。Sは変換を示し、wは加重を示し、また「+」は三つの視差マップのマージを示す。図の下部に示す出力は、三つの変換された関数の加重合計である。出力は個々の入力の何れよりも完全である。
7 マッチングユニット
8、9 視差マップ
10 積分ユニット
11 統合ユニット
12 入力
13 表示ユニット
20 シーンの画像を提供するステップ
21 画像の対を選択するステップ
22 視差マップを生成するステップ
23 基準点を選択するステップ
24 視差マップを変換するステプ
25 変換された視差マップをマージするステップ
30 読取り専用記憶装置
31 プログラム記憶装置
32 ランダムアクセス記憶装置
33 中央処理装置
34 画像データ
35 入力/出力装置
36 表示装置
37 通信ネットワーク
Claims (30)
- 画像データの処理方法であって、
(a)1つのシーンの複数の画像を提供するステップ(20)と、
(b)該複数の画像からの少なくとも2対の画像のそれぞれに対して視差マップを生成するステップ(22)と、
(c)各視差マップを共通座標系の中に変換するステップ(24)と、
(d)該変換された視差マップをマージして、該シーンの奥行き情報の単一の表現を提供するステップ(25)と
を包含する、方法。 - 前記共通座標系は、前記複数の画像のうちの1つの画像の視点の位置を含むことを特徴とする、請求項1に記載の方法。
- 前記複数画像のうちの1つの画像は、前記複数画像の中で最も中央に近い画像であることを特徴とする、請求項2に記載の方法。
- 前記ステップ(c)(24)は、各視差マップに、シア変換およびスケール変換を適用することを包含することを特徴とする、請求項1から3のいずれか一項に記載の方法。
- 前記変換は、前記共通座標系の中の各位置に、複数の視差を生成することを特徴とする、請求項1から4のいずれか一項に記載の方法。
- 前記共通座標系の中の各位置において、前記視差の中の最大のものが選択されることを特徴とする、請求項5に記載の方法。
- 前記単一の表現の中の視差が得られない位置を記録するために、関数が定義されることを特徴とする、請求項1から6のいずれか一項に記載の方法。
- 前記関数は、前記単一の表現の中の視差が得られない各位置に対して、視差の値を生成するために使用されることを特徴とする、請求項7に記載の方法。
- 前記視差の値は、視差の得られない領域の両側の視差の値の間の内挿法によって生成されることを特徴とする、請求項8に記載の方法。
- 前記変換された視差マップのそれぞれは、パラメータを用いて表示されることを特徴とする、請求項1から9の何れか一項に記載の方法。
- 前記パラメータは、視点パラメータ、位置、および変換のスケール係数を含むことを特徴とする、請求項10に記載の方法。
- 各視差マップと前記共通座標系の視差マップとの間の前記変換の前記パラメータは、調査手順を使用して決定されることを特徴とする、請求項10または11に記載の方法。
- 前記調査手順は、各視差マップの点における前記視差の値と、前記共通座標系の前記視差マップとの間の距離の平方を最小化することを包含することを特徴とする、請求項12に記載の方法。
- 前記調査手順は、各視差マップと前記共通座標系の前記視差マップとの相互情報を最大化することを包含することを特徴とする、請求項12に記載の方法。
- 前記相互情報は、各視差マップおよび前記共通座標系の視差マップ内の前記視差の、(i)結合確率分布と、(ii)積確率分布と間の依存度の基準を含むことを特徴とする、請求項14に記載の方法。
- 前記調査は、黄金分割法を含むことを特徴とする、請求項13から15のいずれか一項に記載の方法。
- 前記ステップ(d)の前記単一の表現は、前記変換された視差マップの平均値を含むことを特徴とする、請求項1から16のいずれか一項に記載の方法。
- 前記平均値は、加重平均値であることを特徴とする、請求項17に記載の方法。
- 前記加重は、各視差マップ内の不確実性から導かれることを特徴とする、請求項18に記載の方法。
- 前記加重は、各視差マップのインデックスに基づくことを特徴とする、請求項18に記載の方法。
- ステレオマッチングアルゴリズムの出力に対して適用されることを特徴とする、請求項1から20のいずれか一項に記載の方法。
- 請求項1から21のいずれか一項に記載の方法を包含することを特徴とする、シーンの奥行きマップを生成する方法。
- 請求項1から20のいずれか一項に記載の方法に従って、新しいビューに対する奥行き情報を生成することを包含することを特徴とする、シーンの新しいビューを合成する方法。
- 請求項1から20のいずれか一項に従って得られた、前記変換のパラメータ表示化に関連した整合性基準であって、該整合性基準の値はアルゴリズムの性能を表す整合性基準の最適化を包含することを特徴とする、ステレオマッチングアルゴリズムを評価する方法。
- 請求項24の方法に従った前記アルゴリズムの最適化と、2つあるいはそれ以上の視差マップが、固定された整合性のレベルに到達するまでパラメータ設定を変更することと、を包含することを特徴とする、前記ステレオマッチングアルゴリズムに対するパラメータ設定を決定する方法。
- 請求項1から25のいずれか一項に記載の方法を実行するコンピュータ(33)を制御するプログラム。
- 記憶媒体(31)に貯蔵される、請求項26に記載のプログラム。
- 請求項26に記載のプログラムの、通信ネットワーク(37)を経由しての、送信。
- 請求項1から25のいずれか一項に記載の方法を、実行するためにプログラムされたコンピュータ。
- 画像データの処理装置であって、
(a)シーンの複数の画像を提供するための手段(1〜6)と、
(b)該複数の画像からの少なくとも2対の画像のそれぞれに対する視差マップ(8)を生成するための手段(7)と、
(c)各視差マップを共通座標系の中に変換するための手段(10)と、
(d)該変換された視差マップ(8)をマージすることにより、該シーンの奥行き情報の単一の表現(9)を提供するための手段(10)と
を備える、装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0420575A GB2418314A (en) | 2004-09-16 | 2004-09-16 | A system for combining multiple disparity maps |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006091011A true JP2006091011A (ja) | 2006-04-06 |
Family
ID=33306660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005259913A Pending JP2006091011A (ja) | 2004-09-16 | 2005-09-07 | マルチビュー視差表示 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7567703B2 (ja) |
JP (1) | JP2006091011A (ja) |
GB (1) | GB2418314A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146034A (ja) * | 2007-12-12 | 2009-07-02 | National Institute Of Information & Communication Technology | 多視点画像奥行値抽出装置、その方法およびそのプログラム |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2010533338A (ja) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | 2次元画像からの3次元オブジェクト認識システム及び方法 |
JP2011221988A (ja) * | 2010-03-24 | 2011-11-04 | National Institute Of Advanced Industrial & Technology | ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム |
WO2012063376A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | ステレオ画像処理装置、ステレオ画像処理方法及びプログラム |
JP2014011526A (ja) * | 2012-06-28 | 2014-01-20 | Sony Corp | 画像処理装置、撮像装置および画像処理方法 |
JP2017520050A (ja) * | 2014-06-19 | 2017-07-20 | クアルコム,インコーポレイテッド | 局所的適応ヒストグラム平坦化 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7684643B2 (en) * | 2004-10-26 | 2010-03-23 | Siemens Medical Solutions Usa, Inc. | Mutual information regularized Bayesian framework for multiple image restoration |
US7471292B2 (en) * | 2005-11-15 | 2008-12-30 | Sharp Laboratories Of America, Inc. | Virtual view specification and synthesis in free viewpoint |
KR101345303B1 (ko) * | 2007-03-29 | 2013-12-27 | 삼성전자주식회사 | 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치 |
JP5561781B2 (ja) * | 2008-01-29 | 2014-07-30 | トムソン ライセンシング | 2d画像データを立体画像データに変換する方法およびシステム |
CA2719670C (en) | 2008-04-10 | 2020-03-24 | Benjamin Mccallister | Method and apparatus for content replacement in live production |
WO2009125883A1 (en) * | 2008-04-10 | 2009-10-15 | Hankuk University Of Foreign Studies Research And Industry-University Cooperation Foundation | Image reconstruction |
JP5346076B2 (ja) | 2008-04-25 | 2013-11-20 | トムソン ライセンシング | 奥行きを用いた視点間スキップモード |
EP2120209A1 (en) | 2008-05-14 | 2009-11-18 | Thomson Licensing | Apparatus for evaluating images from a multi camera cystem, multi camera system and process for evaluating |
JP5425897B2 (ja) * | 2008-05-28 | 2014-02-26 | トムソン ライセンシング | 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法 |
US20110169818A1 (en) * | 2010-01-13 | 2011-07-14 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort |
JP5641200B2 (ja) * | 2010-05-28 | 2014-12-17 | ソニー株式会社 | 画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体 |
WO2012078636A1 (en) | 2010-12-07 | 2012-06-14 | University Of Iowa Research Foundation | Optimal, user-friendly, object background separation |
US20140035909A1 (en) * | 2011-01-20 | 2014-02-06 | University Of Iowa Research Foundation | Systems and methods for generating a three-dimensional shape from stereo color images |
EP2665406B1 (en) | 2011-01-20 | 2021-03-10 | University of Iowa Research Foundation | Automated determination of arteriovenous ratio in images of blood vessels |
US9451232B2 (en) * | 2011-09-29 | 2016-09-20 | Dolby Laboratories Licensing Corporation | Representation and coding of multi-view images using tapestry encoding |
US8605993B2 (en) * | 2011-11-21 | 2013-12-10 | Robo-team Ltd. | Methods and systems of merging depth data from a plurality of disparity maps |
US9014463B2 (en) * | 2011-11-25 | 2015-04-21 | Kyungpook National University Industry-Academic Cooperation Foundation | System for real-time stereo matching |
WO2013079660A1 (en) | 2011-11-30 | 2013-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Disparity map generation including reliability estimation |
US9545196B2 (en) | 2012-05-04 | 2017-01-17 | University Of Iowa Research Foundation | Automated assessment of glaucoma loss from optical coherence tomography |
DE102012209316A1 (de) * | 2012-06-01 | 2013-12-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems |
US9633428B2 (en) * | 2012-06-29 | 2017-04-25 | Analogic Corporation | Automatic occlusion region identification using radiation imaging modality |
US9240048B2 (en) | 2012-11-30 | 2016-01-19 | Adobe Systems Incorporated | Depth estimation using three-dimensional epipolar data structures |
US9214025B2 (en) * | 2012-11-30 | 2015-12-15 | Adobe Systems Incorporated | Depth estimation using normalized displacement of image pairs |
CN103235478B (zh) * | 2012-12-19 | 2017-04-12 | 乔楠 | 用于环幕立体摄像的系统、设备、图像处理方法及装置 |
US9609305B1 (en) * | 2013-03-13 | 2017-03-28 | Amazon Technologies, Inc. | Feature-based rectification of stereo cameras |
US10360672B2 (en) | 2013-03-15 | 2019-07-23 | University Of Iowa Research Foundation | Automated separation of binary overlapping trees |
US8983774B2 (en) | 2013-07-09 | 2015-03-17 | Qualcomm Incorporated | Intelligent map combination for venues enabling indoor positioning |
US10410355B2 (en) | 2014-03-21 | 2019-09-10 | U.S. Department Of Veterans Affairs | Methods and systems for image analysis using non-euclidean deformed graphs |
WO2016092532A1 (en) * | 2014-12-09 | 2016-06-16 | Inuitive Ltd. | A method for determining depth for stereoscopic reconstruction of three dimensional images |
US10853625B2 (en) | 2015-03-21 | 2020-12-01 | Mine One Gmbh | Facial signature methods, systems and software |
EP3274986A4 (en) | 2015-03-21 | 2019-04-17 | Mine One GmbH | METHODS, SYSTEMS, AND SOFTWARE FOR VIRTUAL 3D |
US10115194B2 (en) | 2015-04-06 | 2018-10-30 | IDx, LLC | Systems and methods for feature detection in retinal images |
WO2017014691A1 (en) * | 2015-07-17 | 2017-01-26 | Heptagon Micro Optics Pte. Ltd. | Generating a distance map based on captured images of a scene |
US10699476B2 (en) | 2015-08-06 | 2020-06-30 | Ams Sensors Singapore Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
WO2017030507A1 (en) | 2015-08-19 | 2017-02-23 | Heptagon Micro Optics Pte. Ltd. | Generating a disparity map having reduced over-smoothing |
CN107677682B (zh) * | 2017-11-07 | 2024-03-08 | 泉州创力模具有限公司 | 一种鞋模表面破损检测装置及检测方法 |
CN111383170B (zh) * | 2018-12-28 | 2023-08-15 | 广州市百果园网络科技有限公司 | 图片关键点的调整方法、装置及终端 |
EP3832601A4 (en) * | 2019-03-14 | 2022-03-16 | OMRON Corporation | IMAGE PROCESSING DEVICE AND THREE-DIMENSIONAL MEASUREMENT SYSTEM |
JP7426413B2 (ja) | 2019-05-23 | 2024-02-01 | マジック リープ, インコーポレイテッド | ブレンドモード3次元ディスプレイシステムおよび方法 |
US11386529B2 (en) | 2019-12-06 | 2022-07-12 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
CN112129262B (zh) * | 2020-09-01 | 2023-01-06 | 珠海一微半导体股份有限公司 | 一种多摄像头组的视觉测距方法及视觉导航芯片 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07260446A (ja) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | 画像処理装置 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP2002296019A (ja) * | 2001-03-30 | 2002-10-09 | Iwate Prefecture | 3次元形状計測システム |
JP2003050110A (ja) * | 2001-08-07 | 2003-02-21 | Minolta Co Ltd | 3次元形状データ生成システム、3次元形状データ生成方法、プログラム、および記録媒体 |
JP2003065737A (ja) * | 2001-08-28 | 2003-03-05 | Topcon Corp | 表面形状測定装置及びその方法、並びに表面状態図化装置 |
JP2004042737A (ja) * | 2002-07-10 | 2004-02-12 | Fuji Heavy Ind Ltd | 踏切監視装置および踏切監視方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5917937A (en) * | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
US6507665B1 (en) * | 1999-08-25 | 2003-01-14 | Eastman Kodak Company | Method for creating environment map containing information extracted from stereo image pairs |
JP3728160B2 (ja) * | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
-
2004
- 2004-09-16 GB GB0420575A patent/GB2418314A/en not_active Withdrawn
-
2005
- 2005-09-07 JP JP2005259913A patent/JP2006091011A/ja active Pending
- 2005-09-15 US US11/227,508 patent/US7567703B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07260446A (ja) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | 画像処理装置 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP2002296019A (ja) * | 2001-03-30 | 2002-10-09 | Iwate Prefecture | 3次元形状計測システム |
JP2003050110A (ja) * | 2001-08-07 | 2003-02-21 | Minolta Co Ltd | 3次元形状データ生成システム、3次元形状データ生成方法、プログラム、および記録媒体 |
JP2003065737A (ja) * | 2001-08-28 | 2003-03-05 | Topcon Corp | 表面形状測定装置及びその方法、並びに表面状態図化装置 |
JP2004042737A (ja) * | 2002-07-10 | 2004-02-12 | Fuji Heavy Ind Ltd | 踏切監視装置および踏切監視方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533338A (ja) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | 2次元画像からの3次元オブジェクト認識システム及び方法 |
JP2009146034A (ja) * | 2007-12-12 | 2009-07-02 | National Institute Of Information & Communication Technology | 多視点画像奥行値抽出装置、その方法およびそのプログラム |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2011221988A (ja) * | 2010-03-24 | 2011-11-04 | National Institute Of Advanced Industrial & Technology | ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム |
CN102625904A (zh) * | 2010-11-10 | 2012-08-01 | 松下电器产业株式会社 | 立体图像处理装置、立体图像处理方法及程序 |
JP2012103109A (ja) * | 2010-11-10 | 2012-05-31 | Panasonic Corp | ステレオ画像処理装置、ステレオ画像処理方法及びプログラム |
WO2012063376A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | ステレオ画像処理装置、ステレオ画像処理方法及びプログラム |
US8488872B2 (en) | 2010-11-10 | 2013-07-16 | Panasonic Corporation | Stereo image processing apparatus, stereo image processing method and program |
CN102625904B (zh) * | 2010-11-10 | 2015-07-08 | 松下电器产业株式会社 | 立体图像处理装置、立体图像处理方法及程序 |
JP2014011526A (ja) * | 2012-06-28 | 2014-01-20 | Sony Corp | 画像処理装置、撮像装置および画像処理方法 |
US9715734B2 (en) | 2012-06-28 | 2017-07-25 | Sony Corporation | Image processing apparatus, imaging apparatus, and image processing method |
US10043290B2 (en) | 2012-06-28 | 2018-08-07 | Sony Corporation | Image processing to enhance distance calculation accuracy |
JP2017520050A (ja) * | 2014-06-19 | 2017-07-20 | クアルコム,インコーポレイテッド | 局所的適応ヒストグラム平坦化 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
Also Published As
Publication number | Publication date |
---|---|
US7567703B2 (en) | 2009-07-28 |
GB0420575D0 (en) | 2004-10-20 |
GB2418314A (en) | 2006-03-22 |
US20060056727A1 (en) | 2006-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006091011A (ja) | マルチビュー視差表示 | |
Wells III | Statistical approaches to feature-based object recognition | |
EP1303839B1 (en) | System and method for median fusion of depth maps | |
Dall'Asta et al. | A comparison of semiglobal and local dense matching algorithms for surface reconstruction | |
US20020048395A1 (en) | Image conversion and encoding techniques | |
CN102510506A (zh) | 一种基于双目图像和距离信息的虚实遮挡处理方法 | |
US8036454B2 (en) | Information processing system | |
US11651581B2 (en) | System and method for correspondence map determination | |
CN101996416A (zh) | 3d人脸捕获方法和设备 | |
US7251356B2 (en) | Method for estimation of fundamental matrix in implementing a stereo vision | |
US7477769B2 (en) | Data processing method usable for estimation of transformed signals | |
Rottensteiner | Consistent estimation of building parameters considering geometric regularities by soft constraints | |
JP4836065B2 (ja) | エッジトラッキング方法及びそのコンピュータプログラム | |
Harms et al. | Accuracy analysis of surface normal reconstruction in stereo vision | |
Calderon et al. | Depth map estimation in light fields using an stereo-like taxonomy | |
Shmuel et al. | Occulsions and Perspective in an Image Sequence | |
Rupnik et al. | Towards structureless bundle adjustment with two-and three-view structure approximation | |
JP4153322B2 (ja) | 写真測量における計測点の対応付け方法及び装置 | |
Ruichek et al. | Towards real-time obstacle detection using a hierarchical decomposition methodology for stereo matching with a genetic algorithm | |
Petillot et al. | 3d large-scale seabed reconstruction for uuv simultaneous localization and mapping | |
Mariş et al. | A Comparative Study of Block Matching Optical Flow Algorithms. | |
Shin et al. | Evaluation of close-range stereo matching algorithms using stereoscopic measurements | |
Al-Osaimi | A sparse branch and bound optimization of noisy weighted DAG modification under constraints: A method for monocular data association to multiple laser planes | |
Chaohui et al. | Efficient stereo disparity estimation for intermediate view synthesis | |
Ruichek et al. | Global techniques for edge based stereo matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100805 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101227 |