JP4740657B2 - カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス - Google Patents
カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス Download PDFInfo
- Publication number
- JP4740657B2 JP4740657B2 JP2005180926A JP2005180926A JP4740657B2 JP 4740657 B2 JP4740657 B2 JP 4740657B2 JP 2005180926 A JP2005180926 A JP 2005180926A JP 2005180926 A JP2005180926 A JP 2005180926A JP 4740657 B2 JP4740657 B2 JP 4740657B2
- Authority
- JP
- Japan
- Prior art keywords
- disparity
- image
- segment
- pixel
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 219
- 230000008569 process Effects 0.000 title claims abstract description 154
- 230000011218 segmentation Effects 0.000 title abstract description 24
- 238000009499 grossing Methods 0.000 claims abstract description 31
- 230000009471 action Effects 0.000 claims description 144
- 238000003706 image smoothing Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 5
- 238000007670 refining Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 2
- 238000013459 approach Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- CDFKCKUONRRKJD-UHFFFAOYSA-N 1-(3-chlorophenoxy)-3-[2-[[3-(3-chlorophenoxy)-2-hydroxypropyl]amino]ethylamino]propan-2-ol;methanesulfonic acid Chemical compound CS(O)(=O)=O.CS(O)(=O)=O.C=1C=CC(Cl)=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC(Cl)=C1 CDFKCKUONRRKJD-UHFFFAOYSA-N 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
本発明の好ましい実施形態についての説明を実施する前に、本発明を実装することができる適切なコンピュータ環境について一般的な説明を行う。図1は、適切なコンピュータシステム環境100の一例を示す。コンピュータシステム環境100は、適切なコンピュータ環境の一例に過ぎず、本発明の使用または機能の範囲に関して、いかなる制限を加えることを意図したものでもない。コンピュータ環境100が、典型的な動作環境100に示されたコンポーネントのいずれか、あるいはそれらの組合せに関して、どのような依存性も要件も有していないことを理解されたい。
ここまで典型的な動作環境について論じてきた。このセクションの残りの部分は、本発明を実施するプログラムモジュールの説明に充てる。一般に、本発明によるシステムおよびプロセスは、あるシーンの複数の画像からそのシーンの3次元再構成を計算することを含む。各画像は、様々な視点からキャプチャされ、各々そのシーンのある領域を描写し、少なくとも1枚の他の画像と所定の量(例えば、60〜100%)だけオーバラップしている。複数の画像は、それらがすべて同時にキャプチャされる場合は、動的なシーンの画像であっても良い。その目的で、異なる視点に置かれた複数のカメラを使用することができる。さらに、複数の画像は、異なる視点に置かれた一連のビデオカメラによって生成された、一群の同時にキャプチャされたフレームの形を取ることもできることに留意されたい。これらの画像は静的なシーンの画像であっても良い。その場合には、前と同様に、異なる視点に置かれた一連のカメラを使用することもできるが、シーンが変化しないので、単一のカメラを視点から視点に移動させて複数の画像をキャプチャすることもできる。
セグメンテーションの目標は、各画像を同様のディスパリティーを含むと思われる領域に分割することである。これらの領域またはセグメントは、各セグメントが様々なディスパリティーの領域をカバーする機会を最小にしながらも、ローカルサポートを増大させるために可能な限り大きく取る必要がある。このようなセグメントを生成する際には、一般に同種の色の領域は平滑なディスパリティーを有する、すなわち、一般にディスパリティーの不連続は光強度エッジに一致することが想定される。
セグメンテーションの後の、次のステップは、画像中の各セグメントの初期ディスパリティー空間分布(DSD)を計算することである。DSDとは、画像Iiのセグメントsijについての複数のディスパリティーについての一組の確率値のことである。DSDは、各ディスパリティーにおけるコストまたは尤度とすべての画素とを関連付ける従来のディスパリティー空間画像(DSI)を変形したものである(非特許文献1)。セグメントsijがディスパリティーdを有する確率をpij(d)で表す。ただし、Σdpij(d)=1である。
次のステップは、処理中の一群の画像の各画像における各セグメントのディスパリティー空間分布を繰り返し精緻化することである。これまでのセクションと同様に、各セグメントは単一のディスパリティーを有するものと想定する。
初期セグメントを生成するときには、類似した色を有する隣接画素は類似したディスパリティーを有するべきであるとの経験則を使用する。同じ経験則を使用して、セグメント間のDSDを精緻化する。Sijでセグメントsijの隣接セグメントを表し、
一貫性制約は、異なる画像間のディスパリティーマップが一致すること、すなわち、ディスパリティーdを有する画素が、ある画像から別の画像に投影された場合、その投影もまたディスパリティーdを有するはずであることを保証する。cijk(d)の値を計算して一貫性制約を実施するとき、いくつかの制約が適用される。第1に、あるセグメントのDSDは、他の画像中のそのセグメントを投影するセグメントのDSDと類似している必要があること。第2に、セグメントのDSDは画像間で一致していることが望ましいが、それらがマッチング関数mijk(d)でも一致している必要があること。第3に、セグメントによっては、遮蔽のために他の画像中に対応するセグメントが存在しない場合があることである。
∀x∈sij,d(x)=arg maxd’Pij(d’) (10)
この時点までは、各セグメントのディスパリティーは定数であった。この段階で、この制約が緩和され、各ディスパリティーを、隣接するセグメントおよび画像のディスパリティーに基づいて滑らかに変化させることが許されることになる。
図11(a)〜図11(e)は、本発明の3次元再構成処理の実験した実施形態を使用して得られたいくつかの結果のサンプルを示す。図11(a)は、あるグループの人たちがブレークダンサーを見ている画像である。隣接画像が存在するが図には示されていない。図11(b)は、再構成のセグメンテーションフェーズの結果を示すもので、各斑点は、個々のセグメントを表す。図11(c)は、セグメントの初期DSDの最大確率値に関連するディスパリティーを、そのセグメントの各画素に割り当てることによって得られたディスパリティー推定値から導かれた、画素ごとの奥行を例示したものである。図11(c)〜図11(e)において、画像中の画素が明るいほど、その画素は、元の画像をキャプチャしたカメラに接近しているものと推定されることに留意されたい。図11(d)は、図11(c)と同様に得られたものであるが、本発明の再構成プロセスによりDSD確率値が精緻化された後で得られた画素ごとの奥行を表すものである。最後に、図11(e)は、前述の平滑化手順を実施した後で得られた、画素ごとの奥行を表すものである。連続する各段階で、ディスパリティー推定値が改善されていく様子を確認することができる。
121 システムバス
130 システムメモリ
134 オペレーティングシステム
135 アプリケーションプログラム
136 他のプログラムモジュール
137 プログラムデータ
140 取外し不能不揮発メモリインターフェース
144 オペレーティングシステム
145 アプリケーションプログラム
146 他のプログラムモジュール
147 プログラムデータ
150 取外し可能不揮発メモリインターフェース
160 ユーザ入力インターフェース
161 マウス
162 キーボード
170 ネットワークインターフェース
171 ローカルエリアネットワーク
172 モデム
173 ワイドエリアネットワーク
180 リモートコンピュータ
185 リモートアプリケーションプログラム
190 ビデオインターフェース
191 モニタ
192 カメラ
194 カメラインターフェース
195 出力周辺インターフェース
196 プリンタ
197 スピーカ
Claims (34)
- あるシーンの3次元再構成を、様々な視点からキャプチャされた前記シーンの複数の画像から計算するためのコンピュータに実装された方法であって、コンピュータを使用して実施する、
各画像を、その領域の各画素が類似のディスパリティーを示すものと思われる、前記画像の各領域を表すセグメントに分割するプロセスアクションと、
セグメント内のすべての画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとにディスパリティー空間分布(DSD)を計算するプロセスアクションであって、あるセグメントの前記DSDが、前記セグメント内の各画素が一組のディスパリティー候補の各々に対して個々のディスパリティーを示す尤度を表す確率推定値を含むプロセスアクションと、
各画像の各セグメントごとに、前記DSDの前記ディスパリティー確率の前記推定値を、同一の画像内の隣接セグメントとの間の平滑性制約、および前記シーンの同一部分を描写する他の画像内の対応するセグメントとの間の一貫性制約を同時に実施して精緻化することによって、精緻化されたDSDを生成するプロセスアクションと、
各画像の各セグメントごとに、前記セグメントの前記精緻化されたDSDの最大確率値に対応するディスパリティーを、前記セグメントの各画素に割り当てるプロセスアクションと、
各画像ごとに、各画素に割り当てられた前記ディスパリティーを、前記シーンの同一部分を描写する他の画像内の対応する画素のディスパリティーに基づいて平滑化し、次いで、前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて平滑化するプロセスアクションと
を含むことを特徴とする方法。 - 各画像をセグメントに分割する前記プロセスアクションは、
検討中の画像の各画素を、それぞれのセグメントに割り当てるアクションと、
各画素ごとに順に所定の順序で、前記セグメントの画素の平均色が検討中の画素の色と所定の閾値未満で異なっているときはいつでも、検討中の画素に隣接する所定の数の画素を前記画素に割り当てられた前記セグメントに再割り当てするアクションと、
各セグメントごとに順に、前記セグメントが領域に関する所定の画素数未満かどうかを判定し、前記セグメントが領域に関する前記所定の画素数未満であるときはいつでも、前記セグメントの画素を、検討中のセグメントの平均色に最も近い平均色を有する隣接セグメントに再割り当てするアクションと、
各セグメントごとに順に、前記セグメントが幅方向の所定の画素数を超えているかどうかを判定し、前記セグメントが幅方向の所定の画素数を超えているときはいつでも、前記セグメントを水平方向に必要な数の均等なセグメントに分割して、前記選択されたセグメントの各画素を適切な新しいより幅の狭いセグメントに再割り当てすることによって、前記新しいより幅の狭い各セグメントが幅方向の前記所定の画素数を超えないことを保証するアクションと、
各セグメントごとに順に、前記セグメントが高さ方向の所定の画素数を超えているかどうかを判定し、前記セグメントが高さ方向の所定の画素数を超えているときはいつでも、前記セグメントを垂直方向に必要な数の均等なセグメントに分割して、前記選択されたセグメントの各画素を適切な新しいより背の低いセグメントに再割り当てすることによって、前記新しいより背の低い各セグメントが高さ方向の前記所定の画素数を超えないことを保証するアクションと
を含むことを特徴とする、請求項1に記載の方法。 - 各画像をセグメントに分割する前記プロセスアクションは、前記検討中の画像の各画素をそれぞれのセグメントに割り当てる前記アクションを実施する前に、前記検討中の画像の隣接画素間の色差を平滑化するアクションをさらに含むことを特徴とする、請求項2に記載の方法。
- 前記検討中の画像の隣接画素間の色差を平滑化する前記プロセスアクションは、
各画素ごとにラスター順に、
前記検討中の画素に隣接する所定の数の連続する画素からなる各可能なグループを順に選択するアクションと、
各選択されたグループごとに、前記選択されたグループの各画素の各色成分の光強度を、前記検討中の画素の対応する色成分の光強度から減算し、結果として得られた差の2乗値を加算して前記選択されたグループの総差を生成するアクションと、
最小の総差を示すグループを特定するアクションと、
前記特定されたグループの各画素の色と前記選択された画素の色を平均するアクションと、
結果として得られた平均色を前記選択された画素の現在の色として割り当てるアクションと
を含むことを特徴とする、請求項3に記載の方法。 - 前記色平滑化手順は所定の回数繰り返されることを特徴とする、請求項4に記載の方法。
- 連続する隣接画素の前記所定の数は3であることを特徴とする、請求項4に記載の方法。
- 前記所定の順番はラスター順であることを特徴とする、請求項2に記載の方法。
- 前記所定の数の隣接画素は、4連結隣接画素(4−connectedneighbors)を含むことを特徴とする、請求項2に記載の方法。
- 領域に関する前記所定の画素数は100画素であることを特徴とする、請求項2に記載の方法。
- 幅方向の前記所定の画素数は40画素であり、高さ方向の前記所定の画素数は40画素であることを特徴とする、請求項2に記載の方法。
- 前記セグメントの平均色と前記検討中の画素の色との間の前記所定の差の閾値は8であることを特徴とする、請求項2に記載の方法。
- 各画像の各セグメントごとに前記DSDを計算する前記プロセスアクションは、
(a)一組のディスパリティー候補、および各候補に対する奥行値を確定するアクションと、
(b)ディスパリティー候補を選択するアクションと、
(c)前記検討中の画像の隣接画像を選択するアクションと、
(d)前記検討中のセグメントの各画素ごとに、
前記選択されたディスパリティー候補に関する前記奥行値を用いて前記画素を前記選択された隣接画像に投影して、前記投影された画素に対応する前記隣接画像中の画素を特定し、
対応する画素が特定された場合は、前記投影された画素と前記隣接画像中の前記特定された画素とに関する1つまたは複数の所定の利得比を計算するアクションと、
(e)画素利得比ヒストグラムを生成するアクションと、
(f)前記画素利得比ヒストグラムにおける3つの連続するビンの最大の和を計算するアクションと、
(g)前記計算された和を、前記検討中のセグメントの、前記選択されたディスパリティー候補における前記選択された隣接画像についてのマッチングスコアとして指定するアクションと、
(h)前記検討中の画像の残りの各隣接画像ごとに、アクション(c)から(g)を繰り返すアクションと、
(i)残りの各ディスパリティー候補ごとに、アクション(b)から(h)を繰り返すアクションと、
(j)あるマッチングスコアに関連する各ディスパリティーごとに、前記検討中のディスパリティーで、すべての隣接画像について計算されたマッチングスコアの積を、前記マッチングスコアに関連するあらゆるディスパリティーで、すべての隣接画像について計算されたマッチングスコアの積の和によって除算して、前記ディスパリティーについてのDSD確率を生成するアクションと
を含むことを特徴とする、請求項1に記載の方法。 - 前記複数の利得比は、各投影された画素および前記特定された隣接画像の各画素ごとに計算され、前記各画素に関する各色成分の利得比を含めて比較されることを特徴とする、請求項12に記載の方法。
- 対数スケールを使用して前記画素利得比ヒストグラムの前記各ビンの範囲を確定することを特徴とする、請求項12に記載の方法。
- 前記画素利得比ヒストグラムは20ビンを含むことを特徴とする、請求項14に記載の方法。
- 前記1組のディスパリティー候補と各候補ごとの奥行値を確定する前記プロセスアクションは、
(a)ユーザ指定の最小および最大奥行値を入力するアクションと、
(b)前記ユーザによって指定された前記最小奥行値を用いて、前記複数の画像のうちの視点に関して中央の画像の中心画素を、その隣接画像の1枚に投影するアクションと、
(c)前記最小奥行値を、前記投影された中心画素に対応する隣接画像中の画素に関するパィスパリティーに割り当てるアクションと、
(d)前記中心画素を直前の投影から1ディスパリティーの場所に位置するように投影し、前記現在の中心画素の投影に関する奥行値を確定するアクションと、
(e)前記最後に確定された奥行値が前記ユーザ指定の最大奥行値を超えたかどうかを判定するアクションと、
(f)前記最後に確定された奥行値が前記ユーザ指定の最大奥行値を超えていないときはいつでも、前記最後に確定された奥行値がディスパリティーに割り当てられて、ディスパリティーは直前に割り当てられていたディスパリティーから1ディスパリティーレベル分インクリメントされた値に等しくなるアクションと、
(g)最後に確定された奥行値がユーザ指定の最大奥行を超えたとアクション(e)で判定されるまでアクション(d)から(f)が繰り返され、超えたと判定された時点で、奥行値が割り当てられてきた一連のディスパリティーがディスパリティー候補として指定されるアクションと
を含むことを特徴とする、請求項12に記載の方法。 - 各画像の各セグメントごとに、前記DSDの前記ディスパリティー確率値の前記推定値を精緻化する前記プロセスアクションは、
(a)各画像の各セグメントごとに、精緻化されたディスパリティー確率値を次式を用いて計算するアクションであって、
(b)アクション(a)を所定の回数繰り返すアクションと
を含むことを特徴とする、請求項1に記載の方法。 - 前記所定の回数は50から60の範囲であることを特徴とする、請求項17に記載の方法。
- 各画像の各画素に割り当てられた前記ディスパリティーを平滑化する前記プロセスアクションは画像間平滑化を含み、
前記画像間平滑化は、各画像の各画素ごとに順に、
前記検討中の画像の各隣接画像ごとに、
前記検討中の画素を前記隣接画像に投影し、前記投影された画素に対応する前記隣接画像中の画素を特定するアクションと、
前記検討中の画素に現在割り当てられている前記ディスパリティーと前記隣接画像中の前記対応する画素に割り当てられたディスパリティーの差の絶対値が所定のディスパリティーレベル数未満のときはいつでも、前記投影された画素と前記対応する画素のディスパリティーを平均し、前記平均を、関係する隣接画像に関するディスパリティー因数として前記検討中の画素に割り当てるアクションと、
前記検討中の画素に現在割り当てられている前記ディスパリティーと前記隣接画像中の前記対応する画素に割り当てられているディスパリティーの差の絶対値が所定のディスパリティーレベル数以上のときはいつでも、前記検討中の画素の前記ディスパリティーを、関係する隣接画像に関するディスパリティー因数として割り当てるアクションと、
前記各隣接画像に関して、前記検討中の画素に割り当てられた前記各ディスパリティー因数を加算し、その和を関係する隣接画像の数によって除算し、その結果を前記画素の現在のディスパリティーとして割り当てるアクションと
を含むことを特徴とする、請求項1に記載の方法。 - 各画像の各画素に割り当てられている前記ディスパリティーを平滑化する前記プロセスアクションは画像内平滑化をさらに含み、
前記画像内平滑化は、各画像の各セグメントの各画素ごとに、前記検討中の画素を中心にした所定のサイズの窓の内部の画素で、前記検討中のセグメントの外部には存在しない画素に現在割り当てられている前記ディスパリティーを平均し、前記平均を、前記検討中の画素にその最終ディスパリティーとして割り当てるアクションを含むことを特徴とする、請求項19に記載の方法。 - 前記画像間平滑化および前記画像内平滑化は所定の回数繰り返されることを特徴とする、請求項20に記載の方法。
- 前記所定のサイズの窓は5×5画素の窓であることを特徴とする、請求項21に記載の方法。
- 前記各画像は前記シーンのある部分を描写し、
前記シーンの前記部分は、前記画像のうちの少なくとも1枚の他の画像にキャプチャされた前記シーンの前記部分と、およそ60から100パーセントの範囲でオーバラップすることを特徴とする、請求項1に記載の方法。 - 前記複数の画像は、同時にキャプチャされた動的シーンの画像を表すことを特徴とする、請求項1に記載の方法。
- 前記同時にキャプチャされた画像は、様々な視点に置かれた複数のビデオカメラによってキャプチャされたビデオフレームを含むことを特徴とする、請求項24に記載の方法。
- 前記複数の画像は、様々な視点に置かれた複数のカメラ、あるいは各画像をキャプチャするために視点から視点に移動される単一のカメラによってキャプチャされた静的なシーンの画像を表すことを特徴とする、請求項1に記載の方法。
- あるシーンの3次元再構成を、様々な視点からキャプチャされた、前記シーンの複数のオーバラップする画像から計算するシステムであって、
前記シーンの様々な部分を見るために配置された複数のカメラを含むカメラ装置であって、各カメラの視界が各隣接するカメラの視界とオーバラップするカメラ装置と、
汎用コンピュータ装置と、
前記コンピュータ装置によって実行可能なプログラムモジュールを含むコンピュータプログラムと
を含み、
前記コンピュータ装置は、前記コンピュータプログラムの前記プログラムモジュールによって、
各画像を、その画素が類似のディスパリティーを示すものと思われる各セグメントに分割し、
各セグメント内の全部の画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとに、一組のディスパリティー候補の各々に対して、前記セグメントを構成する前記各画素が個々のディスパリティーを示す尤度を表す確率推定値を含むディスパリティー空間分布(DSD)を計算し、
各画像の各セグメントごとに、前記セグメントに対して計算された前記DSDの最大確率評価値に対応するディスパリティーを前記セグメントの各画素に割り当て、
各画像ごとに、前記シーンの同一の部分を描写する隣接画像内の対応する画素のディスパリティー、および前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて、各画素に割り当てられた前記ディスパリティーを平滑化する
ように指示されることを特徴とするシステム。 - 各画像の各セグメントごとに前記ディスパリティー空間分布(DSD)を計算するための前記プログラムモジュールは、
各画像の各セグメントごとに初期ディスパリティー空間分布(DSD)を計算するサブモジュールと、
各画像の各セグメントごとに前記初期DSDの前記ディスパリティー確率の初期推定値を、前記同一画像内の隣接セグメントとの間の平滑性制約、および前記シーンの前記同一部分を描写する、他の画像内の対応するセグメントとの間の一貫性制約を同時に実施して精緻化することによって、精緻化されたDSDを生成するサブモジュールと
を含むことを特徴とする、請求項27に記載のシステム。 - 各画像の各セグメントごとに、前記初期DSDの前記ディスパリティー確率の前記初期推定値を精緻化するための前記サブモジュールは、
各画像の各セグメントごとに、精緻化されたディスパリティー確率を次式によって計算するサブモジュールであって、
前記精緻化されたディスパリティー確率計算サブモジュールを所定の回数繰り返すサブモジュールと
を含むことを特徴とする、請求項28に記載のシステム。 - 前記一貫性制約を実施する関数は次式を含み、
- λは4ディスパリティーレベルに設定されることを特徴とする、請求項32に記載のシステム。
- あるシーンの3次元再構成を、様々な視点からキャプチャされた、前記シーンの複数の画像から計算するコンピュータ実行可能な命令を含むコンピュータ可読記録媒体であって、前記コンピュータ実行可能な命令は、
各画像を、その画素が類似のディスパリティーを示すものと思われる各セグメントに分割する命令と、
各セグメント内の全部の画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとに、一組のディスパリティー候補の各々に対して、前記セグメントを構成する前記各画素が個々のディスパリティーを示す尤度を表す確率推定値を含むディスパリティー空間分布(DSD)を計算する命令と、
各画像の各セグメントごとに、前記セグメントに対して計算された前記DSDの最大確率評価値に対応するディスパリティーを前記セグメントの各画素に割り当てる命令と、
各画像ごとに、前記シーンの同一の部分を描写する隣接画像内の対応する画素のディスパリティー、および前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて、各画素に割り当てられた前記ディスパリティーを平滑化する命令と
を含むことを特徴とするコンピュータ可読記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/879,327 US7324687B2 (en) | 2004-06-28 | 2004-06-28 | Color segmentation-based stereo 3D reconstruction system and process |
US10/879,327 | 2004-06-28 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006012166A JP2006012166A (ja) | 2006-01-12 |
JP2006012166A5 JP2006012166A5 (ja) | 2011-03-31 |
JP4740657B2 true JP4740657B2 (ja) | 2011-08-03 |
Family
ID=34940185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005180926A Expired - Fee Related JP4740657B2 (ja) | 2004-06-28 | 2005-06-21 | カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス |
Country Status (7)
Country | Link |
---|---|
US (2) | US7324687B2 (ja) |
EP (1) | EP1612733B1 (ja) |
JP (1) | JP4740657B2 (ja) |
KR (1) | KR101143218B1 (ja) |
CN (1) | CN100514367C (ja) |
AT (1) | ATE438160T1 (ja) |
DE (1) | DE602005015649D1 (ja) |
Families Citing this family (96)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004088992A1 (ja) * | 2003-03-28 | 2004-10-14 | Olympus Corporation | 画像処理装置及び画像処理プログラム |
DE102005017313A1 (de) * | 2005-04-14 | 2006-10-19 | Volkswagen Ag | Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug |
US7676103B2 (en) * | 2005-06-20 | 2010-03-09 | Intel Corporation | Enhancing video sharpness and contrast by luminance and chrominance transient improvement |
US9532038B2 (en) * | 2005-11-04 | 2016-12-27 | Koninklijke Philips N.V. | Rendering of image data for multi-view display |
US7889932B2 (en) * | 2006-03-02 | 2011-02-15 | Sharp Laboratories Of America, Inc. | Methods and systems for detecting regions in digital images |
US8630498B2 (en) | 2006-03-02 | 2014-01-14 | Sharp Laboratories Of America, Inc. | Methods and systems for detecting pictorial regions in digital images |
US7916934B2 (en) * | 2006-04-04 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for acquiring, encoding, decoding and displaying 3D light fields |
WO2007142643A1 (en) * | 2006-06-08 | 2007-12-13 | Thomson Licensing | Two pass approach to three dimensional reconstruction |
US8437054B2 (en) * | 2006-06-15 | 2013-05-07 | Sharp Laboratories Of America, Inc. | Methods and systems for identifying regions of substantially uniform color in a digital image |
US7864365B2 (en) | 2006-06-15 | 2011-01-04 | Sharp Laboratories Of America, Inc. | Methods and systems for segmenting a digital image into regions |
EP2036353A1 (en) * | 2006-06-29 | 2009-03-18 | Thomson Licensing | Adaptive pixel-based filtering |
US7876959B2 (en) | 2006-09-06 | 2011-01-25 | Sharp Laboratories Of America, Inc. | Methods and systems for identifying text in digital images |
EP2087466B1 (en) * | 2006-11-21 | 2020-06-17 | Koninklijke Philips N.V. | Generation of depth map for an image |
CN101001391B (zh) * | 2007-01-09 | 2010-05-19 | 四川大学 | 一种立体图像编码方法 |
US7970226B2 (en) * | 2007-04-23 | 2011-06-28 | Microsoft Corporation | Local image descriptors |
US8126275B2 (en) | 2007-04-24 | 2012-02-28 | Microsoft Corporation | Interest point detection |
WO2008133455A1 (en) * | 2007-04-25 | 2008-11-06 | Lg Electronics Inc. | A method and an apparatus for decoding/encoding a video signal |
JP5160643B2 (ja) * | 2007-07-12 | 2013-03-13 | トムソン ライセンシング | 2次元画像からの3次元オブジェクト認識システム及び方法 |
US8280149B2 (en) * | 2007-09-11 | 2012-10-02 | Motorola Solutions, Inc. | Method and apparatus to facilitate processing a stereoscopic image using first and second images to facilitate computing a depth/disparity image |
JP5156837B2 (ja) * | 2007-11-09 | 2013-03-06 | トムソン ライセンシング | 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
US8781250B2 (en) * | 2008-06-26 | 2014-07-15 | Microsoft Corporation | Image deconvolution using color priors |
KR100942925B1 (ko) * | 2008-08-11 | 2010-02-22 | 한국전자통신연구원 | 스테레오 비전 시스템 및 그 제어방법 |
US8164617B2 (en) * | 2009-03-25 | 2012-04-24 | Cisco Technology, Inc. | Combining views of a plurality of cameras for a video conferencing endpoint with a display wall |
JP5249114B2 (ja) * | 2009-04-03 | 2013-07-31 | Kddi株式会社 | 画像生成装置、方法及びプログラム |
KR20100135032A (ko) * | 2009-06-16 | 2010-12-24 | 삼성전자주식회사 | 2차원 영상의 3차원 영상 변환 장치 및 방법 |
JP4934701B2 (ja) * | 2009-06-30 | 2012-05-16 | 株式会社日立製作所 | ステレオ画像処理装置およびステレオ画像処理方法 |
TWI398158B (zh) * | 2009-12-01 | 2013-06-01 | Ind Tech Res Inst | 產生立體影像之影像深度的方法 |
CN101719286B (zh) * | 2009-12-09 | 2012-05-23 | 北京大学 | 融合单视点场景分析的多视点三维场景重建方法及其系统 |
US8290248B2 (en) * | 2009-12-31 | 2012-10-16 | Mitsubishi Electric Research Laboratories, Inc. | Determining disparity search range in stereo videos |
US20110169818A1 (en) * | 2010-01-13 | 2011-07-14 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort |
AU2010344290B2 (en) * | 2010-01-26 | 2016-07-21 | Saab Ab | An automated three dimensional mapping method |
RU2453922C2 (ru) * | 2010-02-12 | 2012-06-20 | Георгий Русланович Вяхирев | Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты) |
CN102835119B (zh) * | 2010-04-01 | 2016-02-03 | 英特尔公司 | 支持自动立体显示器上的实时3d图像渲染的多核心处理器 |
US8488870B2 (en) * | 2010-06-25 | 2013-07-16 | Qualcomm Incorporated | Multi-resolution, multi-window disparity estimation in 3D video processing |
CN101945299B (zh) * | 2010-07-09 | 2013-10-09 | 清华大学 | 一种基于拍摄设备阵列的动态场景深度恢复方法 |
US8655093B2 (en) * | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US9177381B2 (en) * | 2010-12-22 | 2015-11-03 | Nani Holdings IP, LLC | Depth estimate determination, systems and methods |
US8884949B1 (en) | 2011-06-06 | 2014-11-11 | Thibault Lambert | Method and system for real time rendering of objects from a low resolution depth camera |
US8941644B2 (en) | 2011-06-14 | 2015-01-27 | Microsoft Corporation | Computing three-dimensional image models in parallel |
CN102263953B (zh) * | 2011-07-06 | 2013-12-11 | 北京航空航天大学 | 一种基于对象的快速多目立体视频分形压缩与解压缩方法 |
CN102316323B (zh) * | 2011-07-06 | 2014-03-05 | 北京航空航天大学 | 一种快速的双目立体视频分形压缩与解压缩方法 |
CN102263952B (zh) * | 2011-07-06 | 2013-12-11 | 北京航空航天大学 | 一种基于对象的快速双目立体视频分形压缩与解压缩方法 |
CN102263951B (zh) * | 2011-07-06 | 2014-03-05 | 北京航空航天大学 | 一种快速的分形视频压缩与解压缩方法 |
CN102263954B (zh) * | 2011-07-06 | 2014-01-29 | 北京航空航天大学 | 一种基于对象的快速分形视频压缩与解压缩方法 |
CN103647969B (zh) * | 2011-07-06 | 2016-09-14 | 北京航空航天大学 | 一种基于对象的快速分形视频压缩与解压缩方法 |
CN102291579B (zh) * | 2011-07-06 | 2014-03-05 | 北京航空航天大学 | 一种快速的多目立体视频分形压缩与解压缩方法 |
US8553997B1 (en) * | 2011-08-16 | 2013-10-08 | Google Inc. | Depthmap compression |
US8553998B1 (en) * | 2011-08-16 | 2013-10-08 | Google Inc. | Depthmap compression using a primitive |
US8749548B2 (en) * | 2011-09-01 | 2014-06-10 | Samsung Electronics Co., Ltd. | Display system with image conversion mechanism and method of operation thereof |
US9129378B2 (en) * | 2011-09-07 | 2015-09-08 | Thomson Licensing | Method and apparatus for recovering a component of a distortion field and for determining a disparity field |
JP2013073598A (ja) * | 2011-09-29 | 2013-04-22 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
US8995755B2 (en) | 2011-09-30 | 2015-03-31 | Cyberlink Corp. | Two-dimensional to stereoscopic conversion systems and methods |
US8854724B2 (en) | 2012-03-27 | 2014-10-07 | Ostendo Technologies, Inc. | Spatio-temporal directional light modulator |
US8928969B2 (en) | 2011-12-06 | 2015-01-06 | Ostendo Technologies, Inc. | Spatio-optical directional light modulator |
JP5755571B2 (ja) * | 2012-01-11 | 2015-07-29 | シャープ株式会社 | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 |
US9924196B2 (en) | 2012-05-18 | 2018-03-20 | The Regents Of The University Of California | Independent thread video disparity estimation method and codec |
US9179126B2 (en) | 2012-06-01 | 2015-11-03 | Ostendo Technologies, Inc. | Spatio-temporal light field cameras |
DE102012209316A1 (de) * | 2012-06-01 | 2013-12-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems |
EP2669845A3 (en) * | 2012-06-01 | 2014-11-19 | Ricoh Company, Ltd. | Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program |
CN102831637B (zh) * | 2012-06-28 | 2015-08-26 | 北京理工大学 | 基于移动设备的三维重建方法 |
US9641821B2 (en) | 2012-09-24 | 2017-05-02 | Panasonic Intellectual Property Management Co., Ltd. | Image signal processing device and image signal processing method |
JP2014078095A (ja) | 2012-10-10 | 2014-05-01 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
KR101885088B1 (ko) | 2012-11-22 | 2018-08-06 | 삼성전자주식회사 | 깊이 영상을 이용한 컬러 영상 처리 장치 및 방법 |
US8964254B2 (en) | 2013-04-03 | 2015-02-24 | Hewlett-Packard Development Company, L.P. | To generate a histogram matched image |
EP2787319A1 (de) * | 2013-04-05 | 2014-10-08 | Leica Geosystems AG | Steuerung einer Bildauslösung zur Luftbilderfassung in Nadir-Ausrichtung für ein unbemanntes Fluggerät |
CN104123715B (zh) * | 2013-04-27 | 2017-12-05 | 株式会社理光 | 配置视差值的方法和系统 |
WO2014178047A1 (en) | 2013-04-30 | 2014-11-06 | Inuitive Ltd. | System and method for video conferencing |
CN103310450B (zh) * | 2013-06-17 | 2016-12-28 | 北京工业大学 | 一种融合直连通约束的图像分割方法 |
US10070147B2 (en) | 2013-10-18 | 2018-09-04 | Lg Electronics Inc. | Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same |
US8760500B1 (en) * | 2013-10-23 | 2014-06-24 | Google Inc. | Depth map generation |
CN104021774B (zh) * | 2014-05-29 | 2016-06-15 | 京东方科技集团股份有限公司 | 一种图像处理的方法及装置 |
KR102265315B1 (ko) | 2015-04-17 | 2021-06-15 | 삼성전자주식회사 | 영상 광류를 추정하는 방법 및 이를 위한 장치 |
US10489970B2 (en) * | 2015-11-06 | 2019-11-26 | Microsoft Technology Licensing, Llc | 2D image processing for extrusion into 3D objects |
US10372968B2 (en) * | 2016-01-22 | 2019-08-06 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
US10582179B2 (en) | 2016-02-01 | 2020-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus for processing binocular disparity image |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
JP6987797B2 (ja) | 2016-03-11 | 2022-01-05 | カールタ インコーポレイテッド | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
JP6991700B2 (ja) | 2016-04-28 | 2022-01-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
EP3252713A1 (en) * | 2016-06-01 | 2017-12-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses |
EP3343506A1 (en) * | 2016-12-28 | 2018-07-04 | Thomson Licensing | Method and device for joint segmentation and 3d reconstruction of a scene |
US10885714B2 (en) | 2017-07-07 | 2021-01-05 | Niantic, Inc. | Cloud enabled augmented reality |
WO2019099605A1 (en) | 2017-11-17 | 2019-05-23 | Kaarta, Inc. | Methods and systems for geo-referencing mapping systems |
WO2019165194A1 (en) * | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
WO2019195270A1 (en) | 2018-04-03 | 2019-10-10 | Kaarta, Inc. | Methods and systems for real or near real-time point cloud map data confidence evaluation |
WO2020009826A1 (en) | 2018-07-05 | 2020-01-09 | Kaarta, Inc. | Methods and systems for auto-leveling of point clouds and 3d models |
US11023722B2 (en) * | 2018-07-11 | 2021-06-01 | International Business Machines Corporation | Data classification bandwidth reduction |
CN110889851B (zh) * | 2018-09-11 | 2023-08-01 | 苹果公司 | 针对深度和视差估计的语义分割的稳健用途 |
CN110838148B (zh) * | 2019-11-11 | 2023-05-05 | 杭州凌像科技有限公司 | 一种双目相机自标定方法 |
WO2021150779A1 (en) * | 2020-01-21 | 2021-07-29 | Compound Eye Inc. | System and method for egomotion estimation |
KR102455833B1 (ko) * | 2020-02-12 | 2022-10-19 | 한국전자통신연구원 | 변이 지도 개선 방법 및 장치 |
CN113256815B (zh) * | 2021-02-24 | 2024-03-22 | 北京华清易通科技有限公司 | 虚拟现实场景融合及播放方法和虚拟现实设备 |
KR20220151420A (ko) * | 2021-05-06 | 2022-11-15 | 삼성전자주식회사 | 웨어러블 전자 장치 및 3d 이미지 출력 방법 |
US12003697B2 (en) | 2021-05-06 | 2024-06-04 | Samsung Electronics Co., Ltd. | Wearable electronic device and method of outputting three-dimensional image |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5179441A (en) * | 1991-12-18 | 1993-01-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Near real-time stereo vision system |
JPH09218954A (ja) * | 1996-02-14 | 1997-08-19 | Nippon Telegr & Teleph Corp <Ntt> | 画像生成方法 |
JPH1023331A (ja) | 1996-06-28 | 1998-01-23 | Olympus Optical Co Ltd | 画像処理装置 |
JPH1079029A (ja) * | 1996-09-02 | 1998-03-24 | Canon Inc | 立体情報検出方法及びその装置 |
JP3017122B2 (ja) * | 1997-04-03 | 2000-03-06 | 株式会社エイ・ティ・アール知能映像通信研究所 | 奥行き情報抽出装置および奥行き情報抽出方法 |
JP3728160B2 (ja) * | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7031512B2 (en) | 2002-04-18 | 2006-04-18 | Stmicroelectronics, Inc. | Method and system for 3D smoothing within the bound of error regions of matching curves |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
-
2004
- 2004-06-28 US US10/879,327 patent/US7324687B2/en not_active Expired - Fee Related
-
2005
- 2005-03-31 US US11/097,529 patent/US7379583B2/en not_active Expired - Fee Related
- 2005-06-16 EP EP05105311A patent/EP1612733B1/en not_active Not-in-force
- 2005-06-16 AT AT05105311T patent/ATE438160T1/de not_active IP Right Cessation
- 2005-06-16 DE DE602005015649T patent/DE602005015649D1/de active Active
- 2005-06-21 JP JP2005180926A patent/JP4740657B2/ja not_active Expired - Fee Related
- 2005-06-28 CN CNB2005100820957A patent/CN100514367C/zh not_active Expired - Fee Related
- 2005-06-28 KR KR1020050056561A patent/KR101143218B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US20050286757A1 (en) | 2005-12-29 |
KR101143218B1 (ko) | 2012-05-18 |
CN100514367C (zh) | 2009-07-15 |
EP1612733A2 (en) | 2006-01-04 |
DE602005015649D1 (de) | 2009-09-10 |
JP2006012166A (ja) | 2006-01-12 |
ATE438160T1 (de) | 2009-08-15 |
US20050286758A1 (en) | 2005-12-29 |
US7324687B2 (en) | 2008-01-29 |
CN1716316A (zh) | 2006-01-04 |
US7379583B2 (en) | 2008-05-27 |
EP1612733A3 (en) | 2007-05-09 |
EP1612733B1 (en) | 2009-07-29 |
KR20060048642A (ko) | 2006-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4740657B2 (ja) | カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス | |
CN109479098B (zh) | 多视图场景分割和传播 | |
JP4074062B2 (ja) | ベクトル画像シーケンスにおける意味対象物の追跡 | |
US10368062B2 (en) | Panoramic camera systems | |
JP5985910B2 (ja) | ホールレンダリングを用いるマルチビュー映像処理方法及び装置 | |
US7046850B2 (en) | Image matching | |
KR100583902B1 (ko) | 이미지세그멘테이션 | |
US8472709B2 (en) | Apparatus and method for reducing artifacts in images | |
US8279930B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP5108893B2 (ja) | 2次元画像から3次元パーティクル・システムを復元するためのシステムおよび方法 | |
US7522749B2 (en) | Simultaneous optical flow estimation and image segmentation | |
US20100141651A1 (en) | Synthesizing Detailed Depth Maps from Images | |
US7974470B2 (en) | Method and apparatus for processing an image | |
EP3367334B1 (en) | Depth estimation method and depth estimation apparatus of multi-view images | |
JP4796072B2 (ja) | 画像セグメンテーションに基づく画像レンダリング | |
US20130051663A1 (en) | Fast Adaptive Edge-Aware Matting | |
TW202037169A (zh) | 基於視訊的點雲壓縮的區塊分段的方法及裝置 | |
Lo et al. | Depth map super-resolution via Markov random fields without texture-copying artifacts | |
US20120014605A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
US9786055B1 (en) | Method and apparatus for real-time matting using local color estimation and propagation | |
US20120014606A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
Kaviani et al. | An adaptive patch-based reconstruction scheme for view synthesis by disparity estimation using optical flow | |
KR101316848B1 (ko) | 배경 합성을 위한 자동 객체 분할 장치 및 방법 | |
Oh et al. | Robust stereo matching with improved graph and surface models and occlusion handling | |
JP2005517257A (ja) | セグメント化装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080623 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080623 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090901 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101105 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20110207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4740657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |