JP2016171558A - マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 - Google Patents
マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 Download PDFInfo
- Publication number
- JP2016171558A JP2016171558A JP2015244208A JP2015244208A JP2016171558A JP 2016171558 A JP2016171558 A JP 2016171558A JP 2015244208 A JP2015244208 A JP 2015244208A JP 2015244208 A JP2015244208 A JP 2015244208A JP 2016171558 A JP2016171558 A JP 2016171558A
- Authority
- JP
- Japan
- Prior art keywords
- view
- views
- capture
- superpixel
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】マルチビュー画像のシーケンスに対し、時間一貫性を有するスーパーピクセルを生成するための方法及び装置を提供する。【解決手段】シーケンス生成器23は、第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成し、第2のマルチビュー捕捉のビューは、第1のマルチビュー捕捉のビューの順序と逆の順序を有する。次いで、スーパーピクセル生成器24は、順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する。【選択図】図2
Description
本発明は、マルチビュー画像に対するスーパーピクセルを生成するための方法および装置に関する。特に本発明は、マルチビュー画像のシーケンスに対する、時間的一貫性を有するスーパーピクセルを生成するための方法および装置に関する。
画像セグメンテーションは、コンピュータビジョンにおける基本的な処理ステップである。セグメンテーションの目的は、画像分析のために画像表示を簡略化し、対象適応フィルタリングを最適化することである。閾値化、エッジ検出、クラスタ化、およびその他多くを含む、セグメンテーションのための幅広い最新技術のアルゴリズムが存在する。
より新しいセグメンテーションアルゴリズム[1]は、同様なフィーチャを共有する、空間的にコヒーレントなピクセルを、いわゆるスーパーピクセルにグループ化することによって、オーバーセグメンテーションを用意する。このスーパーピクセル手法は、信頼性のある、対象が一致したセグメントをもたらす。しかしこれは、より高い人気を得るまでには、さらなる性能改善を必要とする。必要な変更は[2]で述べられおり、そこではスーパーピクセルアルゴリズムは、簡単な線形反復クラスタ化方法(SLIC)によって加速された。
これまではセグメンテーションアルゴリズムの焦点は、静止画像のみに当てられてきた。しかし最近の発表は、[3]において開発されたように、時間的一貫性を有するセグメンテーション結果を必要とする画像シーケンスを考察し、時間的一貫性を有するスーパーピクセルを生成することによるビデオのための手法を提案している。
静止画像から画像シーケンスへの拡張は、計算の複雑さのさらなる増加に密接に関わる、次元の増分を引き起こし、すでに[3]でのスーパーピクセル計算は、ハイブリッドフィーチャ部分空間を分析するときの増大する計算量を抑制するために、適切な対策をとっている。
画像処理技術におけるセグメンテーションのためにとられるべき次の重要なステップは、時間的マルチビューシーケンスをセグメント化するアルゴリズムに進むことである。このような時間的マルチビューシーケンスの最近の応用例は、立体的3Dムービーおよび明視野カメラである。このマルチビューシーケンスに向かうステップも、やはり処理費用を増加させる。立体的シーケンスは単に画像の数を倍にするだけであるが、明視野カメラはあらゆる時間インスタンスにおいて複数の画像を生成する。
さらに現在は、時間的およびビュー一貫性を有することが要求されるスーパーピクセルの計算は、未だ解決されておらず、アルゴリズム安定性および処理能力にかなりの要求を課す。
本発明の目的は、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するための、改善されたソリューションを提案することである。
本発明によれば、各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するための方法は、
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成するステップであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、ステップと、
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するステップと、
を含む。
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成するステップであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、ステップと、
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するステップと、
を含む。
それに従ってコンピュータ可読記憶媒体は、各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成することを可能にする命令をそれに記憶し、上記命令はコンピュータによって実行されたときに上記コンピュータに、
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成することであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンスを生成すること、および
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成すること、
を行わせる。
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成することであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンスを生成すること、および
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成すること、
を行わせる。
また一実施形態では、各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するように構成された装置は、
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成するように構成されたシーケンス生成器であって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンス生成器と、
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するように構成されたスーパーピクセル生成器と、
を備える。
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成するように構成されたシーケンス生成器であって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンス生成器と、
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するように構成されたスーパーピクセル生成器と、
を備える。
他の実施形態では、各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するように構成された装置は、処理デバイスと、命令をそれに記憶したメモリデバイスとを備え、上記命令は上記処理デバイスによって実行されたときに上記装置に、
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成することであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンスを生成すること、および
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成すること、
を行わせる。
− 第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成することであって、上記第2のマルチビュー捕捉のビューは、上記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、シーケンスを生成すること、および
− 上記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成すること、
を行わせる。
スーパーピクセルは、静止画像および画像シーケンスのために開発された、信頼性がある、対象が一致したセグメンテーションを表す。静止画像から画像シーケンスへの拡張は、増大する計算量を扱う難しさをすでに明らかにしているが、時間的一貫性を有するマルチビューセグメンテーションへの切り換えは、ずっと複雑である。提案されるソリューションは、スーパーピクセル生成に対する先験的な知識を組み入れることにより、1次元での増大する処理量を低減することによって、時間的およびビュー一貫性のあるスーパーピクセル生成をもたらす。この目的のために、第1のマルチビュー捕捉、および時間的に連続した第2のマルチビュー捕捉のビューの直列化が行われる。次いで直列化されたビューに対して、時間的一貫性を有するスーパーピクセルを生成するためのアルゴリズムが適用される。
一実施形態では、第2のマルチビュー捕捉のビューに対して生成されたスーパーピクセルのラベルは、第1のマルチビュー捕捉の対応するビューに対して生成されたスーパーピクセルを用いて精細化(refine)される。他の実施形態では、第2のマルチビュー捕捉のビューに対して生成されたスーパーピクセルのラベルは、第2のマルチビュー捕捉の隣接ビューに対して生成されたスーパーピクセルを用いて精細化される。両方の実施形態では、スーパーピクセルラベルに対して事後補正が適用され、これはより最近に処理されたビューに対するスーパーピクセルを改善するために、前に処理されたビューに対して生成されたスーパーピクセルを利用する。例えば補正は、スーパーピクセルラベルを精細化するために、色情報、深さ情報、および動きベクトルなどの幾何学的測度または類似性測度を利用する。
次に、より良い理解のために、本発明が図を参照してより詳細に述べられる。本発明はこれらの例示的実施形態に限定されず、特定の特徴はまた、添付の特許請求の範囲において定義される本発明の範囲から逸脱せずに有効に組み合わされるおよび/または変更され得ることが理解されるべきである。
図1は、マルチビュー捕捉のシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成するための方法の一実施形態を概略的に示す。第1のステップでは、第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから、結合されたパスを形成する順序付けられたビューのシーケンスが生成され(10)、第2のマルチビュー捕捉のビューは、第1のマルチビュー捕捉のビューの順序と逆の順序を有する。第2のステップでは、順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルが生成される(11)。
本発明による方法を行うように構成された装置20の一実施形態が、図2に概略的に示される。装置20は、例えばネットワークまたは外部記憶システムから、マルチビュー捕捉のシーケンスを受け取るための入力21を有する。あるいはマルチビュー捕捉のシーケンスは、ローカル記憶ユニット22から取り出される。シーケンス生成器23は、第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから、結合されたパスを形成する順序付けられたビューのシーケンスを生成し(10)、第2のマルチビュー捕捉のビューは、第1のマルチビュー捕捉のビューの順序と逆の順序を有する。次いでスーパーピクセル生成器24は、順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する(11)。結果としての時間的一貫性を有するスーパーピクセルは、好ましくは出力25を通じて利用可能にされる。スーパーピクセルはまた、ローカル記憶ユニット22に記憶され得る。出力25はまた、入力21と共に、単一の双方向インターフェースに組み合わされ得る。もちろん異なるユニット23、24も同様に、全体的または部分的に単一のユニットに組み合わされることができ、またはプロセッサ上で実行するソフトウェアとして実現され得る。
本発明による方法を行うように構成された装置30の他の実施形態が、図3に概略的に示される。装置30は、処理デバイス31と、実行されたときに、述べられる方法の1つによるステップを装置に行わせる命令を記憶したメモリデバイス32とを備える。
例えば処理デバイス31は、述べられる方法の1つによるステップを行うように適合されたプロセッサとすることができる。実施形態では上記適合は、プロセッサが、述べられる方法の1つによるステップを行うように、構成される、例えばプログラムされることを含む。
本明細書で用いられるプロセッサは、マイクロプロセッサ、ディジタル信号プロセッサ、またはそれらの組み合わせなどの1または複数の処理ユニットを含み得る。
ローカル記憶ユニット22、およびメモリデバイス32は、揮発性および/または不揮発性メモリ領域、およびハードディスクドライブ、DVDドライブなどの記憶デバイスを含むことができる。メモリの一部は、提案されるソリューションの原理による本明細書で述べられるようなプログラムステップを行うように処理デバイス31によって実行可能な命令のプログラムを有形に具体化した、処理デバイス31によって読み出し可能な、非一時的なプログラム記憶デバイスである。
以下では、提案される手法がより詳しく述べられる。[3]では、時間的一貫性を有するスーパーピクセルアルゴリズムが開発されており、これは例えばムービーなどの画像シーケンスに応用可能である。画像シーケンスの例は、図4に示される。部分図(a)および(b)は、互いに異なる時間インスタンスtiに対する画像フレームを生成する単一画像センサC0を示す。部分図(c)および(d)に示されるように、単一画像センサがマルチビューセンサに置き換えられた場合、または同時捕捉カメラの数が増加されたときは、互いに異なる各時間インスタンスtiにおいて、複数の画像がもたらされる。
時間的一貫性を有するスーパーピクセル(Temporally consistent superpixel:TCS)を生成する一般的な方式は、図5に示される。この方式におけるスーパーピクセルアルゴリズムは、単一のソリューションに限定されない。例えば[3]で述べられる方法、または任意の他の適切な手法が用いられ得る。ブロック図は、時間的一貫性を有するスーパーピクセルを生成するために、後続のフレームが必要であることを示す。時間的一貫性を有するスーパーピクセルは、スーパーピクセルの一貫性を有するラベル付けによって特徴付けられ、これは連続するフレーム間のわずかな変化は、局部的に持続するスーパーピクセルIDの使用を妨げないことを意味する。わずかに動く、または形状が変化する、同じ領域に位置するスーパーピクセルは、同じスーパーピクセルIDによって一定にラベル付けされる。これは、時間にわたってスーパーピクセルを追跡すること、従ってシーン対象を識別することを可能にする。
時間的一貫性を有するスーパーピクセルの生成は、単一画像センサがマルチビューセンサに置き換えられた場合、または同時捕捉カメラの数が増加されたときは、より複雑になる。立体画像シーケンスの場合は、画像センサの数を2つに、例えば示される9個のセンサC1・・・C9の代わりにC4およびC6に制限することによって、図4(c)および(d)に示される例に含まれる。一般にビューの数は任意であり、1より大きな任意の数が選ばれ得る。しかし以下の説明は複数のカメラおよび明視野カメラを対象とするので、「ビュー」という用語は「センサ」という用語と置き換え可能である。
図6は、時間的(TCS)およびまたマルチビュー(MCS)一貫性を有するスーパーピクセルを生成する方式において、画像入力の増加に伴って生じる問題の概略を示す。ここで後続のマルチビュー画像が入力であり、スーパーピクセル生成は、空間的(マルチビュー)および時間的(順次的)一貫性を考慮に入れなければならない。しかしこれは、新しいセグメンテーションタスクによって扱われなければならない自由度を増加させる。図6において望まれる出力は、時間的およびマルチビュー一貫性のあるスーパーピクセルのシーケンスである。
マルチビュー画像の導入によって引き起こされる自由度の増加は図7に示され、これは図7(a)に示される単一ビューシーケンスを、図7(b)に示されるマルチビューシーケンスと比較している。示される両方向矢印は、スーパーピクセルのラベル付けにおける一貫性に対する要求を示す。これは、異なるビューおよび/または異なる時間インスタンスにおいて見られる同じシーン領域を対象とするときに、矢印によって連結された画像内で生成されるスーパーピクセルは、それらのIDを通じてトレース可能でなければならないことを意味する。両方向矢印は、2つのカテゴリに分けられる。第1のカテゴリは時間的スーパーピクセル(TSP)、すなわち異なる時間インスタンスの一致するマルチビューに属するスーパーピクセルであり、第2のカテゴリは同時マルチビュースーパーピクセル(MSP)、すなわち同じ時間インスタンスの異なるビューに属するスーパーピクセルである。TSP関係は破線の矢印でマークされ、MSP関係は実線の矢印でマークされる。MSPおよびTSP関係の数は、直交する(矩形の)隣接するもののみを組み入れ、対角線の隣接するものを無視することによる、理論的に可能なサブセットであることが留意されるべきである。これは、画像間の空間的距離によって正当化される。図7に含まれる関係は、直接隣接する画像を連結するもののみであり、これは最小距離を有するものと同様である。除外された、直交でない隣接するものは、常により遠くに離れている。しかしこれは直交でない隣接するものにわたるスーパーピクセルID追跡を妨げるものではない。
増加された自由度に対処するために、マルチビュー画像に対して直列化が適用される。以下では例示として3×3のマルチビュー画像を参照して、直列化が述べられる。ソリューションは、立体視を含むマルチビュー画像の任意の配置に対して一般化され得る。図8は、3つの時間インスタンスt1、t2、およびt3を示す。より大きな画像シーケンスはそれに従って、図示の直列化方式を続けることによって取り扱われる。
図示の例における直列化走査は、ビューC1.1から開始する。ドットの前の数字はビュー位置C1を示し、ドットに続く数字は時間インスタンスt1を示す。例において直列化走査は、C1.1からC4.1およびC7.1へ縦に降りて実行し、常に最も近い隣接するビューを接続する。次いで走査はC8.1へ右に曲がり、その後にC5.1およびC2.1へ上に行く。直列化実行は続いてC3.1へ右に曲がり、C6.1およびC9.1へ下に降りる。この方式は単に例である。もちろん直接隣接するものの間に最小距離を有する、1つの時間インスタンス内のすべてのビューを接続するための他の直列化順序が可能である。
直列化は、t1に属するすべてのビューを走査した後に、常に一致するビューである、最小距離を有するビューに進むことにより、次の時間インスタンスt2に属するビューに取り掛かる。図8では、これはC9.2である。言い換えればマルチ走査直列化は、隣接する時間インスタンスに対する一致するビューを連結する。
後の時間インスタンス内の走査に対しては、ビューの間の最良の一貫性を達成するため、および異なる走査順序を混合しないようにするために、前と逆に順序付けられた走査を用いることが有利である。図8の例では走査は、C9.2、C6.2、C3.2、C2.2、C5.2、C8.2、C7.2、C4.2、およびC1.2となる。第3の時間インスタンスt3は、再び時間インスタンスt1と同様に取り扱われ、すなわち走査順序はもう一度逆にされる。より一般的には、さらなる時間インスタンスtkは、前の時間インスタンスtk-2のように取り扱われることになる。
すべての後の時間インスタンス(2番目以降)の走査順序は、前の時間インスタンスと逆に順序付けられた走査であることが好ましい。そうでない場合は、後に続く時間インスタンスでは異なって再順序付けされるようになり、生成されるスーパーピクセルにおける時間的不一致の増加を引き起こすようになる。これは、時間的一貫性における損失に繋がり得る。
以下では、時間的およびマルチビュー一貫性のあるスーパーピクセルを生成するための、提案されるソリューションの3つの実装形態が、より詳しく述べられる。3つすべての実装形態は、スーパーピクセル一貫性を改善する。図9は、3つの実装形態の簡略化されたブロック図を示す。すべては共通して、直列化走査を実行するマルチビュー直列化ブロック40、および時間的一貫性を有するスーパーピクセルを生成するためのTCSブロック41を有する。
図8に示される直列化方式はすでに、時間的およびマルチビュー一貫性のあるスーパーピクセルを生成するための最も簡単なソリューションを表しており、これは図9(a)に示される。このソリューションは、対象オクルージョンによって影響されない静止シーン領域に対する、一貫性を有するスーパーピクセルラベル付けをもたらす。これは、画像内のシーン対象が、カメラから十分に大きな距離を有する場合に当てはまる。直列化されたマルチビュー画像は、時間的およびマルチビュー一貫性のあるスーパーピクセルに近くまで生成するためのさらなる処理ステップなしに、単にTCSブロック41によって処理される。カメラの近くに位置する対象の場合は、スーパーピクセル一貫性は保証され得ない。しかし追加の処理量は最小である。
スーパーピクセル一貫性は、時間的スーパーピクセル精細化ブロック42を組み入れた、図9(b)に示されるソリューションによって改善され得る。基礎をなす処理方式は、図10および図11に示される。両方の図は、異なる処理ステップを示す部分図(a)および(b)に分割される。(a)のラベルが付けられた部分図は直列化方式を示し、これはマルチビュー直列化を行う図9の第1のステップS1の一部であり、その後に中間スーパーピクセルIDを生成するためのTCSアルゴリズムが続き、一方、(b)のラベルが付けられた部分図は、スーパーピクセルラベル精細化のために実行される後処理ステップS2を示す。後に詳しく述べられる後処理ステップS2は、意図せずに生成されたスーパーピクセルラベルIDを取り除き、それらを時間的およびマルチビュー一貫性のあるスーパーピクセルを生成するために必要な最小まで低減するように働く。しかしスーパーピクセル形状は保たれる。この第2のソリューションは、動的シーンおよび対象オクルージョンを取り扱うのに、より適している。
図10および図11に示されるように、ステップS1は、後処理ステップS2と交互に適用される。精細化されたソリューションにおけるマルチビュー画像の直列化は、図8に示されるものと同じであるが、これはID精細化ステップS2によって横断(intersect)される。図10(a)に示される時間インスタンスt1およびt2における中間の時間的一貫性を有するスーパーピクセルの生成の後に、ID精細化S2は、図10(b)における破線の矢印によって示されるように、一致するビューの画像を分析することによって時間的一貫性を確実にする。第1のステップS1内ですでに取り扱われた一致するビューの画像は、二度目に扱われる必要はなく、スキップされ得る。図10(b)では、これはC9.1およびC9.2の場合に当てはまる。ID精細化S2は、時間インスタンスt2におけるスーパーピクセルラベルIDの1または複数を変更することができる。次いで結果としてのラベルIDは、図11に示される次の処理ステップにおいて用いられる。ここで図11(a)に示される第1のステップS1は、前に精細化されたスーパーピクセルIDの、ビュー直列化および処理を続けて、TCSアルゴリズムを適用することによって時間インスタンスt3に対する中間スーパーピクセルを生成することにある。次いで図11(b)に示されるように、さらなるID精細化ステップS2が続き、意図せずに生成されたスーパーピクセルラベルIDを低減することによって、一致するビューの間の時間的一貫性を確実にする。さらなる時間インスタンスtkは、時間インスタンスtk-2と同じ方法で取り扱われることになる。
上述の図9(b)の精細化されたソリューションは、改善されたスーパーピクセル一貫性、およびより高いロバスト性をもたらす。さらにこれは、カメラに近く、従ってマルチビューにおけるオクルージョンを含み得る、移動する対象を含んだ動的シーンを扱う能力がある。同時にこれは、わずかに増加された処理能力を必要とするだけである。
図9(c)に示されるさらに改善されたソリューションが、図12から19を参照して以下で説明される。
この手法は、第2のID精細化を追加することによって図9(b)のソリューションをさらに拡張し、これはID精細化ステップS2内で適用される。スーパーピクセル精細化ブロック43によって実行されるID精細化ステップの一方はMSP関係を取り扱うが、スーパーピクセル精細化ブロック42によって実行される他方のID精細化ステップはTSP関係を扱う。ID精細化プロセスを倍にすることで、結果としてスーパーピクセルラベル一貫性のさらなる改善を生じるが、また第1のステップS1と後処理ステップS2との間のより高度な横断を必要とする。
この手法の処理ステップは図12に示されるように開始し、TCSアルゴリズムを適用するように、図12(a)に示されるように時間インスタンスt1におけるビューの第1の部分がステップS1において直列化される。次いで図12(b)に示されるように、MSP関係に対してID精細化ステップが行われる。扱われる画像は同じ時間インスタンスに属するので、TSP精細化は必要ない。精細化されたスーパーピクセルIDは図13(a)に進むために用いられ、そこでは直列化されたビューはTCSによって処理され、図13(b)でのステップS2において中間IDが精細化されて、時間インスタンスt1の処理を完了する。MSP関係C7.1からC8.1、およびC2.1からC3.1に対するID精細化は冗長であり、従ってスキップされる。
時間インスタンスt2の処理は、3つの横断からなり、図14(a)において開始し、そこでは直列化されたビューC9.2、C6.2、およびC3.2が、TCSアルゴリズムを用いて処理される。TSP関係に関するID精細化は、図14(b)での破線の矢印によって示されるように、第2のステップS2において行われる。TCS関係C9.1からC9.2に対する冗長な精細化はスキップされる。図15(a)に示される第2の横断は、TCSアルゴリズムをC2.2、C5.2、およびC8.2に適用し、その後に図15(b)に示されるように、C6.2からC5.2、およびC9.2からC8.2へのMSPに関係するID精細化、ならびに時間インスタンスt1からの一致するビューを用いたTSPに関係するID精細化が続く。図16(a)に示されるように、第3の横断は、TCSを用いて、t2での残りのビューすなわちC7.2、C4.2、およびC1.2を扱う。ID精細化はやはり、図16(b)に示されるようにMSP関係およびTSP関係に関する精細化の縦続である。C8.2からC7.2のMSP関係は冗長であり、スキップされる。これは時間インスタンスt2を完了させる。
時間インスタンスt3も3つの横断を有し、図17(a)においてC1.3、C4.3、およびC7.3に対するTCSアルゴリズムの適用で開始する。次いで、図17(b)における破線の矢印によって示されるように、C1.3を除いて、TSP関係に関するID精細化が行われる。図18(a)は第2の横断を示し、そこでは再び前に生成されたスーパーピクセル精細化を用いて、C8.3、C5.3、およびC2.3に対してTCSアルゴリズムが適用される。図18(b)は、冗長なC7.3からC8.3への関係を除いた、MSP関係を考慮した2つのID精細化が示され、その後に一致するビューを結合するTSP関係の考察が続く。時間インスタンスt3を完了する最後の横断は図19に示され、部分図(a)では、ビューC3.3、C6.3、およびC9.3がTCSアルゴリズムを用いて処理され、部分図(b)では、MSP関係C5.3からC6.3およびC8.3からC9.3に関するID精細化が処理され、その後に3つのTSP関係C3.2からC3.3、C6.3からC6.3、およびC9.2からC9.3に対する一致するビューのID精細化が続く。これは、最初の3つの時間インスタンスのために必要な処理を完了する。さらなる時間インスタンスtkは、時間インスタンスtk-2と同じ方法で取り扱われることになる。
上述のソリューションは、時間的およびマルチビュー一貫性のあるスーパーピクセル生成において、最も高い品質をもたらす。同時に、従来のソリューションのために必要な多項式処理の増加を回避する。
ID精細化は必ずしもビュー内のすべてのスーパーピクセルに適用されず、いくつかの定義が正しく定式化される必要がある。図20は、スーパーピクセルマップの詳細を示し、各スーパーピクセルIDは異なる濃淡値を有する。マップは、各ピクセルに対して、1つのスーパーピクセルへのメンバーシップを決定する。スーパーピクセルマップは、ビューcおよび時間インスタンスtに属する。これは、それらのIDによって区別されるΦ個のスーパーピクセルを含み、スーパーピクセルの組SPS(c,t)を形成する。
SPS(c,t):{SPc,t(1),・・・SPc,t(φ),・・・SPc,t(Φ)}
各スーパーピクセルは、以下によるピクセルの組である。
各スーパーピクセルは、以下によるピクセルの組である。
SPc,t(φ):{pφ,c,t(1),・・・pφ,c,t(n),・・・pφ,c,t(N)}
これは、下記の座標を有するN個のピクセルを含み、
pφ,c,t(n)=[xφ,c,t(n),yφ,c,t(n)]
以下の重心mcc,t(φ)を有する。
これは、下記の座標を有するN個のピクセルを含み、
pφ,c,t(n)=[xφ,c,t(n),yφ,c,t(n)]
以下の重心mcc,t(φ)を有する。
図21は、2つの異なるスーパーピクセルマップの詳細を示すことによって、前の公式を一般化する。スーパーピクセルの第1の組SPS(v,i)は、ビューvおよび時間インスタンスiに属し、スーパーピクセルの第2の組SPS(w,j)は、ビューwおよび時間インスタンスjに属する。両方のスーパーピクセルマップ内で、単一のスーパーピクセルがマークされる。これら2つは、
SPv,i(φ):{pφ,v,i(1),・・・pφ,v,i(n),・・・pφ,v,i(N)}
pφ,v,i(n)=[xφ,v,i(n),yφ,v,i(n)]
mcv,i(φ)=[Xv,i(φ),Yv,i(φ)]
および
SPw,j(ξ):{pξ,w,j(1),・・・pξ,w,j(m),・・・pξ,w,j(M)}
pφ,v,i(n)=[xξ,w,j(m),yξ,w,j(m)]
mcw,j(ξ)=[Xw,j(ξ),Yw,j(ξ)]
スーパーピクセルマップSPS(v,i)およびSPS(w,j)を有する2つのビューの間の、図9(b)および(c)でのソリューションのステップS2において適用されるID精細化は、両方のビューのスーパーピクセルIDを分析する。最初に、両方のSPSの組に存在するスーパーピクセルIDは除外され、これは以下のサブセットを生じる。
SPv,i(φ):{pφ,v,i(1),・・・pφ,v,i(n),・・・pφ,v,i(N)}
pφ,v,i(n)=[xφ,v,i(n),yφ,v,i(n)]
mcv,i(φ)=[Xv,i(φ),Yv,i(φ)]
および
SPw,j(ξ):{pξ,w,j(1),・・・pξ,w,j(m),・・・pξ,w,j(M)}
pφ,v,i(n)=[xξ,w,j(m),yξ,w,j(m)]
mcw,j(ξ)=[Xw,j(ξ),Yw,j(ξ)]
スーパーピクセルマップSPS(v,i)およびSPS(w,j)を有する2つのビューの間の、図9(b)および(c)でのソリューションのステップS2において適用されるID精細化は、両方のビューのスーパーピクセルIDを分析する。最初に、両方のSPSの組に存在するスーパーピクセルIDは除外され、これは以下のサブセットを生じる。
SPS*(v,i)=SPSID missing in(w,j)(v,i)
および
SPS*(w,j)=SPSID missing in(v,i)(w,j)
その後にソリューションは、そのIDが消滅した残りのスーパーピクセルSPS*(v,i)を取り込み、それらの所在を、すべての不一致のIDを保持するスーパーピクセルサブセットSPS*(w,j)内で検索する。
および
SPS*(w,j)=SPSID missing in(v,i)(w,j)
その後にソリューションは、そのIDが消滅した残りのスーパーピクセルSPS*(v,i)を取り込み、それらの所在を、すべての不一致のIDを保持するスーパーピクセルサブセットSPS*(w,j)内で検索する。
候補SPS*(w,j)内で、SPS*(v,i)メンバーSPv,i(φ)に対する対応を見出したときは、これはスーパーピクセルSPw,j(ξφ)であり、一貫性を維持するためにSPw,j(ξφ)のスーパーピクセルIDは、SPv,i(φ)のスーパーピクセルIDによって置き換えられる。インデックスξφは、φ→ξφの対応を示す。さらにIDの再ラベル付けは、SPw,j(ξφ)を取り除くことによって、候補の組SPS*(w,j)の低減を引き起こす。
図22は、どのように対応が決定されるかを示す。SPS*(w,j)の候補から、SPS*(v,j)メンバースーパーピクセルSPv,i(φ)に対する対応を見出すために、下記により幾何学的距離Dが計算され、
対応性関数が下記により決定される。
言い換えればスーパーピクセルSPv,i(φ)に対して、SPv,i(φ)と、SPw,j(ξ)から取られた不一致のスーパーピクセルである、サブセットSPS*(w,j)のすべてのメンバーとの間の、距離Dが計算される。見出された最小距離Dが、対応スーパーピクセルインデックスξφを決定する。これは空間的に最も近い重心を有するスーパーピクセルである。
物理的な理由により、幾何学的距離Dは、シーンに固有の動き、およびマルチビューベースラインのサイズによって決定される制限を超えるべきではない。従って下記の最大許容幾何学的距離を超える、対応スーパーピクセルSPw,j(ξφ)は除外される。
変数DはSPv,i(φ)のピクセルカウント、平方根は仮想的なスーパーピクセル直径、変数sは予想される最大変位または動きである。sの値は、TCSアルゴリズム内での動き予測から得られる結果によって制御されることが好ましい。スーパーピクセルSPv,i(φ)に対して推定される局所的動きベクトルは、最大許容幾何学的距離を拡張するために用いられ得る。
検索領域をシーンに存在する動きに適応させるための第2のソリューションは、下記により局所的動きだけ、スーパーピクセル重心をシフトすることによって、式(1)の幾何学的距離Dの計算を変更することであり、
ここで、flowv,i(φ)は、SPv,i(φ)に対する主要動きベクトル(オプティカルフロー)を表す。
flowv,i(φ)=[Fxv,i(φ),Fyv,i(φ)] (5)
対応性関数の式2に対する第3の有利なソリューションは、対応スーパーピクセルに対して検索するために重複領域を決定し、最大の大きさの重複領域を有する、合致するものを選択することである。重複領域は下記のカットセット基数によって決定される。
対応性関数の式2に対する第3の有利なソリューションは、対応スーパーピクセルに対して検索するために重複領域を決定し、最大の大きさの重複領域を有する、合致するものを選択することである。重複領域は下記のカットセット基数によって決定される。
|SPv,i(φ)∩SPw,j(ξ)| (6)
それにより変更された対応関数は以下となる。
それにより変更された対応関数は以下となる。
式(7)は、すべてのスーパーピクセルSPS*(w,j)を対象とするが、式(6)によるカットセット基数のいずれかがゼロより大きくなる場合にのみ適用される。そうでない場合は、代わりに式(2)が使用される。
スーパーピクセルID精細化のための前の3つのソリューションは、幾何学的測度のみを用いるが、利用可能であれば他の非幾何学的フィーチャ、さらには複数のそれらによって、スーパーピクセル間の類似性を分析することも可能である。フィーチャは、スーパーピクセルの性質を特性化し、色情報、深さ情報、動きベクトルなどによって表現される。フィーチャ特性のそれぞれは、実行可能な評価をもたらすために特定の類似性測度を有することになる。
スーパーピクセルに対する色情報フィーチャは、ヒストグラムによって表され得る。ヒストグラム距離に対する様々な測度が存在する[4][5]。例はカイ二乗距離
または[5]で述べられているアースムーバ距離(earth mover distance)である。式(8)および[5]におけるヒストグラムhφ,v,iおよびhξ,w,jは、正規化された基数を有するスーパーピクセルSPv,i(φ)およびSPw,j(ξ)に属し、すなわち両方のヒストグラムは同数の間隔を有する。
また深さ情報フィーチャは、下記による不等の正規化平均差などの、適切な距離測度を必要とする。
深さ情報を組み入れることは、色情報において起こり得る曖昧さを取り除く。εの閾値は、式(9)に対して通常1ピクセルに設定され、深さ情報に存在するノイズを除去するように適応される必要がある。深さ平均
および
は、2つのスーパーピクセルSPv,i(φ)およびSPw,j(ξ)に対する深さ値を表す。
式(8)および式(9)において定義される距離測度は、1つのフィーチャに対して個々に適用された場合に、式(2)における距離Dの識別および置き換えのために用いられる。しかし2つ以上のフィーチャを、より信頼性のある証拠に組み合わせることが好ましい。これは例えば、ユークリッド結合(Euclidean combination)によって、または多数決によって達成され得る。
ユークリッド結合は、下記により、式(2)における最小に対して検索し、
Ev,i→w,j(φ,ξ)は下記平方根である。
式(11)における距離測度は、簡略化された表記法を有することに留意されたい。
多数決は上記とは異なり、それぞれ専用化されたフィーチャ汎関数によって、異なるスーパーピクセル精細化候補を決定することによって最小を計算する。
ここで距離Dfeatureは、式(1)、(4)、(7)、(8)、および/または(9)を表す。その後に最も多くの投票を受け取ったスーパーピクセルが、スーパーピクセルID置き換えのために選択される。多数検出が失敗した場合に対して、例外が定義される。ここでユークリッド結合は、決定を強制する必要がある。
多数決ソリューションのさらなる変更は、重み付き投票を用いることである。重み付き多数決では、深さフィーチャ距離の結果は、最終決定へのその影響を大きくするように2回カウントされる。他の重みの組み合わせも可能である。
以下では、開示されるアルゴリズムの機能が、以下の2つの例によって示される。
第1の例は、2つの時間インスタンスtiおよびtjにわたる静止シーンを処理する。シーンは静止であるので、図23に示されるようにすべての一致するビューは同じ画像を示す。部分図(a)は、マルチビューカメラ視野による3次元対象ショットの概略を示し、部分図(b)は、2つの扱われる時間インスタンスt1およびt2に対して変化しないままである、9つのビューに対する結果としての画像を示す。
図24および図25は、直列化走査(ステップS1)の後に適用される、TCS(例えば、[3])によって生成された中間スーパーピクセルを示す。中間スーパーピクセルマップは、走査順序において時間的一貫性を有し、スーパーピクセルIDにおけるすべての変化は、異なる濃淡値によって示される。図24は、9つのビューC1.1からC1.9までに表れるスーパーピクセルの分割および併合の例を含み、図8で説明されたのと同じ番号付けが用いられる。例えばビューC1.1内のスーパーピクセルSP7は分割され、ビューC4.1内に新しいスーパーピクセルSP71を生成する。反対のことが、ビューC4.1内のスーパーピクセルSP7およびSP71で生じる。これらは、ビューC7.1において単一のスーパーピクセルSP71に併合される。2つの可能な変化のタイプ、消滅およびIDの新たな生成は、上記ですでに説明されている。
図26から28は、両方の時間インスタンスにおける一致するビューの直接比較(TSP)のための、中間スーパーピクセルマップを示す。この例で示される静止シーンは、各消滅スーパーピクセルに対して適切な新しいスーパーピクセルが生成され、時間的スーパーピクセル一貫性の維持は、開示されるスーパーピクセルID精細化(ステップS2)を適用することによって達成されることを明白にする。
第2の例は、図29に示されるように2つの時間インスタンスtiおよびtjにわたる動的シーンを処理する。部分図(a)は、マルチビューカメラ視野による3次元対象ショットの概略を示し、部分図(b)は、ビューに対する結果としての画像を示す。対象がカメラの前を移動するのに従って、一致するビューに対する画像は異なる。
図30および図31は、開示されるアルゴリズムの結果を示し、直列化走査(ステップS1)の後に適用されるTCSによって生成された、中間スーパーピクセルを示す。やはり中間スーパーピクセルID内のすべての変化は異なる濃淡値で示され、ビュー番号付けは図8と同様である。動的シーンの例では、シーン内の移動する対象によって、より多くの変化が生じる。例えば、ビューC8.1においてスーパーピクセルSP72が生成され、ビューC2.1ではすでに消滅する(図30)。
図32から34に示されるスーパーピクセルマップは、両方の時間インスタンスにおける一致するビューの視覚による比較を可能にする。これは述べられるスーパーピクセルID精細化(ステップS2)がどのように、欠けているスーパーピクセルIDに対する適切な新しいスーパーピクセルを見出すかを実証している。それにより図32では、C1.1 SP7はC1.2 SP76に割り当てられ、C4.1 SP7はC4.2 SP76に割り当てられ、C4.1 SP71はC4.2 SP75に割り当てられ、C7.1 SP71はC7.2 SP75に割り当てられるなどとなる。SP31、SP32、およびSP52などの新しく現れたスーパーピクセルのいくつかのみは、短時間だけ存在し、後に置き換えを見出すことなく消滅する。しかしこれは異常ではなく、単一ビューシーケンスに対してTCSアルゴリズムを用いて時間的一貫性を有するスーパーピクセルを生成するときにも起こる。従ってこれらの場合は、結果としての時間的およびマルチビュー一貫性に対する品質において最大限でもわずかなロスを生じるだけである。
引用文献
[1]X.Ren et al.:"Learning a classification model for segmentation",Proceedings of the Ninth IEEE International Conference on Computer Vision(ICCV '03)(2003),pp.10−17.
[2]R.Achanta et al:"SLIC superpixels compared to state−of−the−art superpixel methods",IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.34(2012),pp.2274−2282.
[3]M.Reso et al.:"Temporally Consistant Superpixels",Proceedings of the 2013 IEEE International Conference on Computer Vision(ICCV '13),pp.385−392
[4]B.Schiele et al.:"Object Recognition Using Multidimensional Receptive Field Histograms",Proceedings of the 4th European Conference on Computer Vision(ECCV '96),pp.610−619.
[5]Y.Rubner et al.:"The Earth Mover's Distance as a Metric for Image Retrieval",International Journal of Computer Vision,Vol.40(2000),pp.99−121.
引用文献
[1]X.Ren et al.:"Learning a classification model for segmentation",Proceedings of the Ninth IEEE International Conference on Computer Vision(ICCV '03)(2003),pp.10−17.
[2]R.Achanta et al:"SLIC superpixels compared to state−of−the−art superpixel methods",IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.34(2012),pp.2274−2282.
[3]M.Reso et al.:"Temporally Consistant Superpixels",Proceedings of the 2013 IEEE International Conference on Computer Vision(ICCV '13),pp.385−392
[4]B.Schiele et al.:"Object Recognition Using Multidimensional Receptive Field Histograms",Proceedings of the 4th European Conference on Computer Vision(ECCV '96),pp.610−619.
[5]Y.Rubner et al.:"The Earth Mover's Distance as a Metric for Image Retrieval",International Journal of Computer Vision,Vol.40(2000),pp.99−121.
Claims (9)
- 各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性およびマルチビュー一貫性を有するスーパーピクセルを生成するための方法であって、
第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成するステップ(10)であって、前記結合されたパスにおいて前記第2のマルチビュー捕捉のビューは、前記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、前記ステップと、
前記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する(11)アルゴリズムを適用するステップと、
を含む、前記方法。 - 前記第1のマルチビュー捕捉および前記第2のマルチビュー捕捉は、時間的に連続するマルチビュー捕捉である、請求項1に記載の方法。
- 前記第1のマルチビュー捕捉の対応するビューに対して生成されたスーパーピクセルを使用して、前記第2のマルチビュー捕捉のビューに対して生成されたスーパーピクセルのラベルを精細化するステップをさらに含む、請求項1または2に記載の方法。
- 前記第2のマルチビュー捕捉の近傍のビューに対して生成されたスーパーピクセルを使用して、前記第2のマルチビュー捕捉のビューに対して生成されたスーパーピクセルのラベルを精細化するステップをさらに含む、請求項1から3のいずれか1項に記載の方法。
- 幾何学的測度および類似性測度の少なくとも一方がスーパーピクセルのラベルを精細化するために使用される、請求項3または4に記載の方法。
- 前記類似性測度は、色情報、深さ情報及び動きベクトルのうちの少なくとも1つを含む、請求項5に記載の方法。
- 各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性およびマルチビュー一貫性を有するスーパーピクセルを生成することを可能にする命令を記憶したコンピュータ読取可能媒体であって、前記命令はコンピュータによって実行されたときに、前記コンピュータに、
第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成させ(10)、前記結合されたパスにおいて前記第2のマルチビュー捕捉のビューは、前記第1のマルチビュー捕捉のビューの順序と逆の順序を有し、
前記命令はさらに、前記コンピュータに、
前記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する(11)アルゴリズムを適用させる、前記コンピュータ読取可能媒体。 - 各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性およびマルチビュー一貫性を有するスーパーピクセルを生成するように構成された装置(20)であって、
第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成する(10)ように構成されたシーケンス生成器(23)であって、前記結合されたパスにおいて前記第2のマルチビュー捕捉のビューは、前記第1のマルチビュー捕捉のビューの順序と逆の順序を有する、前記シーケンス生成器と、
前記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する(11)アルゴリズムを適用するように構成されたスーパーピクセル生成器(24)と、
を備える、前記装置(20)。 - 各マルチビュー捕捉が少なくとも2つのビューを含む、マルチビュー捕捉のシーケンスに対して、時間的一貫性およびマルチビュー一貫性を有するスーパーピクセルを生成するように構成された装置(30)であって、処理デバイス(31)と、命令を記憶したメモリデバイス(32)と、を備え、前記命令は前記処理デバイス(31)によって実行されたときに、前記装置(30)に、
第1のマルチビュー捕捉のビューおよび第2のマルチビュー捕捉のビューから結合されたパスを形成する、順序付けられたビューのシーケンスを生成させ(10)、前記結合されたパスにおいて前記第2のマルチビュー捕捉のビューは、前記第1のマルチビュー捕捉のビューの順序と逆の順序を有し、
前記命令は前記装置(30)に、さらに
前記順序付けられたビューのシーケンスに対して、時間的一貫性を有するスーパーピクセルを生成する(11)アルゴリズムを適用させる、前記装置(30)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305013.3A EP3043316A1 (en) | 2015-01-08 | 2015-01-08 | Method and apparatus for generating superpixels for multi-view images |
EP15305013.3 | 2015-01-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016171558A true JP2016171558A (ja) | 2016-09-23 |
Family
ID=52444234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015244208A Pending JP2016171558A (ja) | 2015-01-08 | 2015-12-15 | マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160203612A1 (ja) |
EP (2) | EP3043316A1 (ja) |
JP (1) | JP2016171558A (ja) |
KR (1) | KR20160085708A (ja) |
CN (1) | CN105791797A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180077547A (ko) * | 2016-12-29 | 2018-07-09 | 성균관대학교산학협력단 | 깊이 영상 생성 방법 및 깊이 영상 생성 장치 |
KR20220064045A (ko) | 2020-11-11 | 2022-05-18 | 삼성전자주식회사 | 영상을 생성하는 방법 및 장치와 영상 생성을 위한 신경망을 트레이닝하는 방법 |
CN112529910B (zh) * | 2020-12-08 | 2021-10-29 | 电科云(北京)科技有限公司 | 一种sar图像快速超像素合并及图像分割方法 |
CN117156182B (zh) * | 2023-10-27 | 2024-01-23 | 北京健滨医药科技有限公司 | 一种医疗远程智能监测方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2648414B1 (en) * | 2012-04-03 | 2016-03-23 | Samsung Electronics Co., Ltd | 3d display apparatus and method for processing image using the same |
EP2680226B1 (en) * | 2012-06-26 | 2016-01-20 | Thomson Licensing | Temporally consistent superpixels |
WO2014135400A1 (en) * | 2013-03-05 | 2014-09-12 | Sony Corporation | Multi frame motion and disparity estimator |
US20150130800A1 (en) * | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Segmentation of surround view data |
KR102143473B1 (ko) * | 2013-11-13 | 2020-08-12 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 다시점 영상 디스플레이 방법 |
US20150363664A1 (en) * | 2014-06-13 | 2015-12-17 | Nokia Corporation | Method, Apparatus and Computer Program Product for Image Processing |
-
2015
- 2015-01-08 EP EP15305013.3A patent/EP3043316A1/en not_active Withdrawn
- 2015-12-15 JP JP2015244208A patent/JP2016171558A/ja active Pending
- 2015-12-23 EP EP15202362.8A patent/EP3043315B1/en not_active Not-in-force
-
2016
- 2016-01-05 KR KR1020160000976A patent/KR20160085708A/ko unknown
- 2016-01-07 CN CN201610008956.5A patent/CN105791797A/zh active Pending
- 2016-01-08 US US14/991,894 patent/US20160203612A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20160203612A1 (en) | 2016-07-14 |
EP3043316A1 (en) | 2016-07-13 |
CN105791797A (zh) | 2016-07-20 |
EP3043315A1 (en) | 2016-07-13 |
KR20160085708A (ko) | 2016-07-18 |
EP3043315B1 (en) | 2018-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shi et al. | A framework for learning depth from a flexible subset of dense and sparse light field views | |
Aldoma et al. | Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation | |
Tokmakov et al. | Learning motion patterns in videos | |
Revaud et al. | Epicflow: Edge-preserving interpolation of correspondences for optical flow | |
Wu et al. | Real-time human detection using contour cues | |
Kamencay et al. | Improved Depth Map Estimation from Stereo Images Based on Hybrid Method. | |
EP2966616B1 (en) | Method and apparatus for tracking superpixels between related images | |
Wang et al. | In-hand object scanning via RGB-D video segmentation | |
Horbert et al. | Sequence-level object candidates based on saliency for generic object recognition on mobile systems | |
JP2016171558A (ja) | マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 | |
Loghman et al. | SGM-based dense disparity estimation using adaptive census transform | |
Saribas et al. | TRAT: Tracking by attention using spatio-temporal features | |
US9336431B2 (en) | Three-dimensional region of interest tracking based on key frame matching | |
Muddamsetty et al. | A performance evaluation of fusion techniques for spatio-temporal saliency detection in dynamic scenes | |
Basavaiah et al. | Robust Feature Extraction and Classification Based Automated Human Action Recognition System for Multiple Datasets. | |
Muresan et al. | A multi patch warping approach for improved stereo block matching | |
Mademlis et al. | Stereoscopic video description for key-frame extraction in movie summarization | |
Muresan et al. | Improving local stereo algorithms using binary shifted windows, fusion and smoothness constraint | |
Safdarnejad et al. | Temporally robust global motion compensation by keypoint-based congealing | |
Dimitriou et al. | Motion-based segmentation of objects using overlapping temporal windows | |
Jain et al. | Discriminability limits in spatio-temporal stereo block matching | |
Ben Shitrit et al. | Tracking multiple players using a single camera | |
Xu et al. | A new approach to video stabilization with iterative smoothing | |
Cai et al. | DACNet: A deep automated checkout network with selective deblurring | |
Nasrullah et al. | A novel algorithm for real time moving object tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161202 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161202 |