JP2011509451A - 画像データのセグメント化 - Google Patents

画像データのセグメント化 Download PDF

Info

Publication number
JP2011509451A
JP2011509451A JP2010538997A JP2010538997A JP2011509451A JP 2011509451 A JP2011509451 A JP 2011509451A JP 2010538997 A JP2010538997 A JP 2010538997A JP 2010538997 A JP2010538997 A JP 2010538997A JP 2011509451 A JP2011509451 A JP 2011509451A
Authority
JP
Japan
Prior art keywords
image data
segmented view
segmented
segments
criterion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010538997A
Other languages
English (en)
Inventor
ファーレカンプ,クリスティアーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2011509451A publication Critical patent/JP2011509451A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

画像データを処理する方法は、画像データを受け取る工程と、第1の基準及び第1の閾値を使用して画像データをセグメント化して画像データの第1のセグメント化ビューを作成する工程と、第1の基準及び第2の閾値を使用して画像データをセグメント化して画像データの第2のセグメント化ビューを作成する工程と、画像データの第1のセグメント化ビューを表示する工程と、第1のセグメント化ビューにおいて表示されるように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取る工程と、定義されたユーザ入力を受け取る工程と、画像データの第2のセグメント化されたビューを表示する工程と、第2のセグメント化ビューにおいて表示されるように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取る工程とを含む。前述の方法は、深度マップの作成において使用することが可能である。この場合、処理は、1つ又は複数の深度ユーザ入力を受け取る工程であって、各深度ユーザ入力は、それぞれの選択ユーザ入力に関係する工程と、相応に画像データの深度マップを生成する工程を更に含む。

Description

本発明は、画像データを処理するための方法、システム、及びコンピュータ・プログラム・プロダクトに関する。
3Dテレビなどの3次元ビューイング装置の提供が増加傾向にある。前述の装置は一般に、2つの分類のうちの1つに入る傾向にある。第1の分類は、立体装置のものであり、これにより、ユーザが、特殊めがねをかけることにより、3次元画像を認識することが可能になる。ユーザがかけるめがねにより、ユーザの眼が離間している距離を偽装し、短距離で離間した視点による、同じシーンのわずかに異なるビューである別々の画像をそれぞれの眼がみるということが確実になる。ユーザの脳は、3次元画像を生成するよう前述の2つの画像を処理する。ディスプレイ(表示)装置の第2の分類は、何れの特殊めがねをユーザがかけることなく、3次元効果をもたらす自動立体表示装置を含む。前述の装置は、ディスプレイからの複数のビューを投影することによって機能する。これにより、この場合にも、ユーザの各眼は別々の画像をみることが確実になる。このことを達成することが可能な1つのやり方には、画像の複数のビューをもたらすために、通常のディスプレイ装置上にレンチキュラー光学アレイをオーバレイするということがある。
自動立体ディスプレイ装置による使用のためのコンテンツの利用可能性はその市場での受け入れにとって重要である。自動立体表示装置が満足なビデオ出力を生成するために、ビデオ内のフレーム毎に深度マップが利用可能でなければならない。深度マップ及び元のフレームは、自動立体ディスプレイによって必要な複数ビューを生成するために使用される。ビデオ系列は、1秒間に多くのフレームを含む、例えば、PAL手法は、毎秒25フレームというフレーム・レートを有し、画像系列に必要な深度マップの生成は、問題にならない作業でない。
高品質3Dビデオの利用可能性は、3Dテレビの成功にとって重要である。現在、3次元ビデオのキャプチャ、及び深度を加えることによる、既存又は新たに取得された2Dビデオから3Dビデオへの変換が、種々の企業において検討されている。周知の変換手法は、グラフィカル・エディタを介して手作業入力を使用して、キー・フレームにおいて深度を割り当て、次いで、ビデオ・ショットの持続時間(通常、数秒間)の間、この深度情報を自動的に伝播させるというものである。自動伝播は急速に成熟しているが、(エディタを使用した)キー・フレームでの深度の手作業の評価はなお低く(ユーザは通常、深度プロファイルが規定される多角形を描き)、よって高価である。
キー・フレームにおいて深度を割り当てるのは現在、多くの場合、共通のグラフィッカル・エディタを使用して行われる。ポリゴン描画ツ―ルのみが、非常に多くの場合、一定の距離又は深度プロファイルが割り当てられる領域を選択するために使用される。前述の処理は遅い。ユーザは、マウスを使用して物体輪郭に近いカーソルを配置しなければならない。通常、多くのマウス・クリックが、曲線を物体と正確に合わせるために必要である。
画像処理の別の分野では、選択を支援するために自動セグメント化が提案されている(C. Oliver及びS. Queganによる「Understanding Synthetic Aperture Radar Images, Artech−House, 1998)。前述の選択手法は、画像を方形領域に区分し、領域フィッティングを使用して領域エッジを物体境界と自動的に合わせるために使用することができる。前述の手法は、Richard O. Duda、 Peter E. Hart及びDavid G. Storkによる「Pattern Classification, John Wiley and Sons, Inc., New York, 2001」に示すデータのクラスタ化と非常に類似しているが、その相違点として、局所最適化基準において境界の正則性を組み入れている。これにより、雑音による非正則エッジを避けることがより容易になる。
カーソルで領域を選択し、次いで、深度を領域に割り当てることは、自動的に生成されたセグメント化が深度マップの生成に寄与し得る明白なやり方である。しかし、セグメント化において領域の数を選択することは困難である。重要な輪郭の欠落を避けるために、多くの小領域が必要である。他方で、大領域は、より速い深度割り当てを可能にする。考えられる最善のセグメント化の選択が課題として残るので、選択の手作業による区分がなお広く使用される。
本発明の目的は、公知技術を改良し、選択された処理を改良することである。
本発明の第1の局面によれば、第1の基準及び第1のパラメータを使用して画像データをセグメント化して、画像データの第1のセグメント化ビューを生成する工程と、第1の基準又は第2の基準及び第2のパラメータを使用して画像データをセグメント化して、画像データの第2のセグメント化ビューを生成する工程と、画像データの第1のセグメント化ビューを表示する工程と、第1のセグメント化ビューにおいて表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取る工程と、画像データの第2のセグメント化ビューを表示する工程と、第2のセグメント化ビューに表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取る工程とを含む、画像データを処理する方法が提供される。
本発明の第2の局面によれば、上記システムは、第1の基準及び第1のパラメータを使用して画像データをセグメント化して、画像データの第1のセグメント化ビューを生成し、第1の基準又は第2の基準及び第2のパラメータを使用して画像データをセグメント化して、画像データの第2のセグメント化ビューを生成するよう構成されたプロセッサと、画像データの第1のセグメント化ビュー及び第2のセグメント化ビューを表示するよう構成された表示装置と、第1のセグメント化ビューにおいて表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取り、第2のセグメント化ビューにおいて表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るよう構成されたユーザ・インタフェースとを備える、画像データを処理するシステムが提供される。
本発明の第3の局面によれば、第1の基準及び第1のパラメータを使用して画像データをセグメント化して、画像データの第1のセグメント化ビューを生成するための命令と、第1の基準又は第2の基準及び第2のパラメータを使用して画像データをセグメント化して、画像データの第2のセグメント化ビューを生成するための命令と、画像データの第1のセグメント化ビューを表示するための命令と、第1のセグメント化ビューにおいて表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取るための命令と、画像データの第2のセグメント化ビューを表示するための命令と、第2のセグメント化ビューにおいて表示されたように、画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るための命令とを含む、画像データを処理するための、コンピュータ読み取り可能な媒体上のコンピュータ・プログラム・プロダクトを提供する。
本発明の結果、(ビデオ・フレームや静止画像などの)画像データのセグメント化領域を選択するために使用することが可能なツールを提供することが考えられる。方法及びシステムは、別々の領域マージ・レベルにおける複数のセグメント化を提示することにより、ユーザに対する支援を提供する。本発明は、所定の2つのマージ・レベルに基づいてセグメント化された2つのビューと組合せて使用することが可能であるが、好ましくは、ユーザは、単一の領域が別々の物体を含むことを妨げるようマージ・レベルを相互作用で調節することが可能である。本発明を使用することが可能な通常の適用例には、入力として平面(2D)ビデオを使用して3Dビデオの半自動生成が含まれる。更に、本発明は、相互作用(画素ベースの)画像処理のための汎用的な画像編集ソフトウェアにおいて選択ツールを提供するために使用することも可能である。本発明は、選択のために最適なやり方で画像をセグメント化しようとするよりも、特定の選択に最もよく適したセグメント化から選択するためのやり方を効果的に提供する。
好ましくは、方法は、第1のセグメント化ビューからの1つ又は複数の選択されたセグメント、及び第2のセグメント化ビューからの1つ又は複数の選択されたセグメントを結合する工程を更に含む。根底にある考えは、まず、第1のセグメント化ビューに基づいて、ユーザ選択セグメントを、選択に加えるか、又は選択から減らすことを可能にするということである。例えば、セグメント上で左クリックすることにより、選択に加えられ、右クリックすることにより、選択から取り除かれる。
その後、前述の選択は、第2のセグメント化ビューに基づいて選択に対してセグメントを増やすか又は減らすことにより、補正することが可能である。例えば、セグメント上で左クリックすることにより、選択に加えられ、右クリックすることにより、選択から取り除かれる。結果として生じる選択の選択領域は、第1のセグメント化ビューからの部分又は完全セグメント化境界、及び第2のセグメント化ビューの部分又は完全セグメント境界と一致し得る。
好ましくは、処理は、1つ又は複数の深度ユーザ入力を受け取る工程であって、各深度ユーザ入力は、それぞれの選択ユーザ入力に関係する工程と、相応に画像データの深度マップを生成する工程を更に含む。システムは、画像データのセグメント化ビューに沿って深度マップを表示するよう更に構成することが可能である。本発明によって提供されるシステム及び方法は、深度マップの作成のための開発ツールに非常に適している。
好ましくは、処理は、第1のセグメント化ビューからセグメントを選択した後に、定義されたユーザ入力を受け取る工程を更に含み、定義されたユーザ入力は、第2のセグメント化ビューの表示をトリガする。このようにして、ユーザは、セグメント化及び/又はセグメント化基準の別々のレベル間で切り換えることが可能であり、その要件に応じて、別々のビューにおけるセグメントを選択することが可能である。深度マップを生成するためにユーザがみたい厳密なセグメント化をもたらすセグメント化アルゴリズムはないので、上記ツールは、適切なレベルのセグメント化及び/又はセグメント化基準をユーザが選択することを可能にすることにより、深度マップを生成する単純かつ効率的な方法を提供する。
効果的には、第1のセグメント化ビュー及び第2のセグメント化ビューが何れも第1の基準に基づく場合、方法は、第2の基準及び第3のパラメータを使用して画像データをセグメント化して、画像データの第3のセグメント化ビューを生成する工程と、更に定義されたユーザ入力を受け取る工程と、画像データの第3のセグメント化ビューを表示する工程と、第3のセグメント化ビューに表示されるように、画像データの1つ又は複数のセグメントを選択する選択ユーザ入力を受け取る工程とを更に含む。このようにして、本発明は効果的に、データのセグメント化レベル間の切り換え、及びデータのセグメント化基準間の切り換えを可能にする。
この考えは、前述の2つのセグメント化基準(すなわち、色、動き)を考慮に入れることによって最もうまく示される。画像データが色によってセグメント化される場合、ユーザは、深度マップの生成などの作業を完了すると、セグメント化のレベルを調節することができる。しかし、ユーザは、「色」よりも「動き」にセグメント化ビューを切り替えることも可能である。これは、この基準に応じて画像をセグメント化する。例えば、画像内の動くサッカーボールは、色セグメント化によって高密度でセグメント化されているが、「動き」セグメント化に切り換えると、サッカーボールは、もうあまり区分されない。移動する単一の物体であるからである。物体の画素は通常、同様の深度値を有するので、前述の選択のやり方は、小さな数又は最小の数のユーザ入力を使用して物体の画素全てをユーザが選択することを可能にする。このようにして、物体に深度値を注釈することはかなり単純化することが可能である。セグメント化に使用することが可能な基準の例には、全て、画像から容易に抽出することが可能な色、セグメント・サイズ(例えば、近傍セグメントの色が最も類似している固定閾値よりも小さいセグメントをマージする)、輝度、クロミナンス、動き及びテクスチャがある。
画像データを処理するシステムの概略図である。 画像データのフレームの概略図である。 図2の画像データのフレームの別々の3つのセグメント化ビューを示す概略図である。 更なる画像データの別々の3つのセグメント化ビューを示す概略図である。 画像データを処理する方法のフローチャートである。 別々のセグメント化ビュー間の関係を示す図である。 図6のビュー間のナビゲーションを示す図である。 画像データの2つの検査フレームを示す図である。 図8の画像データの8つのセグメント化ビューの図である。 図8の画像データ、及び対応する深度マップの概略図である。
本発明の実施例を例としてのみ、添付図面を参照して説明する。
図1は、画像データを処理するために使用することが可能なシステムを示す。システムは、プロセッサ10、表示装置12、及び、キーボード14とダイアル16とを備えたユーザ・インタフェース(以下に更に詳細にその機能を説明する)を含む。ユーザ・インタフェースは、表示装置12のタッチスクリーン構成部分を含み得る。これは、セグメントの効率的な選択を可能にする。図1のシステムは、通常のデスクトップ型PC、テーブルトップ型PC、ディスプレイを内蔵したタッチ・タブレットを中心に構成することが可能であるか、又は、画像データを処理する作業のために特に構成された専用(グラフィカル)ワークステーションであり得る。システムは、画像データを扱うユーザを支援するためのツールである。プロセッサ10は、本願においてユーザが利用するために画像データのセグメント化を行う。以下の説明では、深度マップの作成を支援するためにユーザがツールを使用しているという前提で実施例を示す。
セグメント化の概念を説明するために、図2は、画像データ18の非常に様式化されたフレームを示す。画像データ18は、青空、緑の草、白色のゴールポスト、及び多色のサッカーボール(画像の唯一の、動いている構成部分である)を示す。明らかに、画像フレーム18は、静止状態の単一のシーンを表すが、フレーム18は、ビデオ信号を構成するフレーム列の1つを備え、サッカーボールは、先行フレームにおけるその位置に対して移動する。画像フレーム18を記録させたカメラは静止状態にある。
画像は、処理システムのプロセッサ10などのプロセッサによって実行されるアルゴリズムによってセグメント化することが可能である。セグメント化に関する考えは2つ存在している。これらは、使用されるセグメント化基準、及び施される(閾値であり得る)セグメント化パラメータである。別々の多くの基準(色、セグメント・サイズ、輝度、クロミナンス、動き及びテクスチャ)が考えられる。前述の基準全てを、画像フレーム18を構成するデータにおいて検出することが可能である。例えば、閾値をセグメント化パラメータとして使用してデータ18のセグメント化基準として色を使用する場合、同じ又は類似した色を有する画像データ18内の画素は同じ領域にあるとみなされる。施される閾値は、隣接した2つの画素が類似しているとみなされるか否かを定める。隣接した2つの画素が同一の青色値及び緑色値を有するが、それらの赤色値が10だけ異なるとした場合、閾値は、それらが同じ領域に属すると判断されるか否かを定める。閾値を高又は低に設定することにより、画像データ18が、より小さな数の領域にセグメント化されるか、より大きな数の領域にセグメント化されるかが定められる。セグメント化はそういうものとしてRGB色空間に制限されないということが当業者に明らかになる。
輝度値全てに対する単一の閾値、輝度に依存する閾値から、個々の色成分に対する差別化された閾値に及ぶ別々の多くのセグメント化パラメータが想定される。単一のセグメント化基準を使用してセグメント化の範囲を得るための単純なやり方には、特定の基準を使用して、ファイン・グレインのセグメント化をもたらし、後に、セグメントをマージして、より粗いセグメントを得るということがある。その後、セグメント化されたビューの範囲からのセグメント化ビューのその後の選択は、マージ・レベルを示すパラメータに基づき得る。前述のセグメントをブラウジングするユーザは、画像データ18のセグメント化ビューにおいて存在するセグメントをマージ又は分離した結果として、選択されたビューを認識する。
図1のシステムによって行われる画像データ18を処理する方法は、画像データ18を受信する工程と、次いで、画像データ18をセグメント化する工程とを含む。図3は、図2の画像データ18の別々の3つのセグメント化ビュー20a、20b及び20cを示す。これらは、一度に1つ、ユ―ザに向けて表示装置12上に表示され、ユーザは、望みとしてビュー間で切り換えることができる。あるいは、ビュー20はユーザに向けて同時に表示することが可能であり、ユーザは、適切なユーザ・インタフェース動作を介して現在のセグメント化ビュー20間で切り換えることができる。
プロセッサ10は、第1の基準及び第1の閾値を使用して画像データ18をセグメント化して画像データ18の第1のセグメント化ビュー20aをもたらし、第1の基準及び第2の閾値を使用して画像データ18をセグメント化して画像データ18の第2のセグメント化ビュー20bをもたらし、第2の基準及び第3の閾値を使用して画像データ18をセグメント化して画像データ18の第3のセグメント化ビュー20cをもたらす。この例では、第1の基準は色であり、第2の基準は動きである。第2のセグメント化ビュー20bは、パラメータ・レベルに応じて併せてビュー20aのセグメントをマージすることによって作成することが可能である。
図3で分かるように、セグメント化ビュー20自体は何れも、画像データ18の理想的なセグメント化をもたらすものでない。複数のセグメント化ビュー20からの情報をシームレスに結合する機能をユーザに備えることにより、ユーザが正しい細粒度で別々の構成部分にアクセスするための効率的な方法論がもたらされる。基本的には、画像データ18内に4つの物体(すなわち、地面、空、サッカーボール、及びゴールポスト)が存在している。ユーザは、この画像データ18の深度マップを作成することを望み、各物体に1つ、別々の4つの深度値を割り当てることができることが必要である。従来技術のソリューション(解決策)では、ユーザは、ソフトウェアを使用して、画像データ18において領域を作成することにより、手作業で深度値を割り当てるか、又は、単一のセグメント化が行われ、次に、ユーザによって修正される。
しかし、プロセッサ10によって生成される別々のビュー20は、現在達成可能であるよりも、より簡単でかつより高精度に深度マップを作成するうえでユーザをサポートする。第1のセグメント化ビュー20aは、閾値が低い、色の基準に基づいたセグメント化である。このビューでは、ボールは、高密度にセグメント化され、緑の草も過剰にセグメント化される(閾値により、草の中の緑色の別々の濃淡の度合いが検出されることを示唆している)。実際には、セグメント化により、草の中で生成される領域は、正則の矩形でない。これは、領域へのセグメント化の概念を示すために使用される。しかし、第1のビュー20aは、空をゴールポストから区別するために必要である。セグメント化に色を使用し、閾値が高い第2のセグメント化ビュー20bにみられるように、草はその場合、単一の領域にマージされているが、空及びゴールポストは更に単一の領域に合成される。ボールはなお高密度にセグメント化される。複数のセグメント化基準に基づいて複数のセグメント化ビューに対するシーケンシャル・アクセスを提供するシステムでは、ユーザは、図20cのビューである、第2のセグメント化基準(ここでは、動き)に変更するという選択肢を有する。この場合、唯一の動いているオブジェクト(すなわち、ボール)は単一の領域である。
別々のビュー20にわたって移動することにより、ユーザは深度マップを作成することが可能である。事実上、これは、画像データ18の第1のセグメント化ビュー20aを表示し、第1のセグメント化ビュー20において表示されるように、画像データ18の1つ又は複数のセグメントを選択する(例えば、最初に空を選択し、次にゴールポストを選択する)1つ又は複数の選択ユーザ入力を受信し、ビューを切り換える旨の規定されたユーザ入力を受信し、画像データ18の第2のセグメント化ビュー20bを表示し、第2のセグメント化ビュー20b(地面)において表示されるように、画像データ18の1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受信することによって達成される。画像データ18を、第2の基準(動き)及び第3の閾値を使用してセグメント化して画像データ18の第3のセグメント化ビュー20cを作成し、ビューを切り換える旨の規定された更なるユーザ入力を受信した後、画像データ18の第3のセグメント化ビュー20cが表示され、ユーザ・インタフェースは、第3のセグメント化ビュー20cに表示されるように、画像データ18の1つ又は複数のセグメント(ボール)を選択する1つ又は複数の更なる選択ユーザ入力を受信する。
元の画像データ18の「最適な」セグメント化を生成することが可能でないので、システムは、予め計算された複数のセグメント化間で切り換えるための高速選択機構を深度エディタのユーザに提示する。別々の複数のセグメント化ビューを同じ場所に表示することにより、ユーザは、物体又は画像の特定の一部分に焦点を当て、一致するセグメントが見つかるまでセグメント化を切り換えることが可能である。複数のセグメント化が別々の場所に同時に表示されるシナリオと比較して、これは、かなりの改良を表す。
他方で、並列に、複数のセグメント化ビューを視覚化することは、どの特定のセグメント化が、前述の注釈の好適な開始点をもたらすかを評価するうえで有用であり得る。よって、並列に別々のセグメント化基準に基づいて複数のセグメント化を表示することにより、他の便益がもたらされる。
図3では、別々の2つのセグメント化ビュー20a及び20bのみが色の基準によって計算された。これはしかし例示に過ぎず、実際には、そこから選ばれる、より多くの数のセグメント化ビューを有することが有用であり得る。これは、画像データ18のセグメント化ビュー22a、22b及び22cを示す図4に示す。図4では、深度マップ作成のための本願提案のエディタの例示的な使用を示す。ビュー22a乃至22cは、別々の領域マージ・レベルにおけるセグメント化である。別々のマージ・レベルにおける領域を選択し、領域毎又は領域群毎に深度値を調節することにより、ピクチャにおける個人に、一定の深度が割り当てられる。
中央ビュー22bは画像データ18のデフォールト・ビューとみなし得、ユーザは、キーボード14上の左矢印キーを使用して左画像22aを表示し、同様に、キーボード14上の右矢印キーを使用して右画像22cを表示することが可能である。このようにして、単純かつ簡単な選択機構が、深度エディタのユーザに向けて提示される。中央ピクチャ22bは、深度を円に割り当てるために使用される。これが最も効率的であるからである(3つの領域のみを選択すればよい)。右矢印キー(→)を押すことにより、類似した色の領域がマージされる(円は別の物体とマージする)。左矢印キー(←)を押すことにより、マージされた領域は、より多くの部分に分離される(円を選択することは、5つの領域の選択を必要とする)。ユーザはよって、物体に深度を割り当てるために、適切な細粒度を使用することが可能である。実際には、特に、セグメント化に使用される、色などの基準により、ユーザが巡回し得る、より多くの数のビューを使用することが可能である。この目的で、図1のダイアル1が提供され、これは、現在行っている作業(又はサブ作業)の細粒度の正しいレベルにユーザが「チューニングする」ことを可能にする。
ツールによって使用するためにビュー20及び22を提供するために、例えば、上述の、Oliverによる論文に記載されたような領域フィッティングを使用して、当初セグメント化が行われる。この当初セグメント化Sは、重要な深度の不連続性全てが領域エッジと一致することを確実にするために多くの小領域を含む。その後のセグメント化S…S10は、Sの領域を順次にマージすることによって作成される。マージされた第1のセグメント化Sは、Sにおける隣接領域(R,R)全てをマージすることによって生成される。
Figure 2011509451
ここで、(r,g,b)及び(r,g,b)はそれぞれ、領域R及びRの平均色ベクトルである。マージ閾値の通常の値はT=10である。新たな平均色ベクトルは次いで、マージされた領域について計算される。第2のマージされたセグメント化Sが、Sから、同じ手順を使用して、しかし、マージ閾値Tを使用して計算される。セグメント化S10が作成されるまで、この処理が続行する。一実施例では、閾値は、新たなマージ・レベル毎に10だけ増加させる。この場合、T10=100である。前述のセグメント化処理は、ユーザによる何れかの作業の前に行うことが可能であるか、又は、左矢印キー及び右矢印キーを押すことにより、ユーザが新たなビューを選択するにつれ、即座に行うことが可能である(図4の実施例)。実際に、ユーザが行っている現在の作業に何れのビューも適していない場合、例えば、図4の22a及び22b間の新たなビューについて、ユーザは、中間セグメント化を行うことを要求することが可能である。この新たなビュー22は、2つのビュー22a及び22bに関して使用される新たな中間閾値を使用してセグメント化を行うことにより、直ちに作成される。
図4は、どのようにして、別々の3つのセグメント化マージ・レベルが、例えば、画面上のカーソルにより、ユーザがセグメントを選択することにより、深度マップを生成するために使用されるかを示す。ビュー22cでは、大きなセグメントを単一のマウス・クリックで選択することが可能である。しかし、背景の一部は、前景において誤って配置され得る。これは、より低いマージ・レベルにおけるセグメント化に移動することにより、ビュー22bにおいて部分的に補正することが可能である。しかし、背景の小部分が前景になお配置されている場合でなおあり得る。この誤りは、更に低いマージ・レベルを有するセグメント化を選択することによって補正される(ビュー22a)。
図5は、対話型セグメント・マージを備えた深度エディタの動作のフローチャートを示す。破線の上には、ユーザの目に見えないオフライン処理がある。破線の下は、システムの対話部分である。エディタへの入力は、深度マップdが構成される画像データIである。
オフライン部分では、領域色セグメント化Sが計算される。好ましくは、これは、いわゆるオーバセグメンテーションである(シーン内の物体よりも多くのセグメントが画像内に存在しているということを意味している)。この最も基本的な色セグメント化Sが次いで、領域サイズ、領域平均色、領域テクスチャ、領域動き等などの領域特性に基づいて再帰的にマージされる。第1のマージ工程の結果がマージされたセグメント化Sである。Sに基づいて、領域サイズ、領域平均色、領域テクスチャ、領域動き等などの領域特性が再計算され、マージされた新たなセグメント化Sが計算される。特定の数Kに達するまで、この処理が繰り返される。セグメント化S乃至S全てが記憶される。更に、前述のセグメント化の次に、リアルタイム・エッジ表示のためにオンライン部分において使用されるK個のエッジ・マップが計算され、記憶される。
オンライン部分は、当初マージ・レベル・セグメント化及び当初背景深度マップを選択することによって開始する。当初マージ・レベルはデフォールトで中間マージ・レベルになる。当初背景深度マップは、ピクチャ内の高さの関数として深度を線形的に変える一定の背景値又は勾配である。
コントラスト色、又は当初マージ・レベルの他の強調表示手法を使用してセグメント化エッジを示す画像データを次いで表示してセグメント化ビューをもたらす。次に、ユーザは、画面を指し示し、左マウス・ボタンにクリックすることにより、領域を選択する。次いで、選択された領域は、ディスプレイ上で青色ピクチャ・チャネルを255にセットすることによって目に見えるようになる。領域は、現在の選択された領域の組に自動的に追加される。ユーザは、望む場合、マージ・レベルを変更し、かつ/又は新たな領域を選択することが可能である。左矢印キーを押すことにより、ユーザはより細かいセグメント化を選択する。右矢印キーを押すことにより、ユーザは、より粗いセグメント化を選択する。ユーザは、当該領域内の既に選択された画素上の左マウス・ボタンをクリックすることにより、領域を選択解除することが可能である。
ユーザが領域選択処理を完了すると、キーボード上のタブ・キーを押すことにより、画像のかわりに同じウィンドウ内で深度マップを示すことが可能である。現在の深度マップは次いで、緑色で描かれた選択された領域とともに表示される。次いで、ユーザは深度レベルを選択することが可能である。これは、スペースバーを押すことにより、5つの深度レベルのうちの1つの選択によってもたらすことができる。当初の深度値は255であり、ユーザがスペースバーを押す都度、深度レベルを50だけ減少させる。深度レベルが5の場合、次のレベルは255になる。ユーザは、Enterを押すことにより、処理を完了することが可能である。これにより、現在の領域選択が空になり、更に、深度マップが例えばディスクに保存される。画像にもう一度切り換えることは、Tabキーを押すことによって行われる。その後、ユーザは新たな選択を行うことが可能である。
上述の通り、動きに基づいたマージを使用して作成されている1つ又は複数のビュー20をユーザに向けて供給することが可能である。連続した2つの画像フレームが利用可能な場合、動き推定は、同じ物体に属している可能性が高いセグメントのグループ化に寄与し得る。これを達成する1つのやり方には、16×16個の画素の、重ならないブロック、及び33×33個の画素のサーチ・ウィンドウを使用して、まず動きを推定するということがある。ブロック毎に、絶対差の最小和をもたらす動きベクトルが選択される(絶対差が、赤色成分、緑色成分、及び青色成分にわたって合計される)。次いで、動きベクトルのサイズ33×33を有する2次元ヒストグラムが生成される。ヒストグラム内の各ビンは、特定のブロックについて、対応するベクトルが最善の一致であることが明らかになった回数のカウントを含む。
前述のヒストグラムから、次いで、ヒストグラムにおいて、Nmodels個の最大カウントを有するNmodels個の動きベクトルを選択することが可能である。一実現形態では、Nmodels=3を使用することが望ましいが、Nmodelsの、より大きな値により、更に、有用な出力が得られる。Nmodels個の候補動きベクトルが次いで、動きに基づいてマージしなければならない入力セグメント化の各セグメントを分類するために使用される。特に、入力セグメント化におけるセグメント毎に、動きベクトル毎に、セグメントにおける画素にわたる絶対色差の和が計算される(絶対差は、赤色成分、緑色成分、及び青色成分にわたって加算される)。絶対差の和が最小になる動きモデルが最もよく一致し、よって、セグメントに割り当てられる。最後に、動きに基づいて、マージされたセグメント化を作成するために、同じ動きモデル識別子を有する空間的に隣接したセグメントが、出力セグメント化において単一のセグメントにマージされる。
限定された数の所定の候補動きモデルを使用する上記手法は、解決策が、限定された数の考えられる動きに制約されるという利点を有する。画像が、均質な色領域又は雑音を有する場合、又はセグメントが小さい場合、特に有用である。その場合、別々の動きベクトルは、信頼できるやり方で、空間的に隣接したセグメントをマージすることがそれに基づいて困難であるその、雑音のある動きフィールドをもたらす絶対差の類似した小さな和をもたらし得る。(適切なパラメータの組を伴い、)セグメント化基準として動き及び色を使用することにより、単一のマージ図において2つのモダリティを合成することが可能になる。動き関連の情報を使用して他のセグメント化を行うことが可能であるということは当業者に明確になるであろう。
図6は、どのようにして2つのマージ・モダリティを使用して、別々の8つのセグメント化を生成することが可能であるかを示す。前述の実施例では、モダリティ(色及び動き)を使用して、「マージ図」を生成した。図7は、「マージ図」において別々のセグメント化間でユーザがどのようにして切り換えることが可能であるかを示す。図6では、別々のマージ・レベルでのセグメント化が、別々の2つのマージ・モダリティ(この場合、色及び動き)を使用してどのように作成されるかを示す。「マージ図」における各円は、セグメント化ビューを表し、各矢印は、マージされたセグメント化の方向を指し示す。開始セグメント化は、閉じた円で示す。前述のセグメント化は一度、(x軸方向において)色を使用してマージされ、2度目で、(y軸方向において)動きを使用してマージされる。色に基づいた、結果として生じるマージされたセグメント化は次いで、一度、色を使用してマージされ、2度目で、動き等を使用してマージされる。
図7では、キーボード上の4つの矢印キーのうちの1つを使用して「マージ図」における別々の2つのセグメント化図間でユーザがどのようにして切り換えることが可能であるかを示す。実際には、例えば、数字キーパッドのように配置された専用キーの組を使用して、前述のセグメント化が利用可能になるという前提で、更に多くの方向で実際にナビゲートすることが可能になる。あるいは、又は更に、マージ図の画面上のディスプレイをレンダリングし、種々のセグメント化ビューにわたるナビゲーションを容易にし得る。あるいは、マウスのストローク、又はマウスのジェスチャをナビゲーションのために使用することが可能である。
図8は、同じ背景に前景物体(スピーカ)を合成することによって作成された2つの検査画像18を示す。動きは、別の空間位置(右画像)における背景上にスピーカを貼り付け、それにより、動きをもたらすことによってシミュレートされている。前景内のスピーカは、暗い背景に対して写真撮影され、セグメント化され、別のピクチャ上に貼り付けられている。第2のピクチャでは、スピーカは、第1の画像に対して右に移動している。図8中の左画像は、ユーザに向けて提示され、セグメント化されており、図8中の右画像は、動きモデルの計算及び動きモデルの分類のための基準としてのみ使用されている。ユーザには示されない。画像フレームのビデオ系列を使用した例では、2つの画像18は連続フレームになる。
図9は、図7及び図8のマージ図によって構成された8つのセグメント化ビュー20全てを示す。8つのセグメント化は、マージ図の色軸及び動き軸に応じて構成される。セグメントはまず、水平方向に色に基づいてマージされており、次いで、垂直方向に動きに基づいてマージされている。左キー、右キー、下キー、及び上キーを使用して、前述の8つのセグメント化間でナビゲートする。明らかに、正の色マージ軸に沿って、セグメントがマージされ、正の動き軸に沿って、セグメントがマージされる。前述の8つのセグメント化間ですばやくナビゲートしながら、色ベースの2つのマージ工程、及びそれに続く、動きベースのマージ工程が、スピーカを選ぶ単一のマージ・セグメントをもたらすということが明らかになる。何れかのセグメント領域における一マウス・クリックにより、セグメントが強調表示される。キーボード上のTABキーを押すことにより、深度ウィンドウに切り換えた後、好適な深度が求められるまで、キーボード上のスペースバーを押すことにより、深度値を選択することができる。図10は、選択されたセグメント・ビュー20(左)、及び最終深度マップ24(右)を示す。
図10は、入力画像18から深度マップ24を得る処理を示す。図10は、当初マージ・レベル20、及びユーザ選択された大局深度プロファイル(深度マップ24)を示す。ディスプレイ装置12は、画像データ18のセグメント化ビュー20に沿って深度マップ24を表示するよう構成される。セグメント化ビュー20は、一連のエッジがオーバレイされた元の画像データ18とみなし得る。前述のエッジは、セグメント化アルゴリズムの出力である領域(又はセグメント)を規定する。深度マップ24は、少なくとも処理のこの時点では、その中にユーザ定義データを有しないことによって開始する。ユーザが深度マップ24を容易に構築することを可能にするために、ツールが提供される。
ユーザは次いで、画像データ18のセグメントを選択する選択ユーザ入力を供給することが可能である。システムは次いで、その領域26を深度マップ24に深度領域28として移す。システムは、領域26の当該選択ユーザ入力に関する深度ユーザ入力を受け取り、画像データ18の深度マップ24が相応に作成される。ユーザは、ビュー20において選択した領域の深度値を選択する。ユーザは、望む場合、ビュー20からの複数の領域を選択することが可能である。選択されたビューは全て、次いで、深度マップ24に移され、ユーザは、深度値を前述の領域に割り当てることが可能である。実際に、別々の深度値を、深度マップ24に現在移されている別々の領域について選択することが可能である。
(ダイアル16などを介して)規定されたユーザ入力の後、ユーザは、別のセグメント化ビューに切り換えることが可能である。ユーザは、より粗いマージ・レベル(細粒度)に切り換えることが可能であり、これにより、複数のマウス・クリック(その後、深度値が割り当てられる)で、画像18の更なる部分をユーザが選択することが可能になる。ユーザによって選択された領域は、深度マップ24内の成分に変換される。ユーザは、所望の深度を、選択された領域に割り当てる旨の深度入力を行う。前述の処理は続く。ユーザは、セグメント化レベル間で移動し、現在のビュー内の1つ又は複数のセグメントを選択し、次いで、選択された領域に深度値を割り当てて深度マップdを構築する。ユーザが終了すると、深度マップdは、画像データ処理の出力になる。
図10を参照して説明したシステム及び方法は、色距離に基づいて隣接領域を再帰的にマージすることによって、マージされたセグメント化が作成されるということを表している。しかし、前述のセグメント化基準は、領域特性の選択を制限する。色距離以外の基準を使用することが可能である。例えば、複雑度がより高い手法には、10%の最小領域を選択し、色において最も類似した隣接領域と前述それぞれをマージするということがある。更に、第2の画像に関する動き情報を使用して、マージされたセグメント化を作成することが可能である。次いで、セグメントを、動きの類似度についてマージすることが可能である。
画像セグメント化は既知の手法である。Richard O. Duda、 Peter E. Hart及びDavid G. Storkによる「Pattern Classification, John Wiley and Sons, Inc., New York, 2001」並びにC. Oliver、 S. Queganによる「Understanding Synthetic Aperture Radar Images」に説明された領域フィッティング・セグメント化アルゴリズムに対する基準を表す。Dudaの参考文献(ページ548及び549)により、反復的フィッティング中に一セグメントから別のセグメントに一サンプルが移動すると、誤り基準の単述かつ効率的な更新のための等式が得られる。この反復的フィティング手法は、上記処理において第1の(マージされていない)セグメント化を生成するよう施すことが可能である。領域フィティングにより、Oliverの参考文献において提示される尺度を使用して、セグメント境界が平滑であることも徹底される。境界の平滑性による反復的領域フィッティングにより、受け入れ可能な結果が得られる。しかし、場合によっては、縦長の長い領域が、ぼやけた物体エッジに沿って形成される。したがって、前述のセグメント化は、2つの領域フィッティング工程間で「フォールス・エッジ除去」を使用することによって改善することが可能である。2つの領域フィッティング工程間でフォールス・エッジ除去を使用するという考えは、「Method and apparatus for removing false edges from a segmented image」と題する、先願の国際公開2004/051573号に開示されている。
一般的な規則として、より小さいセグメント/領域に元の画像データを分割する何れかの適切なセグメント化アルゴリズムを使用することが可能である。パラメータの調節により、別々のセグメント化ビューを生成するようセグメント化の細粒度を調節することが可能であるということが必要であるに過ぎない。前述の別々のビューは次いで、それらの間で切り換え、深度マップの作成などの現在の作業について別々のレベルで別々のセグメントを選択することが可能なユーザに対して利用可能である。
上述の通り、本発明は、ロトスコープ、画像復元、映画の着色化などの他のグラフィカル・アプリケーションにおいて、又はグラフィカル・エディタにおいて物体、領域を選択するために使用することも可能である。選択を視覚化するために、選択されたセグメントは好ましくは、選択処理を通じて、コントラスト色を使用して着色化され、かつ/又はアウトライン化される。
上記は、主に、画像系列からの画像に関して説明してきたが、本発明は、静止画像に深度マップを注釈するために、同様な利点で使用することも可能である。静止画像が画像系列から得られるとすれば、セグメント化のために動きキューを使用することがなお可能であり得る。しかし、単一の静止画像のみが利用可能な場合、動きキューは存在せず、前述の場合、輝度、クロミナンス及び/又はテクスチャなどの他のキューを、画像データをセグメント化するために使用することができる。前述の実施例は本発明を限定するよりも例証するものであり、本特許請求の範囲記載の範囲から逸脱しない限り、当業者は多くの別の実施例を企図することができる。
特許請求の範囲では、括弧内にある参照符号は何れも、請求項を限定するものと解されるべきでない。
本発明の枠組み内で、多くの変形が可能であることが明らかである。本明細書で具体的に示し、説明してきたものに本発明が限定されないということを当業者は認識するであろう。本発明は、新規な特徴的構成全て、及び特徴的構成の組合せ全てにおいて存在している。特許請求の範囲における参照符号は、その保護の範囲を限定するものでない。
「comprise」という動詞、及びその活用形を使用していることは、請求項記載のもの以外の構成要素が存在することを排除するものでない。構成要素に先行する冠詞「a」又は「an」を使用していることは、前述の複数の構成要素が存在していることを排除するものでない。

Claims (18)

  1. 画像データを処理する方法であって、
    第1の基準及び第1のパラメータを使用して前記画像データをセグメント化して、前記画像データの第1のセグメント化ビューを生成する工程と、
    前記第1の基準又は第2の基準及び第2のパラメータを使用して前記画像データをセグメント化して、前記画像データの第2のセグメント化ビューを生成する工程と、
    前記画像データの前記第1のセグメント化ビューを表示する工程と、
    前記第1のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取る工程と、
    前記画像データの前記第2のセグメント化ビューを表示する工程と、
    前記第2のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取る工程と
    を含む方法。
  2. 請求項1記載の方法であって、前記第1のセグメント化ビューからの前記1つ又は複数の選択されたセグメント、及び前記第2のセグメント化ビューからの前記1つ又は複数の選択されたセグメントを合成する工程を更に含む方法。
  3. 請求項1又は2に記載の方法であって、前記第1のセグメント化ビューからセグメントを選択した後に、定義されたユーザ入力を受信する工程を更に含み、前記定義されたユーザ入力は、前記第2のセグメント化ビューの表示をトリガする方法。
  4. 請求項1又は2に記載の方法であって、前記セグメント化ビューにおける合成された選択画像セグメントの輪郭を連続して視覚化する工程を更に含む方法。
  5. 請求項1又は2に記載の方法であって、1つ又は複数の深度ユーザ入力を受け取る工程であって、各深度ユーザ入力は、それぞれの選択ユーザ入力に関係する工程と、相応に前記画像データの深度マップを生成する工程とを更に含む方法。
  6. 請求項5記載の方法であって、前記画像データのセグメント化ビューに沿って前記深度マップを表示する工程を更に含む方法。
  7. 請求項1又は2に記載の方法であって、前記第2のセグメント化ビューが何れも前記第1の基準に基づく場合、前記方法は、第2の基準及び第3のパラメータを使用して画像データをセグメント化して、画像データの第3のセグメント化ビューを生成する工程と、更に定義されたユーザ入力を受け取る工程と、画像データの第3のセグメント化ビューを表示する工程と、前記第3のセグメント化ビューに表示されるように、画像データの1つ又は複数のセグメントを選択する選択ユーザ入力を受け取る工程とを更に含む方法。
  8. 請求項1又は2に記載の方法であって、マージ・ユーザ入力を受信する工程、前記画像データのセグメントを選択するユーザ入力によって定義される前記画像データのセグメントをマージする工程とを更に含む方法。
  9. 請求項1又は2に記載の方法であって、前記基準は、色、セグメント・サイズ、輝度、クロミナンス、動き及びテクスチャから選択される方法。
  10. 画像データを処理するシステムであって、
    第1の基準及び第1のパラメータを使用して前記画像データをセグメント化して、前記画像データの第1のセグメント化ビューを生成し、前記第1の基準又は第2の基準及び第2のパラメータを使用して前記画像データをセグメント化して、前記画像データの第2のセグメント化ビューを生成するよう構成されたプロセッサと、
    前記画像データの前記第1のセグメント化ビュー及び前記第2のセグメント化ビューを表示するよう構成された表示装置と、
    前記第1のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取り、前記第2のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るよう構成されたユーザ・インタフェースと
    を備えるシステム。
  11. 請求項10記載のシステムであって、前記ユーザ・インタフェースは、1つ又は複数の深度ユーザ入力を受け取るよう更に構成され、前記深度ユーザ入力はそれぞれの選択ユーザ入力に関し、前記プロセッサは、相応に、前記画像データの深度マップを作成するよう更に構成されるシステム。
  12. 請求項11記載のシステムであって、前記表示装置は、前記画像データのセグメント化ビューに沿って前記深度マップを表示するよう更に構成されるシステム。
  13. 請求項10、11、又は12に記載のシステムであって、前記第第2のセグメント化ビューが何れも前記第1の基準に基づいており、前記プロセッサは、第2の基準及び第3のパラメータを使用して前記画像データをセグメント化して、前記画像データの第3のセグメント化ビューを生成するよう更に構成され、前記表示装置は、前記画像データの前記第3のセグメント化ビューを表示するよう更に構成され、前記ユーザ・インタフェースは、前記第3のセグメント化ビューに表示されるように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るよう更に構成されるシステム。
  14. 画像データを処理するためのコンピュータ読み取り可能な媒体上のコンピュータ・プログラム・プロダクトであって、前記プロダクトは、命令を有し、前記命令は、
    第1の基準及び第1のパラメータを使用して前記画像データをセグメント化して、前記画像データの第1のセグメント化ビューを生成するための命令と、
    前記第1の基準又は第2の基準及び第2のパラメータを使用して前記画像データをセグメント化して、前記画像データの第2のセグメント化ビューを生成するための命令と、
    前記画像データの前記第1のセグメント化ビューを表示するための命令と、
    前記第1のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の選択ユーザ入力を受け取るための命令と、
    前記画像データの前記第2のセグメント化ビューを表示するための命令と、
    前記第2のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るための命令と
    を含むコンピュータ・プログラム・プロダクト。
  15. 請求項14記載のコンピュータ・プログラム・プロダクトであって、1つ又は複数の深度ユーザ入力を受け取るための命令を更に備え、各深度ユーザ入力は、それぞれの選択ユーザ入力に関係するための命令と、相応に前記画像データの深度マップを生成するための命令を更に含むコンピュータ・プログラム・プロダクト。
  16. 請求項15記載のコンピュータ・プログラム・プロダクトであって、前記画像データのセグメント化ビューに沿って前記深度マップを表示するための命令を更に含むコンピュータ・プログラム・プロダクト。
  17. 請求項14、15又は16に記載のコンピュータ・プログラム・プロダクトであって、前記第2のセグメント化ビューは前記第1の基準に基づいており、更に、第2の基準及び第3のパラメータを使用して前記画像データをセグメント化して前記画像データの第3のセグメント化ビューを作成するための命令と、前記画像データの前記第3のセグメント化ビューを表示するための命令と、前記第3のセグメント化ビューにおいて表示されたように、前記画像データの1つ又は複数のセグメントを選択する1つ又は複数の更なる選択ユーザ入力を受け取るための命令とを更に備えるコンピュータ・プログラム・プロダクト。
  18. 請求項14乃至17の何れか一項に記載のコンピュータ・プログラム・プロダクトであって、マージ・ユーザ入力を受信する命令と、前記画像データのセグメントを選択するユーザ入力によって定義される前記画像データのセグメントをマージするための命令とを更に備えるコンピュータ・プログラム・プロダクト。
JP2010538997A 2007-12-20 2008-12-15 画像データのセグメント化 Pending JP2011509451A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07123756 2007-12-20
PCT/IB2008/055286 WO2009083854A2 (en) 2007-12-20 2008-12-15 Segmentation of image data

Publications (1)

Publication Number Publication Date
JP2011509451A true JP2011509451A (ja) 2011-03-24

Family

ID=40824802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010538997A Pending JP2011509451A (ja) 2007-12-20 2008-12-15 画像データのセグメント化

Country Status (7)

Country Link
US (1) US8515172B2 (ja)
EP (1) EP2225725A2 (ja)
JP (1) JP2011509451A (ja)
KR (1) KR20100095465A (ja)
CN (1) CN102016917A (ja)
TW (1) TW200935872A (ja)
WO (1) WO2009083854A2 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8475050B2 (en) * 2009-12-07 2013-07-02 Honeywell International Inc. System and method for obstacle detection using fusion of color space information
US8538135B2 (en) * 2009-12-09 2013-09-17 Deluxe 3D Llc Pulling keys from color segmented images
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
US20120113146A1 (en) * 2010-11-10 2012-05-10 Patrick Michael Virtue Methods, apparatus and articles of manufacture to combine segmentations of medical diagnostic images
JP5733565B2 (ja) 2011-03-18 2015-06-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8804819B1 (en) 2011-04-19 2014-08-12 Google Inc. Method and apparatus for encoding video using data frequency
US8705620B1 (en) * 2011-04-28 2014-04-22 Google Inc. Method and apparatus for encoding anchor frame by encoding features using layers
US9749638B1 (en) 2011-04-28 2017-08-29 Google Inc. Method and apparatus for encoding video with dynamic quality improvement
KR101811637B1 (ko) 2011-05-02 2017-12-26 삼성전자주식회사 선택적인 픽셀 비닝 장치 및 방법
KR20130084341A (ko) * 2012-01-17 2013-07-25 삼성전자주식회사 이미지 변환 메커니즘을 갖는 디스플레이 시스템 및 그 운용 방법
US9013549B2 (en) * 2012-05-24 2015-04-21 Silicon Integrated Systems Corp. Depth map generation for conversion of two-dimensional image data into three-dimensional image data
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
US9886767B2 (en) * 2013-05-03 2018-02-06 Nokia Technologies Oy Method, apparatus and computer program product for segmentation of objects in images
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
US10021366B2 (en) * 2014-05-02 2018-07-10 Eys3D Microelectronics, Co. Image process apparatus
KR20160025922A (ko) * 2014-08-28 2016-03-09 삼성전자주식회사 영상 처리 방법 및 장치
US10217223B2 (en) 2014-10-28 2019-02-26 Hewlett-Packard Development Company, L.P. Image data segmentation
US10339410B1 (en) * 2016-01-13 2019-07-02 Snap Inc. Color extraction of a video stream
US10701335B2 (en) * 2016-02-25 2020-06-30 Intel Corporation Calculation of temporally coherent disparity from sequence of video frames
RU2635900C1 (ru) * 2016-07-07 2017-11-16 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер для кластеризации областей карты цифрового изображения
GB201700121D0 (en) * 2017-01-05 2017-02-22 Rotem Gal System methods and computer readable storage media for conversion of two-dimensional multipile objects layouts into three dimensional layouts
US10510148B2 (en) 2017-12-18 2019-12-17 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for block based edgel detection with false edge elimination
KR102653796B1 (ko) * 2018-09-17 2024-04-01 스냅 인코포레이티드 3차원 깊이 비디오들 및 이미지들에서 쇼크웨이브들의 생성
US10764556B2 (en) * 2018-09-26 2020-09-01 Snap Inc. Depth sculpturing of three-dimensional depth images utilizing two-dimensional input selection
US10991101B2 (en) * 2019-03-12 2021-04-27 General Electric Company Multi-stage segmentation using synthetic images
US20230052727A1 (en) * 2019-12-17 2023-02-16 Abyss Solutions Pty Ltd Method and system for detecting physical features of objects
US11430086B2 (en) * 2020-05-13 2022-08-30 Microsoft Technology Licensing, Llc Upsampling low temporal resolution depth maps

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62222372A (ja) * 1986-03-24 1987-09-30 Sharp Corp 画像処理装置
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH07508633A (ja) * 1993-04-30 1995-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像系列における物体の追跡
JPH10200752A (ja) * 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
JP2001307087A (ja) * 2000-04-08 2001-11-02 Carl Zeiss Vision Gmbh 循環的対話型画像分析のための手順、並びに、その手順を実行するためのコンピュータ・システム及びコンピュータ・プログラム
JP2002123842A (ja) * 2000-10-13 2002-04-26 Takumi:Kk 立体視画像生成装置および情報記憶媒体
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2003109027A (ja) * 2001-09-28 2003-04-11 Keyence Corp 画像処理領域の指定回路、画像処理領域の指定方法、画像処理領域の指定プログラムおよびコンピュータで読み取り可能な記録媒体
JP2004078432A (ja) * 2002-08-13 2004-03-11 Sony Corp オブジェクト抽出装置、オブジェクト抽出方法および画像表示装置
JP2005149439A (ja) * 2003-11-20 2005-06-09 Oki Data Corp 画像処理装置及び画像処理方法
JP2005293367A (ja) * 2004-04-01 2005-10-20 Seiko Epson Corp 画像処理方法及び装置
JP2006519635A (ja) * 2003-02-28 2006-08-31 セダラ ソフトウェア コーポレイション 画像領域セグメント化システムおよびその方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ID27878A (id) 1997-12-05 2001-05-03 Dynamic Digital Depth Res Pty Konversi image yang ditingkatkan dan teknik mengenkodekan
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
US6526169B1 (en) 1999-03-15 2003-02-25 Grass Valley (Us), Inc. Histogram-based segmentation of objects from a video signal via color moments
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
AUPQ416699A0 (en) 1999-11-19 1999-12-16 Dynamic Digital Depth Research Pty Ltd Depth map compression technique
US7245766B2 (en) 2000-05-04 2007-07-17 International Business Machines Corporation Method and apparatus for determining a region in an image based on a user input
CA2418800A1 (en) 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding techniques
CN1720550A (zh) 2002-12-05 2006-01-11 皇家飞利浦电子股份有限公司 从分割图像中去除伪边缘的方法和设备
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
US7262767B2 (en) 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
CN101065773A (zh) 2004-11-27 2007-10-31 布雷克成像有限公司 2d/3d集成式轮廓编辑器

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62222372A (ja) * 1986-03-24 1987-09-30 Sharp Corp 画像処理装置
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH07508633A (ja) * 1993-04-30 1995-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像系列における物体の追跡
JPH10200752A (ja) * 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
JP2001307087A (ja) * 2000-04-08 2001-11-02 Carl Zeiss Vision Gmbh 循環的対話型画像分析のための手順、並びに、その手順を実行するためのコンピュータ・システム及びコンピュータ・プログラム
JP2002123842A (ja) * 2000-10-13 2002-04-26 Takumi:Kk 立体視画像生成装置および情報記憶媒体
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2003109027A (ja) * 2001-09-28 2003-04-11 Keyence Corp 画像処理領域の指定回路、画像処理領域の指定方法、画像処理領域の指定プログラムおよびコンピュータで読み取り可能な記録媒体
JP2004078432A (ja) * 2002-08-13 2004-03-11 Sony Corp オブジェクト抽出装置、オブジェクト抽出方法および画像表示装置
JP2006519635A (ja) * 2003-02-28 2006-08-31 セダラ ソフトウェア コーポレイション 画像領域セグメント化システムおよびその方法
JP2005149439A (ja) * 2003-11-20 2005-06-09 Oki Data Corp 画像処理装置及び画像処理方法
JP2005293367A (ja) * 2004-04-01 2005-10-20 Seiko Epson Corp 画像処理方法及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN5011005193; CATES J. E. , et al.: '"CASE STUDY: AN EVALUATION OF USER-ASSISTED HIERARCHICAL WATERSHED SEGMENTATION"' MEDICAL IMAGE ANALYSIS Vol.9, No.6, 20051201, p.566-578, OXFORD UNIVERSITY PRESS *
JPN5011005196; LEI ZHANG, et al.: '"AN IMAGE SEGMENTATION FRAMEWORK BASED ON PATCH SEGMENTATION FUSION"' 18TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION Vol.2, 20060820, p.187-190, IEEE *
JPN5011005198; DAYANAND S., et al.: '"A PARTICLE SYSTEM MODEL FOR COMBINING EDGE INFORMATION FROM MULTIPLE SEGMENTATION MODULES"' CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING Vol.56, No.3, 19940501, p.219-230, ACADEMIC PRESS *

Also Published As

Publication number Publication date
WO2009083854A2 (en) 2009-07-09
US20110002541A1 (en) 2011-01-06
CN102016917A (zh) 2011-04-13
EP2225725A2 (en) 2010-09-08
KR20100095465A (ko) 2010-08-30
US8515172B2 (en) 2013-08-20
TW200935872A (en) 2009-08-16
WO2009083854A3 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
US8515172B2 (en) Segmentation of image data
US11756223B2 (en) Depth-aware photo editing
US8538144B2 (en) Methods and systems for color correction of 3D images
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US8073247B1 (en) Minimal artifact image sequence depth enhancement system and method
US8160390B1 (en) Minimal artifact image sequence depth enhancement system and method
JP2019525515A (ja) マルチビューシーンのセグメンテーションおよび伝播
US20130079911A1 (en) Method and device for generating morphing animation
KR101942987B1 (ko) 동영상 배경 제거 방법, 시스템 및 컴퓨터 판독가능 저장장치
Hebborn et al. Occlusion matting: realistic occlusion handling for augmented reality applications
JPWO2013054462A1 (ja) ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
RU2718423C2 (ru) Способ определения карты глубин для изображения и устройство для его осуществления
US20200304713A1 (en) Intelligent Video Presentation System
US9786055B1 (en) Method and apparatus for real-time matting using local color estimation and propagation
US20210350547A1 (en) Learning apparatus, foreground region estimation apparatus, learning method, foreground region estimation method, and program
WO2023244320A1 (en) Generating parallax effect based on viewer position
US20130106845A1 (en) Stereoscopic image display apparatus
KR101626679B1 (ko) 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체
US11676334B2 (en) Method and apparatus for plenoptic point clouds generation
Maia et al. A real-time x-ray mobile application using augmented reality and google street view
USRE49044E1 (en) Automatic avatar creation
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
Gökbulut Conversion of two-dimensional videos to threedimensional

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120905

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130717

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140403