JP2016100901A - 映像処理方法及び装置 - Google Patents

映像処理方法及び装置 Download PDF

Info

Publication number
JP2016100901A
JP2016100901A JP2015229077A JP2015229077A JP2016100901A JP 2016100901 A JP2016100901 A JP 2016100901A JP 2015229077 A JP2015229077 A JP 2015229077A JP 2015229077 A JP2015229077 A JP 2015229077A JP 2016100901 A JP2016100901 A JP 2016100901A
Authority
JP
Japan
Prior art keywords
video
processing method
hole
block
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015229077A
Other languages
English (en)
Other versions
JP6705644B2 (ja
Inventor
良 鎬 趙
Yang-Ho Cho
良 鎬 趙
東 ▲きょん▼ 南
Dong Kyung Nam
東 ▲きょん▼ 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016100901A publication Critical patent/JP2016100901A/ja
Application granted granted Critical
Publication of JP6705644B2 publication Critical patent/JP6705644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】 映像処理方法及び装置を提供する。
【解決の手段】映像処理方法及び装置が開示される。一実施形態に係る装置は、映像に含まれたホールを復元するために、映像内の類似形態の分布を定義する特性を用いる。実施形態は、映像内の類似形態の分布を定義する特性を用いることで、ホールの復元のための演算の複雑度を減少させる。
【選択図】 図1

Description

以下の実施形態は、映像処理方法及び装置に関し、例えば映像に含まれたホールを復元する技術に関する。
制限された数の入力視点のみを生成して、入力視点を送信された映像処理装置が入力視点を用いて多視点映像を生成する入力視点において、前景オブジェクトによってオクルージョン領域は、多視点映像におけるホールとして表われる。
実施形態は、映像に含まれたホールを復元する技術を提供することにある。
一側面に係る映像処理方法は、第1映像内の類似形態の分布を定義する特性を取得するステップと、前記特性に基づいて第2映像に含まれたホールを復元するステップとを含む。前記特性は、前記第1映像の背景に含まれた構造情報を含んでもよい。前記第1映像と前記第2映像は同一の映像であってもよく、異なる映像であってもよい。
実施形態は、映像に含まれるホールを復元する技術を提供することができる。
一実施形態に係る映像処理装置の動作を説明する図である。 一実施形態に係るホール復元方法を説明する図である。 一実施形態に係るホール復元方法を説明する図である。 一実施形態に係るホール復元方法を説明する図である。 ホール復元方法が適用される実施形態を説明する図である。 ホール復元方法が適用される実施形態を説明する図である。 一実施形態に係る類似形態の分布特性を検出する方法を説明する図である。 実施形態に係る映像に含まれた背景の構造情報により生成される類似形態の分布特性を説明する図である。 実施形態に係る映像に含まれた背景の構造情報により生成される類似形態の分布特性を説明する図である。 実施形態に係る映像に含まれた背景の構造情報により生成される類似形態の分布特性を説明する図である。 一実施形態に係るレイヤー別の類似形態の分布特性を説明する図である。 一実施形態に係るレイヤー別の類似形態の分布特性を用いてホールを復元する方法を説明する図である。 一実施形態に係る領域別の類似形態の分布特性を用いてホールを復元する方法を説明する図である。 一実施形態に係る動画のちらつきを防止する方法を説明する図である。 一実施形態に係る映像処理方法を示した動作フローチャートである。 一実施形態に係る映像処理装置を示すブロック図である。
以下、実施形態が添付された図面を参照して詳細に説明する。各図面で提示された同一の参照符号は同一の部材を示す。以下で説明する実施形態は、3次元のビュー合成(3D view synthesis)のためのホールを復元するのに用いてもよい。実施形態は、制限された数の入力視点から任意視点を生成するのに適用されてもよい。例えば、実施形態は、オートステレオスコピック3Dディスプレイのための多視点映像を生成するのに適用されてもよい。また、実施形態は、ユーザが自由に動きながら観測できる自由視点表示のための仮想の任意視点映像を生成するのにも適用されてもよい。
図1は、一実施形態に係る映像処理装置の動作を説明する図である。図1を参照すると、一実施形態に係る映像処理装置110は、映像120に含まれたホール121を復元する。映像処理装置110は、ハードウェアモジュール、ソフトウェアモジュール、又は、これらの組合せで実現してもよい。映像処理装置110は、映像を処理する装置として、例えばサーバ、パーソナルコンピュータ、ノートコンピュータ、タブレットPC、スマートフォン、ウェアラブルデバイスなどの様々なコンピュータ装置を含んでもよい。
映像処理装置110は、映像内の類似形態が分布する特性に該当する類似形態の分布特性130を用いて映像120に含まれたホール121を復元する。類似形態の分布特性130は、映像内の類似形態の分布を定義する特性であってもよい。類似形態の分布特性130は、映像の背景に含まれた構造情報を含んでもよい。類似形態の分布特性130は、映像内の類似形態が繰り返される特性である。映像処理装置110は、類似形態の分布特性130を用いることによって、背景の構造情報が保持されるようにホール121を復元してもよい。出力映像140で復元されたホールの部分は、隣接した背景と自然な視感的特性とを提供してもよい。ホールの復元は、ホールのレンダリングと呼んでもよい。
背景の構造情報は、背景に含まれた構造的形状と関連する情報である。ここで、構造的形状は、一部分を用いて他の部分を予測できる構造を有する形状を意味する。例えば、構造的形状は、繰り返しパターンを有する形状を含んでもよい。
以下で詳細に説明するが、映像処理装置110は、裸眼3Dディスプレイのために入力映像から多視点映像を生成する技術に適用されてもよい。例えば、制限された数の入力映像から複数の任意視点映像を生成することになると、入力映像における前景によって遮られた背景の領域が新しい視点の映像においてホールとして表れる。映像処理装置110は、多視点映像の生成中に発生するホールを復元するのに適用されてもよい。
図2は、一実施形態に係るホール復元方法を説明する図である。図2を参照すると、一実施形態に係る類似形態の分布特性に応じてホールの復元のために探索する領域が変わる。類似形態の分布特性は、複数のポイントを含んでもよい。類似形態の分布特性に含まれたポイントそれぞれは、映像内の任意の領域と類似形態を有する可能性が高い領域との相対的位置情報を提供する。映像処理装置は、ホールの復元のために、映像全体をスキャンする代わりに類似形態の分布特性211により指し示められる候補領域だけを探索してもよい。そのため、ホールの復元のための演算の複雑度が減少する可能性がある。
映像処理装置は、復元対象になる領域の復元ブロックを復元するために他の領域に該当する候補ブロックを探索してもよい。映像処理装置は、類似形態の分布特性に基づいて、復元ブロックを復元するのに利用可能な候補ブロックを決定してもよい。映像処理装置は、決定される候補ブロックを用いて復元ブロックを復元してもよい。
復元ブロックは、ホールの境界に位置する。例えば、復元ブロックの一部は、映像情報を含み、復元ブロックの残りの一部は、ホールを含んでもよい。映像処理装置は、復元ブロックの一部に含まれた映像情報と候補ブロックに含まれた映像情報とを比較することによって、復元ブロックを復元するために用いられる最適候補ブロックを決定してもよい。映像処理装置は、決定される最適候補ブロックに含まれた映像情報を用いて復元ブロックに含まれたホールを復元してもよい。
一例として、第1ケース210における類似形態の分布特性211は、原点を中心としてy軸方向に配置されたポイントを含んでもよい。復元ブロック215に含まれたホールを復元する場合を仮定すると、映像処理装置は、類似形態の分布特性211に基づいて復元ブロック215から上に配置された第1候補ブロック217と復元ブロック215から下に配置された第2候補ブロック218とを探索することができる。映像処理装置は、復元ブロック215の一部に含まれた映像情報と候補ブロックに含まれた映像情報とを比較してもよい。復元ブロック215の一部に含まれた映像情報と第1候補ブロック217に含まれた映像情報とが一致するため、映像処理装置は、第1候補ブロック217を最適候補ブロックとして選択することができる。映像処理装置は、第1候補ブロック217を用いて復元ブロック215の残りの一部に含まれたホールを復元してもよい。
他の例として、第2ケース220における類似形態の分布特性221は、原点を中心として対角線方向に配置されたポイントを含んでもよい。この場合、映像処理装置は、類似形態の分布特性221に基づいて、復元ブロック225から対角線方向に配置された候補ブロック227、228を探索することができる。映像処理装置は、候補ブロック227を最適候補ブロックとして選択し、候補ブロック227を用いて復元ブロック225に含まれたホールを復元してもよい。
更なる例として、第3ケース230における類似形態の分布特性231は、原点を中心として様々な方向に配置されたポイントを含んでもよい。この場合、映像処理装置は、類似形態の分布特性231に基づいて、復元ブロック235から様々な方向に配置された候補ブロックを探索することができる。映像処理装置は、最適候補ブロックを選択し、選択された最適候補ブロックを用いて復元ブロック235に含まれたホールを復元してもよい。複数の最適候補ブロックが選択される場合、映像処理装置は、選択される最適候補ブロックに含まれた映像情報を組合せることによって復元ブロック235に含まれたホールを復元することができる。
実施形態は、最適候補ブロックを探すために、映像全体を探索する代わりに類似形態の分布特性に応じて指し示められる候補ブロックだけ探索することによって、演算量を減少させることができる。また、実施形態は、映像全体を探索する過程で発生するエラーによる画質劣化をも減少させることができる。
映像処理装置は、グローバル最適化方法を用いてホールを復元してもよい。より具体的には、映像処理装置は、ホールに含まれた画素それぞれを復元するとき、最適候補ブロックから得た画素値に関するデータ要素と隣接の画素の類似度に関する柔軟要素とを用いてグローバル最適化を行ってもよい。
図3及び図4は、ホール復元方法が適用される実施形態を説明する図である。図3を参照すると、一実施形態に係る映像処理装置は、視点生成モジュール320及びホール復元モジュール330を含んでもよい。視点生成モジュール320及びホール復元モジュール330は、それぞれハードウェアモジュール、ソフトウェアモジュール、及びこれらの組合せで実現してもよい。
視点生成モジュール320は、N個(Nは、正の整数)のビュー310を受信してもよい。N個のビュー310は、それぞれ互いに異なる視点に該当する映像であってもよい。視点生成モジュール320は、ビュー310に対応する視差情報又は奥行き情報を取得してもよい。
一例として、視点生成モジュール320は、ビュー310に対応する視差情報又は奥行き情報をビュー310のように受信してもよい。各画素の視差情報又は奥行き情報は、それぞれ視差マップ又は奥行きマップと表現する。視点生成モジュール320は、色画像311と奥行き画像312を受信してもよい。奥行き画像312は、色画像311の画素に対応する奥行き情報を含む映像である。他の例として、ビュー310の個数が複数の場合、視点生成モジュール320は、ビュー310から視差情報又は奥行き情報を生成することができる。視点生成モジュール320は、ステレオマッチング方法などを用いて視差情報又は奥行き情報を生成してもよい。
視点生成モジュール320は、視差情報又は奥行き情報に基づいてビュー310から新しいビューを生成してもよい。新しいビューは、ビュー310の視点と異なる視点に該当する映像であってもよい。この場合、ビュー310は、新しいビューを生成するための基準映像である。
視点生成モジュール320は、ビュー310に含まれた画素を奥行きに沿って移動させることによって、新しいビューを生成してもよい。例えば、視点生成モジュール320は、ビュー310の奥行き情報に基づいてビュー310の画素を新しいビューの視点に対応する位置で投影させてもよい。この場合、ビュー310の画素のうち奥行き値が小さい画素であるほど長く移動し、奥行き値が大きい画素であるほど短く移動することができる。
ビュー310の画素が奥行き値により移動する距離が変わるため、新しいビューを生成する過程でホールが生成されてもよい。ビュー310における前景により遮られた背景の領域が新しいビューにおいてホールになる可能性がある。
例えば、ビュー321は、ビュー311の視点より左側に位置する視点に該当する映像である。ビュー321を生成するために、視点生成モジュール320は、前景に該当するオブジェクトを右側へ移動させることができる。そのため、ビュー311における前景によって遮られた背景の領域中の一部がビュー321においてホールになり得る。また、ビュー322は、ビュー311の視点より右側に位置する視点に該当する映像である。ビュー322を生成するために、視点生成モジュール320は、前景に該当するオブジェクトを左側へ移動させることができる。そのため、ビュー311における前景によって遮られた背景の領域中の一部がビュー322においてホールになり得る。
ホール復元モジュール330は、類似形態の分布特性を用いて新しいビューに含まれたホールを復元する。ビュー331は、ビュー321に含まれたホールが復元された映像であってもよく、ビュー332は、ビュー322に含まれたホールが復元された映像であってもよい。ホール復元モジュール330の動作については、図2を参照して前述した事項がそのまま適用されるため、より詳細な説明は省略する。類似形態の分布特性は、ビュー310又は新しいビューを分析することによって生成されてもよい。類似形態の分布特性の生成方法に関するより詳細な事項は後述する。図3の実施形態により、N個のビュー310からM個(Mは、Nより大きい整数)のビュー340が生成されてもよい。
図4を参照すると、一実施形態に係る映像処理装置は、基準ビュー生成モジュール420、ホール予測モジュール430、ホール復元モジュール440、及び復元情報分配モジュール450を含んでもよい。基準ビュー生成モジュール420、ホール予測モジュール430、ホール復元モジュール440、及び復元情報分配モジュール450は、それぞれハードウェアモジュール、ソフトウェアモジュール、及びこれらの組合せで実現してもよい。
基準ビュー生成モジュール420は、互いに異なる視点に該当するN個(Nは、正の整数)のビュー410を受信してもよい。例えば、N個のビュー410は、左目の視点映像に該当する左側ビュー411及び右目の視点画像に該当する右側ビュー412を含むステレオ画像であってもよい。
基準ビュー生成モジュール420は、ビュー410から基準ビューを生成する。基準ビューは、基準視点に該当する映像である。基準視点は、入力視点の中間視点、又は、生成される視点の中間視点などとして予め決定されてもよい。例えば、基準ビュー生成モジュール420は、ステレオ画像から中間視点のビュー421を生成するすることができる。
中間視点のビュー421は、実際にホールを含めない場合がある。例えば、左側ビュー411を基準として中間視点のビュー421を生成する場合、左側ビュー411の前景に該当するオブジェクトは、左側へ移動することができる。この場合、オブジェクトの右側にホールが生成され得る。オブジェクトの右側に生成されるホールは、右側ビュー412を用いて復元されてもよい。反対に、右側ビュー412を基準として中間視点のビュー421を生成する場合、右側ビュー412の前景に該当するオブジェクトは、右側へ移動することができる。この場合、オブジェクトの左側にホールが生成され得る。オブジェクトの左側に生成されるホールは、左側ビュー411を用いて復元されてもよい。
基準ビュー生成モジュール420は、基準ビューに対応する視差情報又は奥行き情報を取得してもよい。例えば、基準ビュー生成モジュール420は、左側ビュー411と右側ビュー412をステレオマッチングすることによってステレオ画像の視差情報又は奥行き情報を生成することができる。基準ビュー生成モジュール420は、ステレオ画像から中間視点のビュー421を生成するのと同一の方法で、ステレオ画像の視差情報又は奥行き情報から中間視点のビュー421の視差情報又は奥行き情報を生成してもよい。視差情報又は奥行き情報は、視差マップ又は奥行きマップ422の形態と表現されてもよい。
ホール予測モジュール430は、基準ビューを用いて多視点に該当するビューが生成される場合、発生可能なホールを予測する。例えば、ホール予測モジュール430は、中間視点のビュー421を用いて中間視点から左側に位置する視点に該当するビュー431が生成される場合、発生可能なホールを予測することができる。ビュー431の視点は、左側ビュー411より左側に位置する視点である。また、ホール予測モジュール430は、中間視点のビュー421を用いて中間視点から右側に位置する視点に該当するビュー432が生成される場合、発生可能なホールを予測することができる。ビュー432の視点は、右側ビュー412よりさらに右側に位置する視点であってもよい。
ホール予測モジュール430は、予測されたホールを基準ビューに含ませてもよい。例えば、ホール予測モジュール430は、予測されたホールを中間視点のビュー421に含ませることによって、予測されたホールを全て含むホール映像433を生成してもよい。
ホール復元モジュール440は、類似形態の分布特性を用いて、予測されたホールを復元する。例えば、ホール復元モジュール440は、ホール映像433に含まれたホールを復元することによって復元情報441を生成してもよい。ホール復元モジュール440の動作については、図2を参照して前述した事項がそのまま適用されるため、より詳細な説明は省略する。類似形態の分布特性は、基準ビュー又はホール映像を分析することによって生成されてもよい。類似形態の分布特性の生成方法に関するより詳細な事項は後述する。
復元情報分配モジュール450は、予測されたホールの復元情報を多視点映像で分配する。多視点映像それぞれに含まれたホールは、互いに異なるため、多視点映像それぞれに含まれたホールを復元するために必要な復元情報も互いに異なる。復元情報分配モジュール450は、多視点映像それぞれに含まれたホールを復元するために必要な復元情報を該当する視点映像に分配してもよい。例えば、復元情報分配モジュール450は、中間視点より左側に位置する視点に該当するビュー431に復元情報451を分配し、中間視点より右側に位置する視点に該当するビュー432に復元情報452を分配することができる。
図4の実施形態により、N個のビュー410からM個(Mは、Nより大きい整数)のビュー460が生成される。例えば、ビュー461は、ビュー431が復元された映像であり、ビュー462は、ビュー432が復元された映像である。
図3と図4によって上述したように、ホールを含まない映像を変換することによってホールを含む映像が生成される。映像の変換は、視点変更のために前景に該当するオブジェクトを投影させる方法以外にも様々な方法を含んでもよい。例えば、映像内の特定オブジェクトを削除する方法などによってもホールが生成されてもよい。
図5は、一実施形態に係る類似形態の分布特性を検出する方法を説明する図である。図5を参照すると、映像処理装置は、エッジ検出モジュール520、エッジ方向性検出モジュール530、主方向検出モジュール540、サンプリングモジュール550、及び類似形態検出モジュール560を含んでもよい。エッジ検出モジュール520、エッジ方向性検出モジュール530、主方向検出モジュール540、サンプリングモジュール550、及び類似形態検出モジュール560それぞれは、ソフトウェアモジュール、ハードウェアモジュール、又は、これらの組合せで実現してもよい。
エッジ検出モジュール520は、映像510からエッジを検出する。映像510は、ホールを含む映像又はホールを含まない映像であってもよい。映像510がホールを含む映像である場合、エッジ検出モジュール520は、ホールを除いた残りの領域でエッジを検出する。ホールを満たすために用いられる領域は、ホールが発生した場所に元々位置していた前景領域より奥行き値が大きい背景領域である。エッジ検出モジュール520は、前景領域より奥行き値が大きい背景領域でエッジを検出してもよい。エッジ検出モジュール520は、映像510からエッジを検出するために、一般的なエッジ検出方法を用いてもよい。
エッジ方向性検出モジュール530は、エッジの方向性を検出する。例えば、エッジ方向性検出モジュール530は、エッジの傾きを検出することができる。エッジ方向性検出モジュール530は、エッジ検出モジュール520によって検出されたエッジを予め決定された基準により分割してもよい。例えば、エッジ方向性検出モジュール530は、不連続的なポイントでエッジを分割したり、傾きの変化量が非線形であるポイントでエッジを分割してもよい。前述した事項は、例示的な事項に過ぎず、エッジを分割する基準は、多様に変形されてもよい。エッジ方向性検出モジュール530は、分割されたエッジそれぞれの傾きを算出してもよい。
主方向検出モジュール540は、エッジの傾きを量子化されたビンに累積させることによって、エッジの主方向を検出する。例えば、主方向検出モジュール540は、予め決定された角度単位(例えば、0〜359度の間における1度の単位)で傾きを量子化するビンにエッジの傾きを累積させることができる。
主方向検出モジュール540は、累積結果に基づいてエッジの主方向を決定する。例えば、主方向検出モジュール540は、累積した回数が予め決定された閾値以上であるビンに該当する少なくとも1つの傾き(例えば、0度及び90度)をエッジの主方向として決定してもよい。又は、主方向検出モジュール540は、累積した回数が最も多い予め決定された数のビンに該当する傾き(例えば、0度及び90度)をエッジの主方向として決定してもよい。前述した事項は、例示的な事項に過ぎず、主方向検出モジュール540が累積結果に基づいてエッジの主方向を決定する方法は多様に変形されてもよい。
エッジの主方向は、映像510に含まれた背景の構造方向である。例えば、エッジ検出モジュール520が映像510の背景領域でエッジを検出する場合、主方向検出モジュール540によって決定されるエッジの主方向は、映像510の背景領域に含まれた構造方向を示す。
サンプリングモジュール550は、エッジの主方向に基づいてサンプリングを行う。例えば、サンプリングモジュール550は、映像510を複数のブロックに分割し、複数のブロックのうち第1ブロックと第1ブロックから主方向に位置する異なるブロックとをサンプリングする。サンプリングモジュール550は、ブロックをサンプリングすることによって該当ブロックに含まれた映像情報を取得してもよい。
サンプリングモジュール550は、エッジ検出モジュール520により検出されたエッジ上に位置するブロックを第1ブロック561として決定してもよい。サンプリングモジュール550は、第1ブロック561を基準として主方向(例えば、0度方向及び90度方向)に向かって均一な間隔で離隔されたブロックをサンプリングする。
類似形態検出モジュール560は、サンプリング結果に基づいて、第1ブロック561と第1ブロックから主方向に位置する異なるブロックとを比較することによって第1ブロック561と類似形態を有する第2ブロック562とを検出する。類似形態検出モジュール560は、第1ブロック561と第2ブロック562との間の相対的位置の頻度数を累積してもよい。例えば、第2ブロック562が第1ブロック561を基準としてx軸に−a程離れている場合、類似形態検出モジュール560は、類似形態の分布特性を生成するためのグラフ551において原点を基準として−a程離隔されたポイントの頻度数を増加させてもよい。第1ブロック561から第2ブロック562へ移動するための距離は、動き値と指摘されてもよい。
グラフ551に含まれた各点などは、映像510中の類似のブロックの間の相対的位置を示す。類似形態検出モジュール560がグラフ551の中の点の頻度数を増加させることは、該当する点が指し示す相対的位置の頻度数を増加させるものと理解されてもよい。
例えば、類似形態検出モジュール560は、映像510の中で第1ブロック561と類似の第2ブロック562とを検出することができる。類似形態検出モジュール560が第1ブロック561からx軸方向に−a程離れた位置で第1ブロック561と類似の第2ブロック562を検出した場合を仮定しよう。この場合、グラフ551の中の(−a、0)座標の点の頻度数を増加させることができる。
類似形態検出モジュール560は、類似形態のブロックの間の相対的位置の頻度数が累積した結果に基づいて、類似形態の分布特性570を生成してもよい。例えば、類似形態検出モジュール560は、累積頻度数が予め決定された閾値以上である相対的位置のみを用いて類似形態の分布特性570を生成してもよい。又は、類似形態検出モジュール560は、累積頻度数が最も多い予め決定された数に対称の位置のみを用いて類似形態の分布特性570を生成してもよい。前述した事項は、例示的な事項に過ぎず、主方向検出モジュール540が類似形態のブロックの間の相対的位置の頻度数が累積した結果に基づいて類似形態の分布特性570を生成する方法は多様に変形されてもよい。
映像処理装置は、背景の構造方向を把握した後、該当構造方向のみで類似形態の分布特性を検出することによって、ホールを復元する時の背景の構造が保持されるようにしてもよい。また、映像処理装置は、背景の構造方向のみで類似形態の分布特性を検出することによって、演算量を減少させて、映像全体をスキャンする場合、類似形態の分布特性が正確に判別されることができないエラーを減少させることができる。
映像のエッジ領域、ユニフォーム領域、及び/又はテクスチャ領域別に類似形態の繰り返し特性が表れる。以上、図5を参照して映像510に含まれたエッジに基づいて類似形態の分布特性570を生成する場合を説明したが、実施形態は、多様に変形する。例えば、映像処理装置は、映像510を複数のブロックに分割して、任意のブロックと類似形態を有するブロックとを検出するために複数のブロックをスキャンしてもよい。この場合、映像処理装置は、エッジを検出しなくても類似形態の分布特性570を生成することができる。
一実施形態によると、類似形態の分布特性570を生成する動作は、ホールを満たす動作の前に行われる。本願発明は、類似形態の分布特性570を用いることによって、ホールを満たす動作の効率を増大させる技術を提供している。
図5におけるエッジを用いる実施形態は、類似形態の分布特性570を生成する動作の効率を増大させるための一例示に過ぎない。例えば、図5におけるステップ520、530、540は、省略されてもよい。この場合、ステップ550におけるグラフ551に示された点よりさらに多い点(例えば、グラフ551の第1象限〜第4象限に広くて等しく分布する点)でサンプリングが行われる。同一の方法で、ユニフォーム領域又はテクスチャ領域のための類似形態の分布特性が生成されてもよい。
図6A〜図6Cは、実施形態に係る映像に含まれた背景の構造情報により生成される類似形態の分布特性を説明する図である。図6Aを参照すると、映像611の背景は、垂直線を含む。この場合、類似形態の分布特性は、グラフ612のように生成される。また、図6Bを参照すると、映像621の背景は、斜め線を含む。この場合、類似形態の分布特性は、グラフ622のように生成される。また、図6Cを参照すると、映像631の背景は、格子縞を構成する線を含む。この場合、類似形態の分布特性は、グラフ632のように生成される。
図7は、一実施形態に係るレイヤー別の類似形態の分布特性を説明する図である。図7を参照すると、一実施形態に係る映像処理装置は、視差レイヤー又は奥行きレイヤー別に異なる類似形態の分布特性を用いる。以下、レイヤーは、視差レイヤー又は奥行きレイヤーのうちいずれか1つを指し示す。
映像710は、視差情報又は奥行き情報によりレイヤーとして分類されてもよい。画像に含まれた各画素の視差情報又は奥行き情報は、予め決定された数のレイヤーとして量子化されてもよい。例えば、画像に含まれた各画素の視差情報又は奥行き情報は、3つのレイヤー(D、D、D)のうちいずれか1つとして量子化される。
映像710に含まれた各画素は、該当画素の視差情報又は奥行き情報が量子化されたレイヤーとして分類されてもよい。例えば、映像710中の第1領域711に含まれた画素は、視差情報又は奥行き情報を表わすマップ722のDレイヤーとして分類される。また、映像710中の第2領域712に含まれた各画素は、Dレイヤーとして分類され、映像710中の第3領域713に含まれた各画素は、Dレイヤーとして分類される。
レイヤーの奥行き値が最も大きく、Dレイヤーの奥行き値が一番小さい。奥行き値が大きいレイヤーであるほど背景に該当する確率が高まり、奥行き値が小さいレイヤーであるほど前景に該当する確率が高まる。
映像処理装置は、レイヤーそれぞれに対して類似形態の分布特性を生成してもよい。例えば、第1領域711は、格子縞のようなテクスチャを含むため、第1領域711の類似形態の分布特性は、第1類似形態の分布図731のように生成されてもよい。また、第2領域712は、垂直線を含むため、第2領域712の類似形態の分布特性は、第2類似形態の分布図732のように生成されてもよい。また、第3領域713は、斜め線を含むため、第3領域713の類似形態の分布特性は、第3類似形態の分布図733のように生成されてもよい。
図8は、一実施形態に係るレイヤー別の類似形態の分布特性を用いてホールを復元する方法を説明する図である。図8を参照すると、一実施形態に係る映像処理装置は、ターゲットビュー810とターゲット視差820とを取得する。ターゲット視差820は、ターゲットの奥行きとして代替されてもよい。
映像処理装置は、図7の映像710を用いて希望の視点のターゲットビュー810を生成してもよい。上述したように、ターゲットビュー810はホールを含む。映像処理装置は、図7のマップ722を用いてターゲットビュー810に対応するターゲット視差820を生成してもよい。ターゲット視差820もターゲットビュー810と同様にホールを含む。
映像処理装置は、ターゲット視差820に含まれた視差ホールを復元してもよい。映像処理装置は、視差ホールに含まれた各画素を視差ホールと隣接したレイヤーのうち奥行き値が大きい(例えば、背景に該当する確率が高い)レイヤーとして分類することによって、視差ホールを復元してもよい。映像処理装置は、視差ホールを復元するためのレイヤーを決定するとき、視点変換の方向を考慮してもよい。例えば、基準視点より左視点を生成する場合、前景に該当するオブジェクトが右側へ移動しながら視差ホールが発生するため、映像処理装置は、視差ホールの左側に隣接したレイヤーを用いて視差ホールを復元する。
映像処理装置は、復元されたターゲット視差830を用いて、ターゲットビュー810に含まれたホールを復元してもよい。映像処理装置は、復元されたターゲット視差830を用いてホールに含まれた各画素が属するレイヤーを判断してもよい。例えば、第1ホール領域811は、復元されたターゲット視差830においてDレイヤーに属する。この場合、映像処理装置は、Dレイヤーの第1類似形態の分布図731に基づいて第1ホール領域811を復元する。また、第2ホール領域812は、復元されたターゲット視差830においてDレイヤーに属する。この場合、映像処理装置は、Dレイヤーの第2類似形態の分布図732に基づいて第2ホール領域812を復元する。映像処理装置は、ホールが復元されたターゲットビュー840を生成してもよい。第1類似形態の分布図731又は第2類似形態の分布図732に基づいて第1ホール領域811又は第2ホール領域812を復元する方法については、図2を参照して前述した事項がそのまま適用されるため、より詳細な説明は省略する。
図9は、一実施形態に係る領域別の類似形態の分布特性を用いてホールを復元する方法を説明する図である。図9を参照すると、一実施形態に係る映像処理装置は、ホールに隣接した領域の類似形態の分布特性を用いてホールを復元する。
例えば、映像910の全体背景から生成された類似形態の分布特性は、類似形態の分布図920のように表わされる。しかし、第1領域911に含まれた背景は、斜線のみを含み、第2領域912に含まれた背景は、垂直線のみを含む。この場合、映像処理装置は、類似形態の分布図920を用いて第1領域911に含まれたホールを復元する代わりに、類似形態の分布図921を用いて第1領域911に含まれたホールを復元することによって復元映像の品質を向上することができる。同様に、映像処理装置は、第2領域912に含まれたホールを復元するために、類似形態の分布図920を用いる代わりに類似形態の分布図922を用いる。
映像処理装置は、ホールの位置に対応する領域を決定し、決定された領域に対応する類似形態の分布特性を取得してもよい。映像処理装置は、決定された領域に対応する類似形態の分布特性を検出したり、決定された領域に対応して事前に検出された類似形態の分布特性を受信してもよい。
図面に示していないが、映像処理装置は、レイヤーと領域とを共に考慮する類似形態の分布特性を用いることができる。例えば、同一のレイヤーに該当する背景だとしても領域別に異なる構造情報を含むことができる。映像処理装置は、図8にて上述したように、ホールが属するレイヤーを判断することができる。映像処理装置は、該当レイヤー内で、図9にて上述したように、ホールに対応して決定された領域の類似形態の分布特性を用いることができる。
図10は、一実施形態に係る動画のちらつきを防止する方法を説明する図である。図10を参照すると、一実施形態に係る映像処理装置は、N個(Nは、正の整数)の視点の基準動画1010からM個(Mは、Nより大きい整数)の視点の動画1020、1030を生成する。映像処理装置は、基準動画1010の各フレームに図1〜図9にて前述した事項を適用することによって、該当フレームの多視点映像を生成してもよい。映像処理装置は、多視点映像の各フレームを連結することによって、M個の視点の動画1020、1030を生成してもよい。
フレームの間の画面が遷移されなくても、基準動画1010の各フレームにおいて生成された類似形態の分布特性は、僅かに変わり得る。隣接フレームの間の類似形態の分布特性が僅かに変わることによって、隣接フレームのホール復元映像においても僅かな差が生じ得る。この場合、動画が再生される時にちらつきが生じることもある。
映像処理装置は、動画の中の画面遷移を感知することによって、画面別に同一の類似形態の分布特性を用いてもよい。そのため、映像処理装置は、生成された動画のちらつきを防止することができる。例えば、映像処理装置は、基準映像1010の最初のフレーム1011を用いて第1類似形態の分布特性を生成することができる。映像処理装置は、第1類似形態の分布特性を用いて最初のフレーム1011に対応する多視点映像1021、1031を生成してもよい。映像処理装置は、画面遷移が生じる前までの時間区間1041の間、第1類似形態の分布特性を用いてもよい。
映像処理装置は、画面遷移を感知してもよい。映像処理装置は、画面が遷移された後、最初のフレーム1012を用いて第2類似形態の分布特性を生成してもよい。映像処理装置は、次に画面遷移が生じる前までの時間区間1042の間、第2類似形態の分布特性を用いてもよい。
以上、画面遷移を例に挙げて説明したが、画面遷移は、例示的な事項に過ぎない。映像処理装置は、様々な方法で類似形態の分布特性を変更しなければならない視点を判断してもよい。例えば、映像処理装置は、予め決定された時間ごとに類似形態の分布特性を再生成してもよい。
図11は、一実施形態に係る映像処理方法を示した動作フローチャートである。図11を参照すると、一実施形態に係る映像処理方法は、類似形態の分布特性を取得するステップS1110及び類似形態の分布特性に基づいて映像に含まれたホールを復元するステップS1120を含む。図11に示された各ステップについては、図1〜図10を参照して前述した事項がそのまま適用されるため、より詳細な説明は、省略する。
図12は、一実施形態に係る映像処理装置を示した動作フローチャートである。図12を参照すると、一実施形態に係る映像処理装置1200は、取得部1210及び復元部1220を含む。取得部1210及び復元部1220は、それぞれソフトウェアモジュール、ハードウェアモジュール、又は、これらの組合せで実現してもよい。取得部1210は、類似形態の分布特性を取得する。復元部1220は、類似形態の分布特性に基づいて映像に含まれたホールを復元する。図12に示された各モジュールについては、図1〜図10を参照して前述した事項がそのまま適用されるため、より詳細な説明は省略する。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組合せで実現してもよい。例えば、実施形態で説明された装置、方法及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサー、又は、命令を実行して応答できる異なるいかなる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現されてもよい。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行してもよい。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つ使用されるものと説明される場合もあるが、該当の技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、又はこのうちの1つ以上の組合せを含んでもよく、希望の通りに動作するよう処理装置を構成したり独立的に又は結合的に処理装置を命令してもよい。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、どのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方式で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータ読取可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して行われるプログラム命令の形態で実現され、コンピュータ読取可能な媒体に記録されてもよい。前記記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含んでもよい。前記記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェアの分野の技術を有する当業者に公示されて利用できるものである。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同様である。
上述したように限定された図面によって実施形態が説明されたが、該当技術分野において通常の知識を有する者であれば前記の基材から様々な修正及び変形が可能である。例えば、説明された技術が説明された方法と異なる順序で遂行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合せたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果が達成してもよい。したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
110 映像処理装置
120 映像
121 ホール
130、211、221、231 類似形態の分布特性
140 出力映像
215、225、235 復元ブロック
217、218、228、227 候補ブロック
320 視点生成モジュール
330 ホール復元モジュール
420 基準ビュー生成モジュール
430 ホール予測モジュール
440 ホール復元モジュール
450 復元情報分配モジュール
520 エッジ検出モジュール
530 エッジ方向性検出モジュール
540 主方向検出モジュール
550 サンプリングモジュール
560 類似形態検出モジュール
1200 映像処理装置
1210 取得部
1220 復元部

Claims (35)

  1. 第1映像内の類似形態の分布を定義する特性を取得するステップと、
    前記特性に基づいて第2映像に含まれたホールを復元するステップと、
    を含むことを特徴とする映像処理方法。
  2. 前記特性は、前記第1映像の背景に含まれた構造情報を含む、請求項1に記載の映像処理方法。
  3. 前記ホールを復元するステップは、
    前記特性に基づいて、前記ホールのうち少なくとも一部を含む復元ブロックに対応する候補ブロックを決定するステップと、
    前記候補ブロックに基づいて前記復元ブロックを復元するステップと、
    を含む、請求項1又は2に記載の映像処理方法。
  4. 前記復元ブロックは、前記ホールの境界上に位置し、
    前記復元ブロックを復元するステップは、
    前記復元ブロックの一部に含まれた映像情報に基づいて前記候補ブロックのうち少なくとも1つの第1候補ブロックを選択するステップと、
    前記第1候補ブロックに基づいて前記復元ブロックの残りの一部に含まれたホールを復元するステップと、
    を含む、請求項3に記載の映像処理方法。
  5. 前記特性を取得するステップは、
    前記第1映像を複数のブロックに分割するステップと、
    前記複数のブロックのうち第1ブロックと他のブロックとを比較することによって、前記他のブロックのうち前記第1ブロックと類似形態を有する第2ブロックとを検出するステップと、
    前記第1ブロックと前記第2ブロックとの間の相対的位置の頻度数を累積するステップと、
    前記累積する頻度数に基づいて前記特性を生成するステップと、
    を含む、請求項1乃至4のいずれか一項に記載の映像処理方法。
  6. 前記第1映像に含まれた背景の構造方向を検出するステップ、を更に有し、
    前記他のブロックは、前記第1ブロックから前記構造方向に位置する、
    を含む、請求項5に記載の映像処理方法。
  7. 前記構造方向を検出するステップは、
    前記第1映像に含まれたエッジを検出するステップと、
    前記エッジの傾きに基づいて主方向を決定するステップと、
    前記主方向を前記構造方向として決定するステップと、
    を含む、請求項6に記載の映像処理方法。
  8. 前記特性を取得するステップは、
    前記第1映像の奥行き情報に基づいて前記第1映像を複数のレイヤーに分割するステップと、
    前記複数のレイヤーそれぞれにおいて、該当レイヤー内の類似形態の分布を定義するレイヤーの特性を検出するステップと、
    を含む、請求項1乃至4のいずれか一項に記載の映像処理方法。
  9. 前記ホールを復元するステップは、
    前記ホールと隣接した領域が属するレイヤーを判断するステップと、
    前記判断されたレイヤーのレイヤーの特性に基づいて、前記ホールのうち少なくとも一部を含む復元ブロックに対応する少なくとも1つの候補ブロックを決定するステップと、
    前記少なくとも1つの候補ブロックに基づいて前記復元ブロックを復元するステップと、
    を含む、請求項8に記載の映像処理方法。
  10. 前記特性を取得するステップは、
    前記ホールの位置に対応する領域を決定するステップと、
    前記決定された領域中の類似形態の分布を定義する領域の特性を検出するステップと、
    を含む、請求項1乃至4のいずれか一項に記載の映像処理方法。
  11. 前記ホールを復元するステップは、
    前記ホールの位置に対応する領域の特性に基づいて、前記ホールのうち少なくとも一部を含む復元ブロックに対応する少なくとも1つの候補ブロックを決定するステップと、
    前記少なくとも1つの候補ブロックに基づいて前記復元ブロックを復元するステップと、
    を含む、請求項10に記載の映像処理方法。
  12. 入力映像に基づいて基準視点の映像を生成するステップをさらに含み、
    前記復元するステップは、
    前記基準視点の映像を基準として生成される多視点映像のホールを予測するステップと、
    前記特性に基づいて前記予測されたホールを復元するステップと、
    を含む、請求項1又は2に記載の映像処理方法。
  13. 前記ホールの復元情報を前記多視点映像に分配するステップをさらに含む、請求項12に記載の映像処理方法。
  14. 前記第1映像において画面遷移が生じたか否かを判断するステップをさらに含み、
    前記特性を取得するステップは、前記画面遷移が生じたという判断により、前記第1映像内の類似形態の分布を定義する特性を検出するステップを含む、請求項1に記載の映像処理方法。
  15. 前記特性を取得するステップは、前記画面遷移が生じなかったという判断により、前フレームから検出された特性に基づいて前記第1映像内の類似形態の分布を定義する特性を決定するステップを含む、請求項14に記載の映像処理方法。
  16. 前記特性を取得するステップは、基準映像に基づいて生成された特性を受信するステップを含み、
    前記第2映像は、前記基準映像を変換することによって生成される、
    請求項1又は2に記載の映像処理方法。
  17. 前記第2映像は、前記基準映像の奥行き情報に基づいて前記基準映像の画素を前記第2映像の視点に対応する位置で投影することによって生成され、
    前記第2映像の前記画素のうち奥行き値が小さい画素であるほど長く移動し、奥行き値が大きい画素であるほど短く移動する、請求項16に記載の映像処理方法。
  18. 前記第2映像は、前記基準映像に含まれた少なくとも1つのオブジェクトを削除することによって生成される、請求項16に記載の映像処理方法。
  19. 第1映像を複数のブロックに分割するステップと、
    前記複数のブロックを分析するステップと、
    前記分析に基づいて前記複数のブロックの一部を候補ブロックとして決定するステップと、
    前記候補ブロックに基づいて第2映像に含まれたホールを復元するステップと、
    を含む映像処理方法。
  20. 前記決定するステップは、
    前記複数のブロックを分析して前記第1映像内の類似形態の分布を定義する特性を取得するステップと、
    前記特性に基づいて、前記複数のブロックのうち一部を前記候補ブロックとして決定するステップと、
    を含む、請求項19に記載の映像処理方法。
  21. 前記ホールを復元するステップは、
    前記ホールの境界上に位置する復元ブロックの一部に含まれた映像情報に基づいて、前記候補ブロックのうち少なくとも1つの第1候補ブロックを選択するステップと、
    前記第1候補ブロックに基づいて、前記復元ブロックの残りの一部に含まれたホールを復元するステップと、
    を含む、請求項19又は20に記載の映像処理方法。
  22. 前記複数のブロックに分割するステップは、
    前記第1映像の奥行き情報に基づいて前記第1映像を複数のレイヤーに分割するステップと、
    前記複数のレイヤーそれぞれを複数のブロックに分割するステップと、
    を含む、請求項19乃至21のいずれか一項に記載の映像処理方法。
  23. 前記決定するステップは、
    前記複数のレイヤーそれぞれに対応するブロックを分析して、前記複数のレイヤーそれぞれにおける該当レイヤー内の類似形態の分布を定義するレイヤーの特性を検出するステップと、
    前記ホールと隣接した領域が属したレイヤーを判断するステップと、
    前記判断されたレイヤーの特性に基づいて、各レイヤーに含まれた複数のブロックのうち前記候補ブロックを決定するステップと、
    を含む、請求項22に記載の映像処理方法。
  24. 前記複数のブロックに分割するステップは、
    前記ホールの位置に対応する領域を決定するステップと、
    前記決定された領域を複数のブロックに分割するステップと、
    を含む、請求項19乃至21のいずれか一項に記載の映像処理方法。
  25. 前記決定するステップは、
    前記決定された領域に含まれたブロックを分析して、前記決定された領域中の類似形態の分布を定義する領域の特性を検出するステップと、
    前記領域の特性に基づいて、前記決定された領域に含まれたブロックのうち前記候補ブロックを決定するステップと、
    を含む、請求項24に記載の映像処理方法。
  26. 前記第1映像と前記第2映像は、同一の映像である、請求項1乃至25のいずれか一項に記載の映像処理方法。
  27. 前記第1映像と前記第2映像は、異なる映像である、請求項1乃至25のいずれか一項に記載の映像処理方法。
  28. 請求項1乃至27のいずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータ読取可能な記録媒体。
  29. 背景及び少なくとも1つの前景オブジェクトを含む少なくとも1つの映像を受信するステップであって、前記少なくとも1つの前景オブジェクトは、前記背景に相対的な第1位置を有する、ステップと、
    前記少なくとも1つの映像内視覚的に類似の領域のパターンを検出するステップと、
    前記検出されるパターンに基づいて、類似形態の分布特性を生成するステップであって、前記類似形態の分布特性は、前記少なくとも1つの映像の領域の配列を定義する、ステップと、
    前記少なくとも1つの映像のビュー内の前記少なくとも1つの前景オブジェクトが前記背景に相対的な第2位置を有し、前記少なくとも1つの映像のビューが映像のホールを含むよう、前記少なくとも1つの映像に基づいて少なくとも1つの映像のビューを生成するステップであって、前記第2位置は、前記第1位置と相違する、ステップと、
    前記類似形態の分布特性に基づいて前記少なくとも1つの映像のビューの第1領域を選択するステップと、
    前記少なくとも1つの映像のビューの前記第1領域に基づいて前記少なくとも1つの映像のビューの前記映像のホールを満たすことによって、出力映像を生成するステップと、
    を含む、映像処理方法。
  30. 前記少なくとも1つの映像のビューを生成するステップは、前記映像のホールが前記第1位置及び前記第2位置の間の差に対応するよう前記少なくとも1つの映像のビューを生成するステップを含む、請求項29に記載の映像処理方法。
  31. 前記選択するステップは、
    前記映像のホールの一部及び前記背景の一部を含む少なくとも1つのビューの領域を検出するステップと、
    複数の候補領域を決定するステップであって、前記複数の候補領域は、前記類似形態の分布特性の領域の配列に対応する少なくとも1つのビューの領域である、ステップと、
    前記複数の候補領域を前記第1領域として選択するステップと、
    を含む、請求項29又は30に記載の映像処理方法。
  32. 前記複数の候補領域を選択するステップは、
    前記背景の一部の視覚的特性と前記少なくとも1つのビューの複数の候補領域の視覚的特性とを比較するステップと、
    前記比較に基づいて前記複数の候補領域のうちの1つを前記第1領域として選択するステップと、
    を含む、請求項31に記載の映像処理方法。
  33. 前記選択される候補領域は、前記複数の候補領域のうち前記背景の一部と最も高い類似度を有する領域である、請求項32に記載の映像処理方法。
  34. 前記少なくとも1つの映像のビューの前記映像のホールを満たすステップは、前記第1領域の視覚的特性として前記映像のホールを交換するステップを含む、請求項29乃至33のいずれか一項に記載の映像処理方法。
  35. 前記少なくとも1つの映像のビューを複数のブロックに分割するステップをさらに含み、
    前記第1領域は、前記複数のブロックのうち1つのブロックであり、
    前記領域の配列は、それぞれ前記複数のブロックのうち少なくとも一部の配列に対応する、請求項29乃至34のいずれか一項に記載の映像処理方法。
JP2015229077A 2014-11-25 2015-11-24 映像処理方法及び装置 Active JP6705644B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140165505A KR102350235B1 (ko) 2014-11-25 2014-11-25 영상 처리 방법 및 장치
KR10-2014-0165505 2014-11-25

Publications (2)

Publication Number Publication Date
JP2016100901A true JP2016100901A (ja) 2016-05-30
JP6705644B2 JP6705644B2 (ja) 2020-06-03

Family

ID=54780083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015229077A Active JP6705644B2 (ja) 2014-11-25 2015-11-24 映像処理方法及び装置

Country Status (5)

Country Link
US (1) US9811883B2 (ja)
EP (1) EP3026627B1 (ja)
JP (1) JP6705644B2 (ja)
KR (1) KR102350235B1 (ja)
CN (1) CN105631813B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102350235B1 (ko) * 2014-11-25 2022-01-13 삼성전자주식회사 영상 처리 방법 및 장치
US11006095B2 (en) * 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
TWI624170B (zh) * 2016-10-19 2018-05-11 財團法人工業技術研究院 影像掃描系統及其方法
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10726792B2 (en) 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
GB2569547B (en) * 2017-12-19 2021-05-12 Samsung Electronics Co Ltd Reconstruction of original images from modified images
WO2019124708A1 (en) * 2017-12-19 2019-06-27 Samsung Electronics Co., Ltd. Method and apparatus for reconstruction of original images from modified images
US10802117B2 (en) 2018-01-24 2020-10-13 Facebook Technologies, Llc Systems and methods for optical demodulation in a depth-sensing device
US10805594B2 (en) * 2018-02-08 2020-10-13 Facebook Technologies, Llc Systems and methods for enhanced depth sensor devices
US10735640B2 (en) 2018-02-08 2020-08-04 Facebook Technologies, Llc Systems and methods for enhanced optical sensor devices
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
CN113016005A (zh) * 2018-11-13 2021-06-22 三星电子株式会社 联合无监督对象分割与修复
CN111696041B (zh) * 2020-06-04 2023-06-30 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020622A (ja) * 2011-07-12 2013-01-31 Samsung Electronics Co Ltd ホールレンダリングを用いるマルチビュー映像処理方法及び装置
JP2013134788A (ja) * 2011-12-23 2013-07-08 Samsung Electronics Co Ltd 多視点生成方法及び装置
JP2013137743A (ja) * 2011-11-30 2013-07-11 Panasonic Corp 新視点画像生成装置および新視点画像生成方法
JP2014515197A (ja) * 2011-01-13 2014-06-26 サムスン エレクトロニクス カンパニー リミテッド 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
JP2014165836A (ja) * 2013-02-27 2014-09-08 Nagoya Industrial Science Research Institute データ通信システムおよびデータ通信方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5214712A (en) * 1990-09-11 1993-05-25 Matsushita Electric Industrial Co., Ltd. Pattern inspection system for inspecting defect of land pattern for through-hole on printed board
US5684890A (en) * 1994-02-28 1997-11-04 Nec Corporation Three-dimensional reference image segmenting method and apparatus
CN100458846C (zh) * 2005-07-14 2009-02-04 北京航空航天大学 一种图像修复方法
JP5231839B2 (ja) * 2008-03-11 2013-07-10 株式会社東芝 パターン認識装置及びその方法
JP5272581B2 (ja) * 2008-08-25 2013-08-28 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5525739B2 (ja) * 2008-09-16 2014-06-18 株式会社ニューフレアテクノロジー パターン検査装置及びパターン検査方法
KR101502362B1 (ko) * 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
CN101408975A (zh) * 2008-11-28 2009-04-15 哈尔滨工业大学 一种基于边缘置信度的自调整总体变分图像平滑方法
KR101075716B1 (ko) 2009-01-14 2011-10-21 삼성전자주식회사 이미지 복원 장치 및 방법
JP5570866B2 (ja) * 2010-04-30 2014-08-13 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
KR20120014876A (ko) 2010-08-10 2012-02-20 삼성전자주식회사 영상 처리 장치 및 방법
EP2609575B1 (en) 2010-08-27 2019-02-27 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
KR20120049636A (ko) 2010-11-09 2012-05-17 삼성전자주식회사 영상 처리 장치 및 방법
KR101210625B1 (ko) 2010-12-28 2012-12-11 주식회사 케이티 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템
US9582928B2 (en) * 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US9111389B2 (en) 2011-05-12 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Image generation apparatus and image generation method
EP2533212A1 (en) 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.
EP2744201A4 (en) * 2011-08-09 2016-03-23 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING A DEPTH CARD OF VIDEO DATA WITH MULTIPLE VIEWPOINTS AND METHOD AND DEVICE FOR DECODING THE CODED DEPTH CARD
EP2797327A4 (en) * 2011-11-14 2015-11-18 Nat Inst Inf & Comm Tech STEREOSCOPIC VIDEO ENCODING DEVICE, STEREOSCOPIC VIDEO DECODING DEVICE, STEREOSCOPIC VIDEO ENCODING METHOD, STEREOSCOPIC VIDEO DECODING METHOD, STEREOSCOPIC VIDEO ENCODING PROGRAM, AND STEREOSCOPIC VIDEO DECODING PROGRAM
JP5836831B2 (ja) 2012-02-16 2015-12-24 日本放送協会 画像修正装置及びそのプログラム
US9881354B2 (en) * 2012-03-15 2018-01-30 Microsoft Technology Licensing, Llc Image completion including automatic cropping
CN103369331B (zh) * 2012-03-27 2016-12-21 北京数码视讯科技股份有限公司 图像空洞的填补方法和装置及视频图像的处理方法和装置
US9235879B2 (en) * 2012-06-29 2016-01-12 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis
KR20140022300A (ko) * 2012-08-14 2014-02-24 광주과학기술원 다시점 영상 생성 방법 및 장치
JP2014063360A (ja) * 2012-09-21 2014-04-10 Sony Corp 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム
KR101767093B1 (ko) * 2012-12-14 2017-08-17 한화테크윈 주식회사 색감 복원 방법 및 장치
CN103310420B (zh) * 2013-06-19 2016-03-30 武汉大学 基于纹理与几何相似性的彩色图像空洞修复方法及系统
CN104050683A (zh) * 2014-07-09 2014-09-17 东南大学 一种基于单幅图像分数阶处理的纹理力触觉感知方法
KR102350235B1 (ko) * 2014-11-25 2022-01-13 삼성전자주식회사 영상 처리 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515197A (ja) * 2011-01-13 2014-06-26 サムスン エレクトロニクス カンパニー リミテッド 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
JP2013020622A (ja) * 2011-07-12 2013-01-31 Samsung Electronics Co Ltd ホールレンダリングを用いるマルチビュー映像処理方法及び装置
JP2013137743A (ja) * 2011-11-30 2013-07-11 Panasonic Corp 新視点画像生成装置および新視点画像生成方法
JP2013134788A (ja) * 2011-12-23 2013-07-08 Samsung Electronics Co Ltd 多視点生成方法及び装置
JP2014165836A (ja) * 2013-02-27 2014-09-08 Nagoya Industrial Science Research Institute データ通信システムおよびデータ通信方法

Also Published As

Publication number Publication date
US20160148349A1 (en) 2016-05-26
JP6705644B2 (ja) 2020-06-03
EP3026627A2 (en) 2016-06-01
US9811883B2 (en) 2017-11-07
CN105631813B (zh) 2020-11-10
EP3026627A3 (en) 2016-11-02
CN105631813A (zh) 2016-06-01
EP3026627B1 (en) 2021-05-05
KR20160062571A (ko) 2016-06-02
KR102350235B1 (ko) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6705644B2 (ja) 映像処理方法及び装置
US11455712B2 (en) Method and apparatus for enhancing stereo vision
EP1977395B1 (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US9294758B2 (en) Determining depth data for a captured image
US9830736B2 (en) Segmenting objects in multimedia data
US10412462B2 (en) Video frame rate conversion using streamed metadata
CN106488215B (zh) 图像处理方法和设备
WO2016109027A2 (en) Dynamic video summarization
KR20120137205A (ko) 영상 처리를 위한 방법 및 장치
JP6184062B2 (ja) 映像処理のための方法及び装置
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
KR102158390B1 (ko) 영상 처리 방법 및 장치
US10878850B2 (en) Method and apparatus for visualizing information of a digital video stream
KR102056417B1 (ko) 클러스터 기반의 포토 네비게이션
KR101511315B1 (ko) 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템
US10460414B2 (en) Digital watermark information detecting device and digital watermark information detecting method
KR20120125970A (ko) 스테레오 매칭 방법 및 그 장치
CN112749660A (zh) 一种视频内容描述信息的生成方法和设备
KR20180077547A (ko) 깊이 영상 생성 방법 및 깊이 영상 생성 장치
JP2014041425A (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200514

R150 Certificate of patent or registration of utility model

Ref document number: 6705644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250