JP2013085157A - 画像処理装置、画像処理方法および画像処理システム - Google Patents
画像処理装置、画像処理方法および画像処理システム Download PDFInfo
- Publication number
- JP2013085157A JP2013085157A JP2011224525A JP2011224525A JP2013085157A JP 2013085157 A JP2013085157 A JP 2013085157A JP 2011224525 A JP2011224525 A JP 2011224525A JP 2011224525 A JP2011224525 A JP 2011224525A JP 2013085157 A JP2013085157 A JP 2013085157A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target block
- block
- unit
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 53
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 145
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000003702 image correction Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 102100038387 Cystatin-SN Human genes 0.000 description 13
- 101000884768 Homo sapiens Cystatin-SN Proteins 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 11
- 238000013139 quantization Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】3次元表示用の画像を、高品位に2次元表示することが可能な画像処理装置、画像処理方法および画像処理システムを提供する。
【解決手段】実施形態によれば、画像処理システムは、復号部と、対応領域検出部と、画像補正部とを備えている。前記復号部は、互いに異なる複数の視点から見た複数の画像が符号化された入力画像信号を復号し、第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の視点から見た第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、を生成する。前記対応領域検出部は、前記第1および第2の画像信号と前記動きベクトルとに基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出する。前記画像補正部は、前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合し、第3の画像信号を生成する。
【選択図】図1
【解決手段】実施形態によれば、画像処理システムは、復号部と、対応領域検出部と、画像補正部とを備えている。前記復号部は、互いに異なる複数の視点から見た複数の画像が符号化された入力画像信号を復号し、第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の視点から見た第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、を生成する。前記対応領域検出部は、前記第1および第2の画像信号と前記動きベクトルとに基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出する。前記画像補正部は、前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合し、第3の画像信号を生成する。
【選択図】図1
Description
本発明の実施形態は、画像処理装置、画像処理方法および画像処理システムに関する。
近年、映像を3次元的に表示する立体表示装置が普及しつつある。立体表示装置には、複数の視点から見た複数の動画像、例えば左目用の動画像と右目用の動画像とが表示される。そして、視聴者は、右目で右目用視差画像を、左目で左目用視差画像をそれぞれ見ることにより、表示された映像が3次元的に見える。
動画像符号化規格の1つであるH.264では、3次元表示用の動画像を符号化することができる。しかしながら、3次元表示用の動画像を符号化する場合、複数の動画像を符号化する必要があるため、2次元表示用の動画像のみを符号化する場合に比べると、各動画像の符号量を少なくせざるを得ない。そのため、符号化された3次元映像を復号して2次元表示すると、動画像の品位が低下してしまうという問題がある。
3次元表示用の画像を、高品位に2次元表示することが可能な画像処理装置、画像処理方法および画像処理システムを提供する。
実施形態によれば、画像処理システムは、復号部と、対応領域検出部と、画像補正部とを備えている。前記復号部は、互いに異なる複数の視点から見た複数の画像が符号化された入力画像信号を復号し、第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の視点から見た第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、を生成する。前記対応領域検出部は、前記第1および第2の画像信号と前記動きベクトルとに基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出する。前記画像補正部は、前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合し、第3の画像信号を生成する。
以下、実施形態について、図面を参照しながら具体的に説明する。
図1は、一実施形態に係る画像処理システムの概略ブロック図である。画像処理システムは、復号部1と、画像処理部2と、記憶部3と、表示部4とを備えている。本実施形態の画像処理システムは、3次元表示用の入力動画像信号が入力され、これを復号および高画質化処理して、高品位な2次元表示用の動画像信号を生成し、これを表示するものである。入力動画像信号は、それぞれ異なる視点から見た複数の動画像が符号化されており、本実施形態では、水平方向に並ぶ2つの視点から見た左目用および右目用の動画像が符号化された入力動画像信号が入力される例を示す。
図1は、一実施形態に係る画像処理システムの概略ブロック図である。画像処理システムは、復号部1と、画像処理部2と、記憶部3と、表示部4とを備えている。本実施形態の画像処理システムは、3次元表示用の入力動画像信号が入力され、これを復号および高画質化処理して、高品位な2次元表示用の動画像信号を生成し、これを表示するものである。入力動画像信号は、それぞれ異なる視点から見た複数の動画像が符号化されており、本実施形態では、水平方向に並ぶ2つの視点から見た左目用および右目用の動画像が符号化された入力動画像信号が入力される例を示す。
復号部1は入力動画像信号を復号し、ベースビュー(base view、第1の画像信号)、非ベースビュー(non−base view、第2の画像信号)および動きベクトル(MV)を生成する。ベースビューは、例えば左目用の動画像に対応する。非ベースビューは、ベースビューを参照して符号化された動画像であり、例えば右目用の動画像に対応する。また、ここでの動きベクトルとは、非ベースビューを基準とし、非ベースビュー内の各ブロックからベースビューを参照するためのベクトルである。ベースビューおよび非ベースビューは画像処理部2へ供給される。また、動きベクトルに関する情報が、ベースビュー内のブロックをインデックスとして記憶部3に記憶される。
画像処理部2は、記憶部3に記憶された動きベクトルに関する情報を用いて、ベースビュー内のブロック毎に類似する非ベースビュー内の領域を、対応領域として検出する。そして、画像処理部2は、ベースビュー内のブロックに含まれる各画素と、対応領域に含まれる各画素と、を混合する。これにより、ノイズが低減された2次元表示用の動画像信号(第3の画像信号)が生成される。この動画像信号は表示部4に供給され、2次元動画像として表示される。
図2は、復号部1の内部構成の一例と記憶部3とを示す概略ブロック図である。復号部1は、エントロピー復号部11と、逆量子化部12と、逆直交変換部13と、画面内予測画像生成部14と、画面間予測画像生成部15と、選択部16と、加算部17と、デブロッキングフィルタ18と、画像メモリ19とを有する。
エントロピー復号部11は入力動画像信号に対して可変長復号処理を行い、量子化DCT(Discrete Cosine Transform)係数、量子化パラメータおよび復号情報を生成する。復号情報とは、入力動画像信号がどのように符号化されていたのかを示す情報であり、参照フレーム番号、動きベクトル、予測モード等を含む。量子化DCT係数および量子化パラメータは逆量子化部12へ、参照フレーム番号および動きベクトルは画面間予測画像生成部15へ、予測モードは選択部16へ、それぞれ供給される。また、量子化DCT係数は画面内予測画像生成部14および画面間予測画像生成部15へも供給される。
逆量子化部12は量子化パラメータに基づいて量子化DCT係数を逆量子化し、DCT係数を生成する。DCT係数は逆直交変換部13に供給される。逆直交変換部13はDCT係数に逆DCT変換処理を行い、残差信号を生成する。残差信号は加算部17に供給される。
画面内予測画像生成部14は、量子化DCT係数を用いて、画面内予測画像を生成する。画面内予測画像は選択部16へ供給される。
画面間予測画像生成部15は、量子化DCT係数、画像メモリ19に記憶された復号処理済みのフレーム画像、参照フレーム番号および動きベクトルを用いて、画面間予測画像および動きベクトルに関する情報を生成する。画面間予測画像は選択部16へ供給される。動きベクトルに関する情報は、記憶部3に記憶される。
選択部16は、予測モードに応じて、画面内予測画像または画面間予測画像を選択し、加算部17へ供給する。より具体的には、選択部16は、復号対象のブロックが画面内符号化されている場合は画面内予測画像を、画面間符号化されている場合は画面間予測画像を選択する。
加算部17は、選択された予測画像と、残差信号とを加算し、フレーム画像を生成する。フレーム画像はデブロッキングフィルタ18に供給される。
デブロッキングフィルタ18は、フレーム画像に対して、ブロック間の歪みを改善する処理を施し、ベースビューおよび非ベースビューを生成する。これらは画像処理部2に供給されるとともに、画像メモリ19に記憶される。
図3は、画像処理部2の内部構成の一例と記憶部3とを示す概略ブロック図である。画像処理部2は、対応領域検出部21と、画像補正部22とを有する。また、対応領域検出部21は、探索中心計算部211および対応ベクトル探索部212を有し、画像補正部22は、重み計算部221および混合部222を有する。画像処理部2は、ベースビュー内のブロック単位で、対応領域の検出処理および補正処理を行う。
対応領域検出部21は、記憶部3に記憶された動きベクトルに関する情報に基づいて、ベースビュー内の処理対象のブロック(以下、対象ブロック)と類似する非ベースビュー内の対応領域を検出する。より具体的には、探索中心計算部211は、動きベクトルに関する情報に基づき、対象ブロックについて探索中心ベクトルを生成する。探索中心ベクトルは非ベースビュー内で対応領域の探索を行う範囲の中心位置を示すとともに、対応領域のおおよその位置を示す。対応ベクトル探索部212は、探索中心ベクトルが示す位置を中心とする所定の探索範囲内で、対象ブロックと最も類似している領域を対応領域として探索する。そして対象ブロックと対応領域との位置関係を示す対応ベクトル、および、どの程度類似しているかを示す類似度が画像補正部22に供給される。
画像補正部22は、対象ブロックと、対応ベクトルが示す対応領域との類似度に応じて、これらを混合する。より具体的には、重み計算部221は対象ブロックと対応領域との類似度から重みを計算する。混合部222は、対象ブロック内の各画素と、対応領域内の対応する画素と、を重みに応じて混合する。
次に、図1〜図3に示す画像処理システムの処理動作を説明する。図4は、画像処理システムの処理動作の概略を示すフローチャートである。
まず、復号部1が入力動画像信号を復号し、ベースビュー、非ベースビューおよび動きベクトルを生成し、画面間予測画像生成部15は、生成された動きベクトルに基づいて、動きベクトルに関する情報を生成して記憶部3に記憶する(S1)。この処理はブロック単位ではなくフレーム単位で行われる。一方、以降の処理はブロック単位で行う。
まず、復号部1が入力動画像信号を復号し、ベースビュー、非ベースビューおよび動きベクトルを生成し、画面間予測画像生成部15は、生成された動きベクトルに基づいて、動きベクトルに関する情報を生成して記憶部3に記憶する(S1)。この処理はブロック単位ではなくフレーム単位で行われる。一方、以降の処理はブロック単位で行う。
探索中心計算部211は、記憶部3に記憶された動きベクトルに関する情報および対応ベクトルに基づいて、ベースビューにおける対象ブロックの探索中心ベクトルを計算し、非ベースビュー内の探索範囲の探索中心を計算する(S2)。
さらに、対応ベクトル探索部212は、探索中心を中心とする所定の探索範囲内で、対象ブロックと最も類似している領域を対応領域として探索する(S3)。なお、対応領域を示す対応ベクトルは、対象ブロックごとに記憶部3に記憶され、他の対象ブロックの探索中心ベクトルを計算するために用いられる。
そして、重み計算部221は、対象ブロックと対応領域との類似度から重みを計算する(S4)。さらに、混合部222は、対象ブロック内の各画素と、対応領域内の対応する画素と、を重みに応じて混合する(S5)。
以上のステップS2〜S5の処理を、フレーム内の全ブロックについて処理し(S6)、1フレーム分の2次元表示用の動画像を生成する。
続いて、図4の各処理について、より詳細に説明する。
図5は、ステップS1を説明する図である。入力動画像信号に対してエントロピー復号処理を行うことにより動きベクトルが生成される。この動きベクトルは、非ベースビュー内のブロックを始点とし、そのブロックが参照しているベースビュー内の領域を終点とするベクトルである。図5(a)の例では、非ベースビュー内のブロックb0の動きベクトルはMV(x0,y0)である。この動きベクトルMVにより、ベースビュー内の領域b0’が非ベースビュー内のブロックb0から参照される。領域b0’はベースビュー内のブロックとは必ずしも一致せず、同図の例では、ブロックa1〜a4に跨っている。
図5は、ステップS1を説明する図である。入力動画像信号に対してエントロピー復号処理を行うことにより動きベクトルが生成される。この動きベクトルは、非ベースビュー内のブロックを始点とし、そのブロックが参照しているベースビュー内の領域を終点とするベクトルである。図5(a)の例では、非ベースビュー内のブロックb0の動きベクトルはMV(x0,y0)である。この動きベクトルMVにより、ベースビュー内の領域b0’が非ベースビュー内のブロックb0から参照される。領域b0’はベースビュー内のブロックとは必ずしも一致せず、同図の例では、ブロックa1〜a4に跨っている。
そこで、図5(b)に示すように、記憶部3には、ベースビュー内のブロックをインデックスとし、各ブロックに向かう動きベクトルと、評価値とを記憶する。例えば入力動画像信号の画素数が1920*1088であり、ブロック内の画素数が16*16の場合、(1920*1088)/(16*16)=8160個のインデックスが記憶部3に存在する。
図5の例では、ブロックa1〜a4はいずれも動きベクトルMVの終点であるため、ブロックa1〜a4の動きベクトルとしてMV(x0,y0)が記憶される。また、ブロックa1〜a4のそれぞれと、領域b0’との重複している画素の数を評価値とする。例えば、ブロックa1と領域b0’のうちn1個の画素とが重複している場合、ブロックa1の評価値としてn1が記憶される。評価値が大きいほど、ベースビュー内のブロックと、記憶される動きベクトルの始点である非ベースビュー内のブロックと、が類似していることを意味する。
なお、ベースビュー内のブロックによっては、非ベースビュー内のいずれのブロックからも参照されないブロックもある。このようなブロックについては、動きベクトルは記憶されず、評価値は0となる。
一方、ベースビュー内のブロックが、複数の非ベースビュー内のブロックから参照されることもある。この場合、評価値がより高いブロックの動きベクトルおよび評価値のみを記憶する。評価値が高いほど、ベースビュー内のブロックと非ブロック内のブロックがより類似しているためである。また、評価値が等しい場合は、動きベクトルの垂直成分の絶対値が小さいブロックを優先して動きベクトルおよび評価値を設定する。これは、人間の目はほぼ水平方向にのみ離れているため、3次元表示用のベースビューおよび非ベースビューは、水平方向に類似しているブロックが存在することが多いためである。
以上のようにして、1フレーム分の動きベクトルに関する情報が記憶部3に記憶される。なお、記憶部3には、ベースビュー内のブロックをインデックスとして、後述する対応ベクトルも記憶される。引き続き、探索中心計算部211は、以下のようにして、ベースビュー内の対象ブロックについて、探索中心を示す探索中心ベクトルを計算する(図4のステップS2)。
図6は、図4のステップS2をより詳細に示すフローチャートである。
対象ブロックが非ベースビュー内のいずれかのブロックから参照されていて、記憶部3の対象ブロックのインデックスに動きベクトルが記憶されており(S11のYES)、その動きベクトルの評価値が閾値TH以上、かつ、垂直成分の絶対値が閾値THy以下の場合(S12のYES)、探索中心計算部211は動きベクトルの符号を反転したベクトルを探索中心ベクトルとする(S13)。閾値TH,THyを設定する理由は、ある程度信頼性が高い動きベクトルがある場合に限って探索中心ベクトルとするためである。なお、閾値TH,THyは、任意の値である。
対象ブロックが非ベースビュー内のいずれかのブロックから参照されていて、記憶部3の対象ブロックのインデックスに動きベクトルが記憶されており(S11のYES)、その動きベクトルの評価値が閾値TH以上、かつ、垂直成分の絶対値が閾値THy以下の場合(S12のYES)、探索中心計算部211は動きベクトルの符号を反転したベクトルを探索中心ベクトルとする(S13)。閾値TH,THyを設定する理由は、ある程度信頼性が高い動きベクトルがある場合に限って探索中心ベクトルとするためである。なお、閾値TH,THyは、任意の値である。
一方、対象ブロックが非ベースビュー内のいずれのブロックからも参照されておらず、記憶部3の対象ブロックのインデックスに動きベクトルが記憶されていない場合(S11のNO)、および、動きベクトルが記憶されていても、評価値が閾値TH以下または垂直成分の絶対値が閾値THy以下の場合(S12のNO)、対象ブロックの周囲のブロックの対応ベクトルおよび動きベクトルを利用して、探索中心ベクトルを計算する。
対象ブロックの周囲で、既にステップS3の処理が行われて対応ベクトルが記憶部3に記憶されているブロックが存在する場合(S14のYES)、探索中心計算部211は周囲のブロックのすべての対応ベクトルを取得する(S15)。周囲で既にステップS3の処理が行われているブロックとは、例えばフレームの左上から右下へラスタスキャン順に処理を行う場合、対象ブロックの左上、上、右上および左のブロックである。
また、対応領域の周囲で、対応ベクトルが記憶されてなくても、動きベクトルが記憶されているブロックが存在する場合(S16のYES)、探索中心計算部211は周囲のブロックの動きベクトルの符号を反転して取得する(S17)。以下、動きベクトルの符号を反転したベクトルを反転動きベクトルと呼ぶ。なお、ステップS16での「周囲のブロック」は必ずしもステップS3の処理が行われている必要はない。
ステップS15,17で取得した対応ベクトルおよび反転動きベクトルのうち、垂直成分の絶対値が閾値THy以下のベクトルが取得された場合(S18のYES)、これらのベクトルの水平成分のメディアンおよび垂直成分のメディアンからなるベクトルを探索中心ベクトルとする(S19)。平均等ではなくメディアンとするのは、他のベクトルと大きく異なるベクトルの影響を抑えるためである。
ステップS15,17で取得した対応ベクトルおよび反転動きベクトルのうち、垂直成分の絶対値が閾値THy以下のベクトルが取得されなかったが(S18のNO)、少なくとも1つの反転動きベクトルまたは対応ベクトルが取得された場合(S20のYES)、これらのベクトルの水平成分のメディアンおよび垂直成分のメディアンからなるベクトルを探索中心ベクトルとする(S21)。
また、ステップS15,17で対応ベクトルおよび反転動きベクトルが全く取得されなかった場合(S20のNO)、(0,0)を探索中心ベクトルとする(S22)。
また、ステップS15,17で対応ベクトルおよび反転動きベクトルが全く取得されなかった場合(S20のNO)、(0,0)を探索中心ベクトルとする(S22)。
以上のようにして、対象ブロックの探索中心ベクトルが生成されると、引き続き、対応ベクトル探索部212が当該対象ブロックの対応ベクトルを探索し、対応領域を検出する(図4のS3)。
図7は、図4のステップS3をより詳細に示すフローチャートである。
まず、対応ベクトル探索部212は、非ベースビュー内に設定される探索範囲に対象ブロックと同じ垂直方向の位置が含まれるか否かを判断する(S41)。以下にこの処理を具体的に説明する。
まず、対応ベクトル探索部212は、非ベースビュー内に設定される探索範囲に対象ブロックと同じ垂直方向の位置が含まれるか否かを判断する(S41)。以下にこの処理を具体的に説明する。
図8は探索範囲の一例を示す図である。例えば図8(a)に示すように、ベースビュー内の対象ブロック31から探索中心ベクトルにより参照される、非ベースビュー内の領域を探索中心41とする。そして、探索中心41を中心とする予め定めた領域を探索範囲42として設定する。探索範囲は、例えば探索中心から垂直方向の上下に8画素ずつ、水平方向の左右に32画素ずつとする。通常、3次元表示用動画像は、水平方向に並ぶ複数の視点から見た複数の動画像を含むので、探索範囲を水平方向に長く設定するのが望ましい。
図8(a)は、探索範囲42内に対象ブロック31の垂直方向の位置が含まれない(S41のNO)例である。一方、図8(b)は、探索範囲42内に対象ブロック31の垂直方向の位置が含まれる(S41のYES)例である。
図8(a)に示すように、探索範囲42内に対象ブロック31の垂直方向の位置が含まれない場合(S41のNO)、対応ベクトル探索部212は探索範囲42全体を探索し、対象ブロック31と最も類似している対応領域を検出する(S42)。なお、対応領域は、必ずしも非ベースビュー内のブロックと一致していなくてもよいが、ブロックと同じ画素サイズである。以下、探索範囲42内で、ベースビュー内のブロックと同じ画素サイズからなる領域をブロック領域と呼ぶ。ブロック領域を互いに重ならないように設定してもよいが、本実施形態のブロック領域は一部が互いに重なるように設定される。これにより、細かく対応ベクトルを探索できる。
より具体的には、対応ベクトル探索部212は対象ブロック31と各ブロック領域との類似度を示すコストCSTを算出する。コストCSTは、例えば対象ブロック31内の画素値とブロック領域内の画素値との差分絶対値和であり、下記(1)式で表される。
ここで、A(x,y)は対象ブロック内の座標(x,y)の画素値であり、S(x,y)はブロック領域内で座標(x,y)と相対的に対応する座標の画素値である。上記(1)式は、両画素値の差分絶対値をブロック内で累積した値を示す。座標(x,y)は、対象ブロックおよびブロック領域内で、例えば左上の画素を原点とする座標である。なお、コストとして、差分絶対値和の他に、例えば両画素値の差分のDCT値の絶対値和等を用いてもよい。コストが小さいほど、対象ブロック31とブロック領域とが類似している。
探索範囲42内の全ブロック領域についてコストCSTを計算し、コストが最小となるブロック領域が、対象ブロックと最も類似している対応領域である。そこで、最小となるコストCSTを最小コストCSTmin、コストが最小となるブロック領域(対応領域)と対象ブロックとの位置関係を示すベクトルを対応ベクトルVminとして取得する。対応ベクトルVminは、対象ブロックを始点とし、対応領域を終点とするベクトルである。
一方、図8(b)に示すように、探索範囲44内に対象ブロック31と同じ垂直方向の位置が含まれる場合(S41のYES)、この垂直方向の位置を含む水平方向のラインを、基準ライン45に設定する。そして、基準ライン45から対応ベクトルの探索を開始する。
対応ベクトル探索部212は基準ライン45上のブロック領域のそれぞれについてコストCSTを算出する。そして、最小となるコストCSTをコストCST0、コストが最小となるブロック領域と対象ブロックとの位置関係を示すベクトルをベクトルV0として取得する(S43)。
また、対応ベクトル探索部212は基準ライン45より1つ上のライン上のブロック領域のそれぞれについてコストCSTを算出し、最小となるコストCSTをコストCSTu、コストが最小となるブロック領域と対象ブロックとの位置関係を示すベクトルをベクトルVuとして取得する(S44)。ここで、基準ライン45より1つ上のラインとは、基準ライン45より垂直方向に例えば1画素上のラインである。
同様に、対応ベクトル探索部212は基準ライン45より1つ下のライン上のブロック領域のそれぞれについてコストCSTを算出し、最小となるコストCSTをコストCSTd、コストが最小となるブロック領域と対象ブロックとの位置関係を示すベクトルをベクトルVdとし
て取得する(S45)。
て取得する(S45)。
図9は、ステップS43〜S45の対応ベクトル探索を説明する図である。なお、同図では、ブロック領域が4*4画素からなる例を示している。
ステップS43では、まず、対応ベクトル探索部212は基準ライン45における左端のブロック領域についてコストCSTを算出する(図9(a1))。続いて、対応ベクトル探索部212は、水平方向右側に1画素だけずれた位置のブロック領域について、コストCSTを算出する(図9(b1))。以下、同様にして水平方向に1画素ずつずらしながら、対応ベクトル探索部212はコストCSTが最小となるブロック領域を探索し(図9(c1))、最小コストCST0、ベクトルV0を取得する。
ステップS44では、対応ベクトル探索部212は、基準ライン45より垂直方向に1画素上のラインにおける左端のブロック領域について、コストCSTを算出する(図9(a2))。以下ステップS43と同様にして、対応ベクトル探索部212は、基準ライン45より1つ上のラインで、コストCSTが最小となるブロック領域を探索し、最小コストCSTuおよびベクトルVuを取得する。一方、ステップS45では、図9(a3),(b3),(c3)に示すように、対応ベクトル探索部212は、基準ライン45より垂直方向に1画素下のラインで、コストCSTが最小となるブロック領域を探索し、最小コストCSTdおよびベクトルVdを取得する。
そして、CSTu≦CSTd(図7のS46のYES)の場合、探索方向を上に設定し、かつ、CST1=CSTuに設定する(S47)。
一方、CSTu>CSTd(S46のNO)の場合、探索方向を下に設定し、かつ、CST1=CSTdに設定する(S48)。
CST0≦CST1(S49のYES)、すなわち、基準ライン45における最小コストが極小である場合、対応ベクトル探索部212は、最小コストCSTmin、対応ベクトルVminを取得し(S50)、処理を終了する。
一方、CST0>CST1(S49のNO)、すなわち、基準ライン45における最小コストが極小でない場合、対応ベクトル探索部212はさらに探索を行うか否かを判断する(S51)。すなわち、探索方向が上に設定されている場合はコストCSTを算出したラインの1つ上のラインが探索範囲内であるか否か、探索方向が下に設定されている場合はコストCSTを算出したラインの1つ下のラインが探索範囲内であるか否か、を対応ベクトル探索部212は判断する。
さらに探索を行う場合(S51のYES)、コストCST1をコストCST0に、ベクトルV1をベクトルV0に設定する(S52)。そして、探索方向が上に設定されている場合は、さらに1つ上のライン上のブロック領域のそれぞれについてコストCSTを算出し、最小となるコストCSTをCST1、コストが最小となるブロック領域と対象ブロックとの位置関係を示すベクトルをベクトルV1とする(S53)。そして、ステップS49以降の処理を繰り返す。繰り返す過程で、CST0≦CST1(S49のYES)、すなわち、極小のコストが得られた場合、最小コストCSTminおよび対応ベクトルVminを取得して(S50)、処理を終了する。
一方、ステップS49以降の処理を繰り返し、探索範囲の上限(あるいは下限)のラインまでコストを計算してもコストCST0が極小とならない場合、すなわち、CST0≦CST1(S49のYES)とならない場合、探索範囲を超えての探索は行わず(S51のNO)、探索範囲の上限(あるいは下限)のラインのコストCST1を最小コストCSTminとし、ベクトルV1を対応ベクトルVminとして取得し(S54)、処理を終了する。
なお、ステップS42,50,54で取得された対応ベクトルVminは記憶部3に記憶され(図5(b))、その後の対象ブロックの探索中心を計算するために用いられる。
ステップS46以降の処理の具体例を説明する。図10は、探索範囲44と、各ラインにおける最小コストを示す図である。
図10(a)の例では、CST0<CSTu<CSTdである。CSTu<CSTdであるため(S46のYES)、CST1=CSTuに設定される(S47)。そして、CST0≦CST1(=CSTu)を満たすため(S49のYES)、基準ライン45でのコストが極小であり、最小コストCSTmin、対応ベクトルVminが取得される(S50)。
一方、図10(b)の例では、CSTd<CST0<CSTuである。CSTd<CSTuであるため(S46のNO)、CST1=CSTd、および、探索方向が下に設定される(S48)。ここで、CST1(=CSTd)<CST0であるため(S49のNO)、以降、下方向にコストCSTが極小となるブロック領域が探索される(S49〜S54)。
3次元表示用の動画像は、通常、水平方向に並ぶ複数の視点からの動画像である。そのため、対象ブロックと類似する対象領域は、対象ブロックと水平方向にずれた位置に存在する可能性が高い。本実施形態では、対象ブロックと同じ垂直方向の位置を含む基準ラインからブロック領域の探索を開始するため、迅速に対応ベクトルを得られる。また、コストが極小になった時点で対応ベクトルを決定し、その後の探索を終了するため、処理量を減らすことができる。
以上のようにして、対応領域が検出されると、引き続き、重み計算部221は対象ブロックと対応領域とを混合する重みを計算する(図4のS4)。
図11は、ステップS3で算出される最小コストCSTminと重みWとの関係の一例を示す図である。同図に示すように、重み計算部221は下記(2)式に基づいて重みWを計算する。
図11は、ステップS3で算出される最小コストCSTminと重みWとの関係の一例を示す図である。同図に示すように、重み計算部221は下記(2)式に基づいて重みWを計算する。
W = (-1/T) * CSTmin + 1 (if CSTmin < T)
0 (else (CSTmin ≧ T)) ・・・(2)
ここで、Tは予め定めた定数である。なお、図11および上記(2)式は一例である。重み計算部221は、最小コストCSTminが小さいほど(すなわち、類似度が大きいほど)、重みWを大きく設定する。なお、他の関数や予め定めたテーブルを用いて重みWを計算してもよい。
0 (else (CSTmin ≧ T)) ・・・(2)
ここで、Tは予め定めた定数である。なお、図11および上記(2)式は一例である。重み計算部221は、最小コストCSTminが小さいほど(すなわち、類似度が大きいほど)、重みWを大きく設定する。なお、他の関数や予め定めたテーブルを用いて重みWを計算してもよい。
続いて、混合部222は、対象ブロック内の各画素と対応領域内の各画素とを、重みWに応じて混合する(図4のS5)。より具体的には、混合部222は、例えば下記(3)式に基づいて画素同士を混合する。
r = (p + W * q) / (1 + W) ・・・(3)
ここで、pは対象ブロック内の画素値、qは対応領域内の画素値である。rは混合後の動画像信号における画素値であり、画像処理部2の出力である2次元表示用の動画像における画素値である。対象ブロック内の画素と混合すべき対応領域内の画素は、対応ベクトルにより示される。このような混合処理を行うことにより、ノイズを低減することができる。
以上、図4の処理を行うことで、2次元表示用の動画像信号が生成される。
ここで、pは対象ブロック内の画素値、qは対応領域内の画素値である。rは混合後の動画像信号における画素値であり、画像処理部2の出力である2次元表示用の動画像における画素値である。対象ブロック内の画素と混合すべき対応領域内の画素は、対応ベクトルにより示される。このような混合処理を行うことにより、ノイズを低減することができる。
以上、図4の処理を行うことで、2次元表示用の動画像信号が生成される。
このように、本実施形態では、ベースビュー内の各ブロックと類似した、非ベースブロック内の領域を検出し、ベースビューと非ベースビューとを混合する。そのため、ノイズが低減された高品位な2次元表示用の動画像を生成できる。
上述した実施形態で説明した画像処理システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、画像処理システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、画像処理システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 復号部
2 画像処理部
21 対応領域検出部
211 探索中心計算部
212 対応ベクトル探索部
22 画像補正部
221 重み計算部
222 混合部
3 記憶部
4 表示部
31 対象ブロック
41,43 探索中心
42,44 探索範囲
45 基準ライン
2 画像処理部
21 対応領域検出部
211 探索中心計算部
212 対応ベクトル探索部
22 画像補正部
221 重み計算部
222 混合部
3 記憶部
4 表示部
31 対象ブロック
41,43 探索中心
42,44 探索範囲
45 基準ライン
Claims (6)
- 互いに異なる複数の視点から見た複数の画像が符号化された入力画像信号を復号し、第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の視点から見た第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、を生成する復号部と、
前記第1および第2の画像信号と前記動きベクトルとに基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出する対応領域検出部と、
前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合し、第3の画像信号を生成する画像補正部と、を備えることを特徴とする画像処理システム。 - 前記対応領域検出部は、
前記動きベクトルに基づいて、前記対応領域を前記第2の画像内で探索する範囲の中心を示す探索中心を計算する探索中心計算部と、
前記探索中心を中心とする探索範囲内で、前記対応領域を探索する対応ベクトル探索部と、を有することを特徴とする請求項1に記載の画像処理システム。 - 前記探索中心計算部は、前記対象ブロックと関連する前記動きベクトルと、前記対象ブロックの周囲のブロックと関連する前記動きベクトルと、前記対象ブロックの周囲のブロックの対応領域を示す対応ベクトルと、のうちの少なくとも一部に基づいて、前記探索中心を計算することを特徴とする請求項2に記載の画像処理システム。
- 前記対応ベクトル探索部は、前記対象ブロックと、前記探索範囲内の複数の画素からなるブロック領域と、の類似度を示すコストを算出し、前記コストに基づいて、前記対応領域を検出することを特徴とする請求項2に記載の画像処理システム。
- 第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、に基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出する対応領域検出部と、
前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合し、第3の画像信号を生成する画像補正部と、を備えることを特徴とする画像処理装置。 - 第1の視点から見た第1の画像に対応する第1の画像信号と、前記第1の視点とは異なる第2の画像に対応する第2の画像信号と、前記第2の画像から前記第1の画像を参照するための動きベクトルと、に基づいて、前記第1の画像内の対象ブロックと対応する、前記第2の画像内の対応領域を検出するステップと、
前記対象ブロックと前記対応領域との類似度に応じて、前記対象ブロック内の各画素と前記対応領域内の各画素とを混合するステップと、を備えることを特徴とする画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011224525A JP2013085157A (ja) | 2011-10-12 | 2011-10-12 | 画像処理装置、画像処理方法および画像処理システム |
US13/424,829 US8867842B2 (en) | 2011-10-12 | 2012-03-20 | Image processing device producing a single-viewpoint image based on a plurality of images viewed from a plurality of viewing points, image processing system producing a single-viewpoint image based on a plurality of images viewed from a plurality of viewing points, and image processing method producing a single-viewpoint image based on a plurality of images viewed from a plurality of viewing points |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011224525A JP2013085157A (ja) | 2011-10-12 | 2011-10-12 | 画像処理装置、画像処理方法および画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013085157A true JP2013085157A (ja) | 2013-05-09 |
Family
ID=48086034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011224525A Pending JP2013085157A (ja) | 2011-10-12 | 2011-10-12 | 画像処理装置、画像処理方法および画像処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8867842B2 (ja) |
JP (1) | JP2013085157A (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4874578B2 (ja) | 2005-06-13 | 2012-02-15 | 三菱電機株式会社 | 画像符号化装置 |
US8355440B2 (en) * | 2006-08-07 | 2013-01-15 | Vixs Systems, Inc. | Motion search module with horizontal compression preprocessing and methods for use therewith |
KR101506217B1 (ko) * | 2008-01-31 | 2015-03-26 | 삼성전자주식회사 | 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치 |
JP5430234B2 (ja) | 2009-06-04 | 2014-02-26 | パナソニック株式会社 | 画像処理装置、画像処理方法、プログラム、記録媒体及び集積回路 |
US9516341B2 (en) * | 2010-01-19 | 2016-12-06 | Thomson Licensing | Methods and apparatus for reduced complexity template matching prediction for video encoding and decoding |
US9491432B2 (en) * | 2010-01-27 | 2016-11-08 | Mediatek Inc. | Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof |
KR101647408B1 (ko) * | 2010-02-03 | 2016-08-10 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
BR112012020856A2 (pt) * | 2010-02-23 | 2019-09-24 | Nippon Telegraph & Telephone | ver anexo. |
-
2011
- 2011-10-12 JP JP2011224525A patent/JP2013085157A/ja active Pending
-
2012
- 2012-03-20 US US13/424,829 patent/US8867842B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20130094763A1 (en) | 2013-04-18 |
US8867842B2 (en) | 2014-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11758125B2 (en) | Device and method for processing video signal by using inter prediction | |
JP5970609B2 (ja) | 3dビデオ符号化における統一された視差ベクトル導出の方法と装置 | |
JP5763184B2 (ja) | 3次元画像に対する視差の算出 | |
US8983175B2 (en) | Video processing method and device for depth extraction | |
US8116557B2 (en) | 3D image processing apparatus and method | |
WO2012086120A1 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
US20150245062A1 (en) | Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program and recording medium | |
JP2011515060A (ja) | ビデオ信号のエンコーディングまたはデコーディング方法及び装置 | |
JP4938884B2 (ja) | 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム | |
JP6027143B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム | |
JP2013509104A (ja) | 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法 | |
JP2009123219A (ja) | 深さマップ推定装置と方法、これを用いた中間映像生成方法および多視点ビデオのエンコーディング方法 | |
US20150249839A1 (en) | Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media | |
KR20150015483A (ko) | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체 | |
US20160065958A1 (en) | Method for encoding a plurality of input images, and storage medium having program stored thereon and apparatus | |
JP6232075B2 (ja) | 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム | |
JP2024125405A (ja) | Bdofを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法 | |
JP2015103872A (ja) | 画像符号化装置及び画像復号装置及びそれらの制御方法 | |
US20170055000A2 (en) | Moving image encoding method, moving image decoding method, moving image encoding apparatus, moving image decoding apparatus, moving image encoding program, and moving image decoding program | |
US9076228B2 (en) | Image processing device, image processing method, and image processing system | |
JP2012034336A (ja) | 立体画像生成装置及び方法 | |
JP2013085157A (ja) | 画像処理装置、画像処理方法および画像処理システム | |
KR20130056808A (ko) | 3차원 영상의 부가정보를 부호화/복호화 하는 장치 및 방법 | |
US20160057414A1 (en) | Method for encoding a plurality of input images, and storage medium having program stored thereon and apparatus | |
Kim et al. | Object-based stereoscopic conversion of MPEG-4 encoded data |