JP2012044383A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2012044383A JP2012044383A JP2010182770A JP2010182770A JP2012044383A JP 2012044383 A JP2012044383 A JP 2012044383A JP 2010182770 A JP2010182770 A JP 2010182770A JP 2010182770 A JP2010182770 A JP 2010182770A JP 2012044383 A JP2012044383 A JP 2012044383A
- Authority
- JP
- Japan
- Prior art keywords
- input image
- parallax
- pixel
- image
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】立体表示に適さない画像をより精度よく検出できるようにする。
【解決手段】視差分布特徴量生成部22と視差両方向特徴量生成部23は、立体表示用の入力画像の視差の検出結果に基づいて、視差の分布を示す視差分布特徴量、および視差の検出の確からしさを示す視差両方向特徴量を生成する。平坦度特徴量生成部24と輝度差特徴量生成部25は、入力画像に基づいて、入力画像の各領域の平坦さの度合いを示す平坦度特徴量、および入力画像の各領域の輝度差を示す輝度差特徴量を生成する。判定部26は、各特徴量が所定の条件を満たすか否かを判定することで、入力画像が立体表示に適した画像であるか否かを判定する。本発明は、画像処理装置に適用することができる。
【選択図】図1
【解決手段】視差分布特徴量生成部22と視差両方向特徴量生成部23は、立体表示用の入力画像の視差の検出結果に基づいて、視差の分布を示す視差分布特徴量、および視差の検出の確からしさを示す視差両方向特徴量を生成する。平坦度特徴量生成部24と輝度差特徴量生成部25は、入力画像に基づいて、入力画像の各領域の平坦さの度合いを示す平坦度特徴量、および入力画像の各領域の輝度差を示す輝度差特徴量を生成する。判定部26は、各特徴量が所定の条件を満たすか否かを判定することで、入力画像が立体表示に適した画像であるか否かを判定する。本発明は、画像処理装置に適用することができる。
【選択図】図1
Description
本発明は画像処理装置および方法、並びにプログラムに関し、特に、立体表示に適さない画像を精度よく検出できるようにした画像処理装置および方法、並びにプログラムに関する。
従来、互いに視差を有する一対の画像を用いて立体画像を表示する技術が知られている。立体画像の表示は、左眼用の画像がユーザの左眼で観察され、右眼用の画像がユーザの右眼で観察されるように行なわれる。
ところで、立体画像を表示する場合に、左眼用と右眼用の画像上の被写体の視差が大き過ぎると、表示された立体画像が非常に見づらくなり、視聴しているユーザの眼が疲れてしまうことがある。そこで、立体画像が見づらい場合に、立体画像の視差調整を行なって、立体画像をより見易い画像に変換する技術が提案されている(例えば、特許文献1参照)。
しかしながら、立体表示に適しているとはいえない画像のなかには、例えば左眼用と右眼用の画像のそれぞれに全く異なる被写体がある場合など、視差調整だけでは対応できないものもあり、全ての立体画像をユーザが視聴し易い画像に変換することは困難であった。そのため、適宜、立体表示用の画像のなかから、立体表示に適したものだけを抽出して表示したりするために、立体表示に適さない画像を検出する技術が求められている。
本発明は、このような状況に鑑みてなされたものであり、立体表示に適さない画像を精度よく検出することができるようにするものである。
本発明の一側面の画像処理装置は、左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差を検出する視差検出手段と、前記視差の検出結果を用いて、所定の特徴量を生成する第1の特徴量生成手段と、前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する判定手段とを備える。
前記第1の特徴量生成手段には、前記入力画像の各領域における前記視差の検出の確からしさを示す視差両方向特徴量を前記特徴量として生成させることができる。
画像処理装置には、前記入力画像に基づいて、前記入力画像の各領域の画素の画素値の平坦さの度合いを示す平坦度特徴量を生成する第2の特徴量生成手段をさらに設け、前記判定手段には、前記視差両方向特徴量および前記平坦度特徴量が所定の条件を満たすか否かを判定させることで、前記入力画像が立体表示に適した画像であるか否かを判定させることができる。
前記判定手段には、前記入力画像の領域ごとに、前記視差両方向特徴量および前記平坦度特徴量が所定の条件を満たすか否かを判定させ、前記領域ごとの判定結果に基づいて、前記入力画像が立体表示に適した画像であるか否かを判定させることができる。
画像処理装置には、前記左眼入力画像と前記右眼入力画像の各領域における輝度値の差を示す輝度差特徴量を生成する第2の特徴量生成手段をさらに設け、前記判定手段には、前記視差両方向特徴量および前記輝度差特徴量が所定の条件を満たすか否かを判定させることで、前記入力画像が立体表示に適した画像であるか否かを判定させることができる。
前記視差検出手段には、前記左眼入力画像の各画素の前記右眼入力画像との視差を示す左眼視差マップと、前記右眼入力画像の各画素の前記左眼入力画像との視差を示す右眼視差マップとを前記視差の検出結果として生成させ、前記第1の特徴量生成手段には、前記左眼視差マップと前記右眼視差マップのうちの一方のマップ上の画素を注目画素として、前記注目画素の位置と前記注目画素により示される視差により特定される、前記注目画素に対応する他方のマップの画素を特定画素として特定させるとともに、前記特定画素の位置と前記特定画素により示される視差により特定される、前記特定画素に対応する前記一方のマップの画素が、前記注目画素と一致するか否かを判定させ、その判定結果に基づいて前記視差両方向特徴量を生成させることができる。
画像処理装置には、前記視差の検出結果を用いて、前記入力画像における各被写体の視差の分布を示す視差分布特徴量を生成する第2の特徴量生成手段をさらに設け、前記判定手段には、前記視差分布特徴量に基づいて、前記入力画像の視差のレンジが予め定めた視差の範囲内にあるか否かを判定させることで、前記入力画像が立体表示に適しているか否かをさらに判定させ、前記視差分布特徴量に基づく判定結果と、前記視差両方向特徴量に基づく判定結果とを用いて、前記入力画像が立体表示に適した画像であるか否かの最終的な判定を行なわせることができる。
本発明の一側面の画像処理方法またはプログラムは、左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差を検出し、前記視差の検出結果を用いて、所定の特徴量を生成し、前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定するステップを含む。
本発明の一側面においては、左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差が検出され、前記視差の検出結果が用いられて、所定の特徴量が生成され、前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かが判定される。
本発明の一側面によれば、立体表示に適さない画像を精度よく検出することができる。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
〈第1の実施の形態〉
[画像処理装置の構成]
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
[画像処理装置の構成]
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
この画像処理装置11は、外部から入力された立体表示用の入力画像が立体表示に適した画像であるか否かを判定し、その判定結果に応じて、入力画像をそのまま表示したり、ユーザにアラート(警告)を発したりするものである。
具体的には、画像処理装置11では、左眼用と右眼用の画像が全く異なる入力画像、左眼用や右眼用の画像に、撮影者の指や強い光が入ってしまった入力画像、被写体の視差のレンジが広すぎる入力画像などが、立体表示に適さない画像として検出される。
例えば、左眼用と右眼用の画像が全く異なる入力画像とは、視差の検出範囲を超えるほど被写体の視差が大きすぎる画像である。また、左眼用や右眼用の画像に、撮影者の指や強い光が入ってしまった入力画像とは、例えば左眼用と右眼用の一方の画像に撮影者の指などが写っている入力画像や、画像上にフレアが生じ、左眼用と右眼用の画像で大きな輝度差がある入力画像などである。
画像処理装置11は、入力画像から複数の特徴量を抽出して、それらの特徴量に基づいて左眼用と右眼用の入力画像を比較し、入力画像が立体表示に適しているか否かを判定する。なお、以下、立体表示用の入力画像を構成する一対の画像のうち、ユーザの左眼で観察されるように表示される左眼用の画像を左眼入力画像Lとも称し、ユーザの右眼で観察されるように表示される右眼用の画像を右眼入力画像Rとも称することとする。
画像処理装置11は、視差検出部21、視差分布特徴量生成部22、視差両方向特徴量生成部23、平坦度特徴量生成部24、輝度差特徴量生成部25、判定部26、画像処理部27、および表示部28から構成される。
視差検出部21は、入力された入力画像に基づいて、左眼入力画像Lと右眼入力画像Rの視差を画素ごとに検出し、その検出結果を視差分布特徴量生成部22、および視差両方向特徴量生成部23に供給する。
視差分布特徴量生成部22は、視差検出部21から供給された視差の検出結果に基づいて、入力画像における各被写体の視差の分布を示す視差分布特徴量を生成し、判定部26に供給する。視差両方向特徴量生成部23は、視差検出部21から供給された視差の検出結果に基づいて、入力画像の各領域における視差検出結果の信頼度を示す視差両方向特徴量を生成し、判定部26に供給する。
平坦度特徴量生成部24は、入力された入力画像に基づいて、入力画像における各領域の平坦さの度合いを示す平坦度特徴量を生成し、判定部26に供給する。ここで、入力画像における平坦さとは、入力画像上の空間方向に対する画素の画素値の変化の少なさをいう。輝度差特徴量生成部25は、入力された入力画像に基づいて、左眼入力画像Lと右眼入力画像Rの各領域の輝度差を示す輝度差特徴量を生成し、判定部26に供給する。
判定部26は、視差分布特徴量生成部22、視差両方向特徴量生成部23、平坦度特徴量生成部24、および輝度差特徴量生成部25から供給された、視差分布特徴量、視差両方向特徴量、平坦度特徴量、および輝度差特徴量に基づいて、入力画像が立体表示に適した画像であるか否かを判定する。判定部26は、入力画像が立体表示に適した画像であるか否かの判定結果を画像処理部27に供給する。
画像処理部27は、判定部26からの判定結果に応じて、入力された入力画像を表示部28に表示させたり、表示部28にアラートを表示させたりする。表示部28は、所定の表示方式に従って、画像処理部27から供給された画像を立体表示する。
[立体表示処理の説明]
ところで、ユーザが画像処理装置11を操作して入力画像の再生を指示すると、画像処理装置11は、立体表示処理を開始して指定された入力画像を立体表示する。以下、図2のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。
ところで、ユーザが画像処理装置11を操作して入力画像の再生を指示すると、画像処理装置11は、立体表示処理を開始して指定された入力画像を立体表示する。以下、図2のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。
ステップS11において、視差検出部21は、入力された再生対象の入力画像に基づいて、入力画像の視差検出を行ない、その検出結果を視差分布特徴量生成部22、および視差両方向特徴量生成部23に供給する。
例えば、視差検出部21は左眼入力画像Lを基準として、DP(Dynamic Programing)マッチングにより、左眼入力画像Lの各画素の右眼入力画像Rとの視差を検出し、その検出結果を示す視差マップを生成する。同様に、視差検出部21は右眼入力画像Rを基準として、DPマッチングにより右眼入力画像Rの各画素の左眼入力画像Lとの視差を検出し、その検出結果を示す視差マップを生成する。
ステップS12において、視差両方向特徴量生成部23は、視差検出部21から供給された視差の検出結果に基づいて視差両方向特徴量を生成し、判定部26に供給する。
例えば、図3に示すように視差両方向特徴量生成部23には、左眼入力画像Lの各画素の右眼入力画像Rとの視差を示す視差マップDMLと、右眼入力画像Rの各画素の左眼入力画像Lとの視差を示す視差マップDMRが供給される。
なお、図3において、1つの四角形は視差マップ上の1つの画素を表しており、画素内の数字は視差を示している。また、図3では、左眼入力画像Lと右眼入力画像Rの視差の方向は横方向であるものとし、図中、右方向を正の方向とし、左方向が負の方向であるものとする。
したがって、例えば視差マップDML上の画素G11内の数値「−1」は、その画素G11と同じ位置にある左眼入力画像Lの画素から見た、右眼入力画像Rの視差が図中、左方向に1画素であることを示している。すなわち、画素G11と同じ位置にある左眼入力画像Lの画素に表示される被写体は、右眼入力画像Rにおいて、視差マップDMR上の画素G12と同じ位置の画素に表示されることを示している。
まず、視差両方向特徴量生成部23は、これから得ようとする、左眼入力画像Lの各画素の右眼入力画像Rとの視差の検出の確からしさを示す両方向判定マップHMLの所定の画素を注目画素とする。
そして、視差両方向特徴量生成部23は、注目画素と同じ位置にある視差マップDML上の画素(以下、処理対象画素とも称する)が示す視差に基づいて、その処理対象画素に対応する視差マップDMR上の画素を特定する。
ここで、処理対象画素に対応する画素とは、視差マップDMR上において、処理対象画素と同じ位置にある画素から、処理対象画素が示す視差の方向に、その視差の大きさだけ離れた位置にある画素をいう。したがって、例えば、視差マップDML上の画素G11が処理対象画素であれば、画素G11に対応する画素は、視差マップDMR上において、画素G11と同じ位置の画素から、図中、左方向(負の方向)に1画素だけ離れた位置にある画素G12となる。
視差両方向特徴量生成部23は、処理対象画素に対応する視差マップDMR上の画素を特定すると、特定された画素が示す視差に基づいて、その画素に対応する視差マップDML上の画素を特定し、その結果得られた画素が処理対象画素と一致するか否かを判定する。なお、このような判定処理を以下、両方向判定とも称する。
視差両方向特徴量生成部23は両方向判定を行なうと、その判定結果に基づいて注目画素の画素値を定める。具体的には、両方向判定の結果、特定された視差マップDML上の画素が処理対象画素であった場合、注目画素の画素値は「1」とされ、特定された視差マップDML上の画素が処理対象画素でなかった場合、注目画素の画素値は「0」とされる。
視差両方向特徴量生成部23は、両方向判定マップHMLの画素を順次、注目画素として両方向判定を行い、両方向判定マップHMLの各画素の画素値を求めていくことで、両方向判定マップHMLを生成する。
例えば、処理対象画素が画素G11である場合、画素G11が示す視差は「−1」であるから、画素G11に対応する視差マップDMR上の画素は画素G12となる。これに対して、画素G12が示す視差は「+1」であるから、画素G12に対応する視差マップDML上の画素は画素G11となり、画素G12に対応する画素は処理対象画素と一致することになる。したがって、処理対象画素が画素G11である場合、画素G11と同じ位置にある両方向判定マップHMLの画素の画素値は「1」となる。
この場合、画素G11と同じ位置の左眼入力画像L上の画素と、その画素と同じ被写体が表示される右眼入力画像Rの画素の位置関係は、画素G11に対応する画素G12と同じ位置の右眼入力画像R上の画素と、その画素と同じ被写体が表示される左眼入力画像Lの画素の位置関係と等しいことになる。このことは、画素G11の視差の検出結果が確からしいことを示しているということができる。
これに対して、処理対象画素が視差マップDML上の画素G13である場合、画素G13が示す視差は「−1」であるから、画素G13に対応する視差マップDMR上の画素は画素G14となる。これに対して、画素G14が示す視差は「+2」であるから、画素G14に対応する視差マップDML上の画素は画素G13の図中、右側に隣接する画素となり、画素G14に対応する画素は処理対象画素と一致しないことになる。したがって、処理対象画素が画素G13である場合、画素G13と同じ位置にある両方向判定マップHMLの画素の画素値は「0」となる。この場合、画素G11の場合とは反対に、画素G13の視差の検出結果は確からしくない、つまり信頼度が低いことを示しているということができる。
このようにして両方向判定マップHMLを生成すると、次に視差両方向特徴量生成部23は、両方向判定マップHMLの場合と同様の処理を行なって、右眼入力画像Rの各画素の左眼入力画像Lとの視差の検出の確からしさを示す両方向判定マップHMRを生成する。
そして、両方向判定マップHMLと両方向判定マップHMRが得られると、視差両方向特徴量生成部23は、これらの両方向判定マップからブロック両方向判定マップを生成する。すなわち、視差両方向特徴量生成部23は、両方向判定マップHMLと両方向判定マップHMRの論理積を求めることで、これらの両方向判定マップを統合する。
具体的には、両方向判定マップHMLと両方向判定マップHMRの同じ位置の画素の画素値の論理積が求められ、その結果得られた値が、統合後の両方向判定マップにおける、それらの画素と同じ位置にある画素の画素値とされる。換言すれば、両方向判定マップHMLと両方向判定マップHMRの同位置の画素の画素値がともに「1」である場合、統合後の両方向判定マップの画素の画素値は「1」とされ、それ以外の場合には、統合後の両方向判定マップの画素の画素値は「0」とされる。
さらに、視差両方向特徴量生成部23は、このようにして得られた統合後の両方向判定マップを、いくつかの画素からなるブロックに分割し、各ブロック内の画素の画素値の総和を求め、求めた総和を画素の画素値とするブロック両方向判定マップを生成する。すなわち、ブロック両方向判定マップの各画素の画素値は、その画素に対応する統合後の両方向判定マップ上のブロックに属す全画素の画素値の総和を示している。
このようにして得られたブロック両方向判定マップは、入力画像の各領域における視差検出結果の確からしさの度合いを示している。視差両方向特徴量生成部23は、ブロック両方向判定マップが生成されると、生成されたブロック両方向判定マップを視差両方向特徴量として判定部26に供給する。
図2のフローチャートに戻り、ステップS12において視差両方向特徴量が生成されると、処理はステップS13に進む。
ステップS13において、平坦度特徴量生成部24は、入力された入力画像に基づいて平坦度特徴量を生成し、判定部26に供給する。
例えば、平坦度特徴量生成部24は、図4に示すように、入力画像を構成する左眼入力画像L上の注目する画素を注目画素とし、注目画素を中心とする所定の大きさのブロックを注目ブロックLiとする。また、平坦度特徴量生成部24は、左眼入力画像L上において、注目ブロックから図中、横方向にm画素(但し、図中、右方向を正の方向として、−5≦m≦5)だけ離れた位置にある、注目ブロックと同じ大きさのブロックをブロックL(i+m)とする。そして、平坦度特徴量生成部24は、注目ブロックLiとブロックL(i+m)とのマッチングを行なう。
ここで、注目ブロックLiとブロックL(i+m)とのマッチングでは、同じ位置にある画素の画素値の差分絶対値和などが評価値として算出される。すなわち、平坦度特徴量生成部24は、注目ブロックLiを図中、横方向に±5画素だけ移動させながら、移動後のブロックと注目ブロックとの差分絶対値和を評価値として算出していく。なお、図4において、注目ブロックLiを移動させていく方向、つまり図中、横方向は、左眼入力画像Lと右眼入力画像Rとの視差の方向である。
このようにして、各ブロックL(i+m)(但し、−5≦m≦5)とのマッチングを行い、ブロックL(i+m)の評価値が得られると、平坦度特徴量生成部24は、得られた評価値のなかから、値が小さい順に3つの評価値を選択する。そして、平坦度特徴量生成部24は、選択した3つの評価値のうちの最大値と最小値の差を求め、評価値のレンジとする。すなわち、各ブロックL(i+m)の評価値のうちの最小のものと3番目に小さいものとの差が、評価値のレンジとして算出される。
平坦度特徴量生成部24は、左眼入力画像L上の各画素を順次、注目画素として、各画素について評価値のレンジを求めると、それらの評価値のレンジに対する閾値判定を行なって、平坦度判定マップを生成する。
具体的には、平坦度特徴量生成部24は、左眼入力画像L上の所定の画素の評価値のレンジが予め定めた閾値以下である場合、その画素は平坦な画素であるとして、その画素と同じ位置にある平坦度判定マップの画素の画素値を「1」とする。これに対して、平坦度特徴量生成部24は、左眼入力画像L上の所定の画素の評価値のレンジが閾値より大きい場合、その画素と同じ位置にある平坦度判定マップの画素の画素値を、平坦でないことを示す値「0」とする。
左眼入力画像Lの各画素の評価値は、その画素を中心とする注目ブロックと、その画素近傍のブロックとの差分であるから、それらのブロックの類似の度合いが高いほど、評価値は小さくなる。したがって、評価値のレンジが小さいほど、注目ブロック中心の画素近傍は、平坦な絵柄であるということができる。
このようにして得られた平坦度判定マップの各画素の画素値は、その画素と同じ位置にある左眼入力画像Lの画素近傍が平坦であるか否かを示している。なお、注目ブロックとの差分を求める左眼入力画像L上のブロックの探索範囲を広くすると、繰り返しパターンの絵柄も検出されてしまい、精度よく平坦であるかを判定できなくなってしまうので、ブロックの探索範囲は数画素程度の範囲とされることが望ましい。
次に、平坦度特徴量生成部24は、得られた平坦度判定マップからブロック平坦度判定マップを生成する。具体的には、平坦度特徴量生成部24は、平坦度判定マップをいくつかの画素からなるブロックに分割し、各ブロック内の画素の画素値の総和を求め、求めた総和を画素の画素値とするブロック平坦度判定マップを生成する。すなわち、ブロック平坦度判定マップの各画素の画素値は、その画素に対応する平坦度判定マップ上のブロックに属す全画素の画素値の総和を示している。
このようにして得られたブロック平坦度判定マップは、左眼入力画像Lの各領域における平坦さの度合いを示している。
さらに、平坦度特徴量生成部24は、左眼入力画像Lのブロック平坦度判定マップを生成する処理と同様の処理を行なって、右眼入力画像Rのブロック平坦度判定マップを生成する。そして、平坦度特徴量生成部24は、左眼入力画像Lのブロック平坦度判定マップと、右眼入力画像Rのブロック平坦度判定マップとを、平坦度特徴量として判定部26に供給する。
図2のフローチャートの説明に戻り、平坦度特徴量が生成されると、処理はステップS13からステップS14へと進む。
ステップS14において、輝度差特徴量生成部25は、入力された入力画像に基づいて輝度差特徴量を生成し、判定部26に供給する。
具体的には、輝度差特徴量生成部25は、入力画像を構成する左眼入力画像Lと右眼入力画像Rの同じ位置にある画素の輝度値の差分絶対値を求め、求めた差分絶対値を画素の画素値とする輝度差マップを生成する。すなわち、輝度差マップの画素の画素値は、その画素と同じ位置にある、左眼入力画像Lの画素と右眼入力画像Rの画素との輝度値の差分絶対値を示している。
さらに、輝度差特徴量生成部25は、輝度差マップをいくつかの画素からなるブロックに分割し、各ブロック内の画素の画素値の総和を求め、求めた総和を画素の画素値とするブロック輝度差マップを生成する。すなわち、ブロック輝度差マップの各画素の画素値は、その画素に対応する輝度差マップ上のブロックに属す全画素の画素値の総和を示している。
輝度差特徴量生成部25は、このようにして得られたブロック輝度差マップを、輝度差特徴量として判定部26に供給する。なお、輝度差マップ上のブロックに属す画素の画素値の平均値、つまり輝度の差分の平均値がブロック輝度差マップの画素の画素値とされてもよい。
ステップS15において、視差分布特徴量生成部22は、視差検出部21から供給された視差の検出結果に基づいて視差分布特徴量を生成し、判定部26に供給する。
例えば、視差分布特徴量生成部22は、視差の検出結果として供給された視差マップDMLを用いて、視差マップの画素の画素値のヒストグラムを生成し、視差分布特徴量とする。視差分布特徴量としてのヒストグラムは、入力画像における各被写体の視差の分布を示している。なお、このヒストグラムは、視差マップDMRが用いられて生成されてもよいし、視差マップDMLと視差マップDMRの両方が用いられて生成されてもよい。
ステップS16において、判定部26は、視差両方向特徴量生成部23乃至輝度差特徴量生成部25から供給された、視差両方向特徴量、平坦度特徴量、および輝度差特徴量を用いて、エラー判定マップを生成する。
具体的には、判定部26は、視差両方向特徴量としてのブロック両方向判定マップ、輝度差特徴量としてのブロック輝度差マップ、並びに平坦度特徴量としての左眼入力画像Lのブロック平坦度判定マップ、および右眼入力画像Rのブロック平坦度判定マップの同じ位置にある画素を、処理対象画素として選択する。
なお、ブロック両方向判定マップ、ブロック輝度差マップ、およびブロック平坦度判定マップの生成時において、両方向判定マップ、輝度差マップ、および平坦度判定マップは、同じ位置関係で同じ大きさのブロックに分割されるものとする。したがって、処理対象画素とされる各画素の画素値は、各マップの対応するブロックについての平坦度や輝度差等を示す値とされる。
判定部26は、ブロック両方向判定マップ、ブロック輝度差マップ、およびブロック平坦度判定マップの各処理対象画素が、以下の第1条件、または第2条件の何れかを満足するか否かを判定する。そして、判定部26は、処理対象画素が第1条件または第2条件の何れかを満たす場合、その処理対象画素に対応する入力画像の領域(ブロック)は、立体表示に適さない領域であるとする。
ここで、第1条件が満たされるとは、次式(1)乃至式(3)が成立することである。
lum_diff(i)>thl ・・・(1)
flatL(i)>thfかつflatR(i)<thf
または
flatL(i)<thfかつflatR(i)>thf
・・・(2)
または
flatL(i)<thfかつflatR(i)>thf
・・・(2)
bidir(i)<thb ・・・(3)
なお、式(1)において、lum_diff(i)は、ブロック輝度差マップの処理対象画素の画素値を示しており、thlは予め定められた閾値を示している。
また、式(2)において、flatL(i)およびflatR(i)は、それぞれ左眼入力画像Lおよび右眼入力画像Rのブロック平坦度判定マップの処理対象画素の画素値を示しており、thfは予め定められた閾値を示している。
さらに、式(3)において、bidir(i)は、ブロック両方向判定マップの処理対象画素の画素値を示しており、thbは予め定められた閾値を示している。
したがって、第1条件が満たされるとは、ブロック輝度差マップの処理対象画素の画素値が閾値thlより大きく、左眼入力画像Lまたは右眼入力画像Rの何れか一方のみのブロック平坦度判定マップの処理対象画素の画素値が閾値thfより大きく、ブロック両方向判定マップの処理対象画素の画素値が閾値thbより小さいことである。
ここで、処理対象画素の画素値bidir(i)が閾値thbより小さいとは、処理対象画素に対応する入力画像の領域では、左眼入力画像Lから見た右眼入力画像Rの視差の検出結果と、右眼入力画像Rから見た左眼入力画像Lの視差の検出結果とが一致しない画素が多いということである。つまり、処理対象画素に対応する入力画像の領域は、高い視差検出精度が得られない領域である。
したがって、上述した式(1)と式(3)が成立する場合、左眼入力画像Lと右眼入力画像Rにおける処理対象画素に対応する領域は、互いに異なる明るさで、かつ異なる被写体の画像が含まれている領域である可能性が高い。また、式(2)が成立する場合、処理対象画素に対応する左眼入力画像Lまたは右眼入力画像Rの何れか一方のみの領域が平坦な領域である。
そのため、第1条件が満たされる場合、処理対象画素に対応する入力画像の領域は、左眼入力画像Lと右眼入力画像Rが全く異なる画像である領域であるか、または左眼入力画像Lと右眼入力画像Rの何れか一方のみに撮影者の指や強い光等が写り込んでしまった領域である可能性が高い。つまり、第1条件が満たされる場合、処理対象画素に対応する入力画像の領域は、立体表示に適していない可能性が高い。
また、上述した第2条件が満たされるとは、式(1)および式(3)が成立し、かつ次式(4)が成立することである。
flatL(i)>thfかつflatR(i)>thf ・・・(4)
すなわち、第2条件が満たされるとは、ブロック輝度差マップの処理対象画素の画素値が閾値thlより大きく、左眼入力画像Lと右眼入力画像Rの両方のブロック平坦度判定マップの処理対象画素の画素値が閾値thfより大きく、ブロック両方向判定マップの処理対象画素の画素値が閾値thbより小さいことである。
ここで、両方のブロック平坦度判定マップの処理対象画素の画素値が閾値thfより大きいことは、左眼入力画像Lと右眼入力画像Rの処理対象画素に対応する領域が、ともに平坦な領域であることを示している。
したがって、第2条件が満たされる場合、処理対象画素に対応する入力画像の領域は、次の何れかである可能性が高い。すなわち、左眼入力画像Lと右眼入力画像Rが全く異なる画像である領域であるか、または左眼入力画像Lと右眼入力画像Rの両方に、撮影者の指や強い光等が写り込んでおり、互いに明るさの異なる領域である可能性が高い。これらの領域は、立体表示には適していない。
なお、左眼入力画像Lと右眼入力画像Rのほぼ同じ位置の領域に、同じ被写体の画像が表示されるが、それらの領域がともに平坦であるため、それらの領域間の視差が検出できない場合がある。この場合、入力画像が立体表示に適さないと判定されるべきではないが、そのような領域では少なくとも式(1)が成立しないため、第1条件も第2条件も満たされず、立体表示に不適切であると判定されることはない。
判定部26は、ブロック両方向判定マップ、ブロック輝度差マップ、およびブロック平坦度判定マップの画素ごとに、それらの画素が第1条件または第2条件の何れかを満足するか否かの判定を行なう。そして、判定部26は、それらの画素ごとの判定結果に基づいて、エラー判定マップを生成する。
具体的には、判定部26は、処理対象画素について、第1条件または第2条件の何れかが満たされる場合、その処理対象画素と同じ位置にあるエラー判定マップの画素の画素値を、立体表示に不適切であることを示す値「1」とする。また、判定部26は、処理対象画素について、第1条件および第2条件の何れも満たされない場合、その処理対象画素と同じ位置にあるエラー判定マップの画素の画素値を、立体表示に適切であることを示す値「0」とする。このようにして得られたエラー判定マップの画素の画素値は、その画素に対応する入力画像の領域が、立体表示に適しているか否かを示している。
ステップS17において、判定部26は、生成したエラー判定マップを用いて、入力画像に対するエラー判定を行い、入力画像が全体として立体表示に適した画像であるか否かを判定する。
例えば、判定部26は、エラー判定マップの各画素の画素値の総和を求め、求められた総和が予め定めた閾値以上である場合、入力画像が立体表示に適していないと判定する。エラー判定マップの画素の画素値は、その画素に対応する入力画像の領域が立体表示に適しているか否かを示しているので、エラー判定マップの各画素の画素値の総和は、入力画像全体における立体表示用の画像としての適切さの度合いを示している。つまり、画素値の総和が大きいほど、入力画像は立体表示には適していないことになる。
ステップS18において、判定部26は、視差分布特徴量生成部22から供給された視差分布特徴量に基づいて、入力画像に対するエラー判定を行なう。すなわち、入力画像が立体表示に適した画像であるか否かが判定される。
例えば、判定部26は、視差分布特徴量として供給されたヒストグラムに基づいて、入力画像における被写体の視差のレンジを求める。ここで、ヒストグラムは、入力画像における視差の範囲をビンとし、各ビンの頻度値を示すものである。つまり入力画像における視差の分布を示すものである。
判定部26は、ヒストグラムに示される視差の分布から、その分布全体の面積の2%の面積となる両端の裾野部分を除去し、裾野部分が除去された分布における視差の最小値から最大値までの範囲を、入力画像における被写体の視差のレンジとする。
すなわち、入力画像の全画素の集合から、視差が大きい上位2%の視差の画素と、視差が小さい下位2%の視差の画素とが除外され、それらの画素が除外された集合に属する画素の視差の最小値から最大値までの範囲が、視差のレンジとされる。
さらに、判定部26は、求めた視差のレンジが、予め定めた所定の視差の範囲内であるか否かを判定し、レンジが所定の視差の範囲内である場合、入力画像が立体表示に適した画像であるとする。すなわち、視差のレンジを構成する、視差の最大値と最小値とが、予め定めた所定の視差の範囲内の値である場合、入力画像が立体表示に適した画像であるとされる。
例えば、視差のレンジが所定の視差の範囲を超えてしまう場合、被写体ごとの視差に差がありすぎて、ユーザが入力画像を視聴すると疲れてしまうので、そのような入力画像は、立体表示に適さない画像であるとされる。
なお、予め定めた所定の視差の範囲は、ユーザが入力画像を快適に視聴できる視差の範囲とされ、この視差の範囲は、ユーザから表示部28の表示画面までの想定視聴距離や、表示部28の表示画面のサイズなどから予め求めておくことが可能である。
例えば、図5に示すように、入力画像が表示される表示部28の表示画面DS11から図中、横方向に視聴距離Lsだけ離れた位置で、ユーザが入力画像を視聴しているとする。また、ユーザの左右の眼は、それぞれ視点VLと視点VRに位置し、視点VLから視点VRまでの距離、つまりユーザの左右の眼の間隔はdeであるとする。
さらに、入力画像上で最も視差が大きい被写体が定位する位置、つまりその立体映像が生じる位置を示す点を点TAとし、その被写体の左眼入力画像Lと右眼入力画像Rのそれぞれにおける表示位置を点HALおよび点HARとする。また、視点VLおよび点TAを結ぶ直線と、視点VRおよび点TAを結ぶ直線とがなす角を視差角αmaxとする。
同様に、入力画像上で最も視差が小さい被写体が定位する位置を示す点を点TIとし、その被写体の左眼入力画像Lと右眼入力画像Rのそれぞれにおける表示位置を点HILおよび点HIRとする。また、視点VLおよび点TIを結ぶ直線と、視点VRおよび点TIを結ぶ直線とがなす角を視差角αminとする。
さらに以下では、入力画像上の任意の被写体について、その被写体の視差角をαとし、被写体の定位位置から視点VL(または視点VR)までの図中、横方向の距離をLdとする。例えば、被写体の定位位置が点TAであれば、視差角αはαmaxである。
図5に示す視聴条件で、ユーザが表示画面DS11上の入力画像を視聴する場合、一般的にユーザが快適に入力画像を視聴するには、以下の式(5)が成立する必要がある。
|α−β|≦1°=(Π/180) ・・・(5)
すなわち、入力画像上の各被写体の視差角αが、β−(Π/180)≦α≦β+(Π/180)を満足する必要がある。この式(5)から、視差角αminがβ−(Π/180)であり、視差角αmaxがβ+(Π/180)であることが分かる。
また、式(5)が成立するための、ユーザから被写体の定位位置までの距離Ldの範囲は、次のようにして求めることができる。
すなわち、ユーザから被写体の定位位置までの距離Ldは、視差角αとユーザの左右の眼の距離deとの関係から次式(6)により求まる。
Ld=de/2tan(α/2) ・・・(6)
この式(6)から、次式(7)が成立すれば、ユーザが快適に入力画像を視聴することができることが分かる。
de/2tan(αmax/2)≦Ld≦de/2tan(αmin/2)
・・・(7)
・・・(7)
ここで、視差角αmin=β−(Π/180)であり、視差角αmax=β+(Π/180)である。また、これらの視差角αを求めるのに必要となる見込み角βは、視聴距離Lsとユーザの左右の眼の距離deとから求まる。すなわち、図5において、視聴距離Lsと見込み角βの関係から次式(8)が成立するので、この式(8)を変形して式(9)とすれば見込み角βが求まる。
(de/2)/Ls=tan(β/2) ・・・(8)
β=2tan−1(de/2Ls) ・・・(9)
このように、ユーザが快適に入力画像を視聴することができるような、ユーザから被写体の定位位置までの距離Ldが分かれば、この距離Ldから、ユーザが快適に入力画像を視聴することができる被写体の視差の範囲が求まる。
例えば、表示部28が46V型の表示装置であり、視聴距離Lsが1.7mである場合、ユーザから各被写体の定位位置までの距離Ldが0.5mから1.5mの範囲内であれば、ユーザは快適に入力画像を視聴することができる。この距離Ldの範囲を視差に置き換えると−56画素から55画素程度の範囲となる。
図2のフローチャートの説明に戻り、ステップS18において、視差分布特徴量に基づいて、入力画像が立体表示に適した画像であるか否かが判定されると、処理はステップS19に進む。
ステップS19において、判定部26は、ステップS17で行なわれたエラー判定マップを用いた判定の結果と、ステップS18で行なわれた視差分布特徴量に基づく判定の結果とから、入力画像が立体表示に適した画像であるか否かの最終的な判定を行なう。そして判定部26は、入力画像が立体表示に適した画像であるか否かの最終的な判定結果を、画像処理部27に供給する。
具体的には、判定部26は、エラー判定マップを用いた判定の結果と、視差分布特徴量に基づく判定の結果との両方が、立体表示に適した画像である旨の判定結果である場合、入力画像が立体表示に適した画像であると判定する。したがって、エラー判定マップを用いた判定の結果と、視差分布特徴量に基づく判定の結果との少なくとも一方が、立体表示に適した画像でない旨の判定結果である場合、入力画像は立体表示に適した画像でないと判定される。
ステップS20において、画像処理部27は、判定部26からの判定結果が、入力画像が立体表示に適した画像である旨の判定結果であるか否かを判定する。
ステップS20において、立体表示に適した画像である旨の判定結果でないと判定された場合、ステップS21において、画像処理部27は、表示部28に再生しようとする入力画像は立体表示に適していない旨のアラートを表示させる。
そしてステップS22において、画像処理部27は、ユーザの指示に応じた表示を行い、立体表示処理は終了する。
例えば、表示部28にアラートが表示されたときに、ユーザが画像処理装置11を操作して、入力画像の再生の中止を指示した場合、画像処理部27は入力画像を表示部28に表示させない。また、例えばアラートが表示されたときに、ユーザが画像処理装置11を操作して、入力画像をそのまま表示するように指示した場合、画像処理部27は、入力された入力画像をそのまま表示部28に供給し、立体表示させる。
さらに例えば、画像処理部27が、ユーザの指示に応じて、入力された入力画像を構成する、左眼入力画像Lまたは右眼入力画像Rの一方のみを表示部28に供給して、表示させるようにしてもよい。ここで、左眼入力画像Lと右眼入力画像Rの何れを表示させるかは、例えばブロック平坦度判定マップに基づいて、定められるようにしてもよい。
具体的には、左眼入力画像Lのブロック平坦度判定マップの各画素の画素値の総和が、右眼入力画像Rのブロック平坦度判定マップの各画素の画素値の総和よりも小さい場合、左眼入力画像Lがより平坦でないので、左眼入力画像Lが表示部28に表示される。これは、入力画像を構成する一対の画像のうち、より平坦な方の画像には、撮影者の指などが含まれている可能性が高いので、平坦でない画像の方が、より表示に適しているからである。なお、このような場合、画像処理部27は、判定部26から供給されるブロック平坦度判定マップを用いて、左眼入力画像Lと右眼入力画像Rの何れを表示させるかを決定する。
また、画像処理部27が、ユーザの指示に応じて、左眼入力画像Lまたは右眼入力画像Rの一方のみを用いた2D/3D変換により、立体表示用の一対の入力画像を生成して表示部28に供給し、表示させるようにしてもよい。
具体的には、左眼入力画像Lまたは右眼入力画像Rのうち、より平坦でない方の画像、すなわちブロック平坦度判定マップの各画素の画素値の総和がより小さい画像が選択される。例えば、左眼入力画像Lが選択されたとすると、画像処理部27は、左眼入力画像Lを左眼用の画像とするとともに、左眼入力画像Lを所定の距離だけシフトさせた画像を、新たな右眼入力画像Rとして生成する。そして、画像処理部27は、左眼入力画像Lと新たに生成した右眼入力画像Rとからなる入力画像を表示部28に供給し、立体表示させる。
なお、左眼入力画像Lと右眼入力画像Rのうち、より表示に適した画像の特定方法の一例として、ブロック平坦度判定マップを用いる場合について説明したが、その他、両方向判定マップHMLと両方向判定マップHMRを用いて、より表示に適した画像を特定するようにしてもよい。
また、左眼入力画像Lを基準として生成されたエラー判定マップと、右眼入力画像Rを基準として生成されたエラー判定マップとが用いられて、より表示に適した画像が特定されるようにしてもよい。この場合、例えば、左眼入力画像Lと右眼入力画像Rのうち、エラー判定マップの各画素の画素値の総和がより小さい方の画像が、より表示に適した画像として選択される。
これに対して、ステップS20において、立体表示に適した画像である旨の判定結果であると判定された場合、ステップS23において、画像処理部27は、入力された入力画像を表示部28に供給して、立体表示させ、立体表示処理は終了する。
以上のようにして、画像処理装置11は、入力画像から視差両方向特徴量、平坦度特徴量、輝度差特徴量、および視差分布特徴量を抽出し、それらの特徴量が所定の条件を満たすか否かにより、入力画像が立体表示に適した画像であるかを判定する。このように、入力画像から抽出した特徴量を用いて、入力画像が立体表示に適しているかを判定することで、立体表示に適さない画像を精度よく検出することができる。
また、入力画像が立体表示に適していない場合にはアラートを表示して、ユーザの指示に応じた表示を行なうことで、ユーザが立体表示に適さない映像を視聴する機会を減らし、ユーザの眼の疲労や不快感を軽減させることができる。
〈第2の実施の形態〉
[立体表示処理の説明]
なお、以上においては、特徴量ごとに閾値判定を行うことで、各特徴量が所定の条件を満たすか否かを判定し、その判定結果から入力画像が立体表示に適しているかを判定すると説明したが、各特徴量からなるベクトルを用いて、特徴量が所定の条件を満たすか否かを判定するようにしてもよい。
[立体表示処理の説明]
なお、以上においては、特徴量ごとに閾値判定を行うことで、各特徴量が所定の条件を満たすか否かを判定し、その判定結果から入力画像が立体表示に適しているかを判定すると説明したが、各特徴量からなるベクトルを用いて、特徴量が所定の条件を満たすか否かを判定するようにしてもよい。
そのような場合、例えば立体表示に適している画像と、立体表示に適していない画像とが、サンプル画像として複数用意され、それらのサンプル画像が複数のブロックに分割されるとともに、各ブロックの特徴ベクトルが求められる。
ここで、特徴ベクトルとは、サンプル画像について求められた、ブロック両方向判定マップ、ブロック輝度差マップ、左眼入力画像Lのブロック平坦度判定マップ、および右眼入力画像Rのブロック平坦度判定マップの処理対象のブロックに対応する画素の画素値を並べて得られるベクトルである。つまり、各マップの同じ位置の画素の画素値を要素とする4次元のベクトルである。また、より詳細には、サンプル画像のブロックごとに、そのブロックが立体表示に適しているか否かのラベル付けが予めなされている。
このようにして、複数のサンプル画像の各ブロックの特徴ベクトルが求められると、それらの特徴ベクトルに対してクラスタリングが行なわれる。すなわち、複数の特徴ベクトルが、立体表示に適したブロックの特徴ベクトルからなるクラスタと、立体表示に適さないブロックの特徴ベクトルからなるクラスタとに分けられる。そして、それらの2つのクラスタについて、クラスタに属す特徴ベクトルの代表値が求められる。例えば、代表値は、クラスタに属す特徴ベクトルの重心値などとされる。
判定部26には、以上のようにして求められた、立体表示に適したブロックの特徴ベクトルからなるクラスタの代表値(以下、正解代表値と称する)と、立体表示に適していないブロックの特徴ベクトルからなるクラスタの代表値(以下、エラー代表値と称する)とが予め記録されている。そして、判定対象の入力画像のブロックの特徴ベクトルが、正解代表値とエラー代表値の何れに近いかにより、立体表示に適しているか否かが判定される。
以上のように、正解代表値とエラー代表値とを用いた判定が行なわれる場合、画像処理装置11は、図6に示す立体表示処理を行う。以下、図6のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。
なお、ステップS51乃至ステップS55の処理は、図2のステップS11乃至ステップS15の処理と同様であるので、その説明は省略する。
ステップS55の処理が行われると、判定部26には、視差両方向特徴量、輝度差特徴量、および平坦度特徴量が供給される。換言すれば、ブロック両方向判定マップ、ブロック輝度差マップ、左眼入力画像Lのブロック平坦度判定マップ、および右眼入力画像Rのブロック平坦度判定マップが供給される。
ステップS56において、判定部26は、視差両方向特徴量、平坦度特徴量、および輝度差特徴量から得られる特徴ベクトルを用いて、エラー判定マップを生成する。
例えば判定部26は、ブロック両方向判定マップ、ブロック輝度差マップ、左眼入力画像Lのブロック平坦度判定マップ、および右眼入力画像Rのブロック平坦度判定マップの同じ位置にある画素を処理対象画素とし、処理対象画素の画素値を並べて特徴ベクトルとする。そして、判定部26は、予め記録している正解代表値およびエラー代表値のそれぞれと、特徴ベクトルとのユークリッド距離を求める。
さらに、判定部26は、処理対象画素の特徴ベクトルと正解代表値との距離が、特徴ベクトルとエラー代表値との距離よりも短い場合、その処理対象画素に対応する入力画像の領域は、立体表示に適しているとする。逆に、判定部26は処理対象画素の特徴ベクトルと正解代表値との距離よりも、特徴ベクトルとエラー代表値との距離が短い場合、その処理対象画素に対応する入力画像の領域は、立体表示に適していないとする。
判定部26は、ブロック両方向判定マップ、ブロック輝度差マップ、およびブロック平坦度判定マップの画素ごとに、それらの画素に対応する入力画像の領域が、立体表示に適しているか否かの判定を行なう。そして、判定部26は、それらの画素ごとの判定結果に基づいて、エラー判定マップを生成する。
具体的には、判定部26は、処理対象画素について、特徴ベクトルがエラー代表値よりも正解代表値との距離がより短い場合、その処理対象画素と同じ位置にあるエラー判定マップの画素の画素値を、立体表示に適切であることを示す値「0」とする。また、判定部26は、処理対象画素について、特徴ベクトルが正解代表値よりもエラー代表値との距離がより短い場合、その処理対象画素と同じ位置にあるエラー判定マップの画素の画素値を、立体表示に不適切であることを示す値「1」とする。
ステップS57において、判定部26は、生成したエラー判定マップを用いて、入力画像に対するエラー判定を行い、入力画像が全体として立体表示に適した画像であるか否かを判定する。
例えば、判定部26は、エラー判定マップの各画素の画素値の総和を求め、求められた総和が予め定めた閾値以上である場合、入力画像が立体表示に適していないと判定する。エラー判定マップの画素の画素値は、その画素に対応する入力画像の領域が立体表示に適しているか否かを示しているので、エラー判定マップの各画素の画素値の総和は、入力画像全体における立体表示用の画像としての適切さの度合いを示している。つまり、画素値の総和が大きいほど、入力画像は立体表示には適していないことになる。
入力画像全体に対するエラー判定が行われると、その後、ステップS58乃至ステップS63の処理が行われて立体表示処理は終了するが、これらの処理は図2のステップS18乃至ステップS23の処理と同様であるので、その説明は省略する。
このようにして、画像処理装置11は、特徴ベクトルと、正解代表値およびエラー代表値との距離に基づいて、入力画像の各領域が立体表示に適しているか否かを判定する。このように、特徴ベクトルと、正解代表値およびエラー代表値との比較により立体表示に適しているか否かの判定を行なうことで、より簡単かつ迅速に判定処理を行うことができる。
〈変形例1〉
[立体表示処理の説明]
なお、以上においては、入力画像が立体表示に適していない場合にはアラートが表示されると説明したが、アラートが表示されずに、入力画像が視聴に適した画像となるように適宜、信号処理され、その結果得られた画像が表示されるようにしてもよい。
[立体表示処理の説明]
なお、以上においては、入力画像が立体表示に適していない場合にはアラートが表示されると説明したが、アラートが表示されずに、入力画像が視聴に適した画像となるように適宜、信号処理され、その結果得られた画像が表示されるようにしてもよい。
例えば、入力画像が立体表示に適していないと判定された場合、3次元の画像ではなく、2次元の画像が表示されるようにしてもよい。そのような場合、例えば、図7に示す立体表示処理が行われる。
以下、図7のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。なお、ステップS91乃至ステップS100の処理は、図2のステップS11乃至ステップS20の処理と同様であるので、その説明は省略する。
但し、ステップS99において、判定部26から画像処理部27に、立体表示に適した画像でない旨の判定結果が供給される場合には、その判定結果とともにブロック平坦度判定マップも供給されるものとする。
ステップS100において、入力画像が立体表示に適していない画像であると判定された場合、ステップS101において、画像処理部27は、入力された入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの一方を表示部28に供給し、2次元表示させる。表示部28は、画像処理部27から供給された画像を2次元表示して、立体表示処理は終了する。すなわち、2次元の入力画像が表示部28に表示される。
例えば、ステップS100において、立体表示に適していないと判定された場合、画像処理部27は、左眼入力画像Lと右眼入力画像Rのうち、ブロック平坦度判定マップの各画素の画素値の総和がより小さい画像を、より平坦でない画像として特定する。
そして、画像処理部27は、入力された左眼入力画像Lと右眼入力画像Rのうち、より平坦でない方の画像を、表示部28に供給して表示させる。上述したように、左眼入力画像Lと右眼入力画像Rのうち、より平坦な方の画像には、撮影者の指などが写り込んでいる可能性があるので、より平坦でない方の画像を表示部28に表示させたほうが、より見映えのよい画像を提示することができる。
なお、左眼入力画像Lと右眼入力画像Rのうちの何れを表示させるかは、ブロック平坦度判定マップではなく、両方向判定マップやエラー判定マップが用いられて、選択されるようにしてもよい。
これに対して、ステップS100において、入力画像が立体表示に適していると判定された場合、ステップS102において、画像処理部27は、入力された入力画像を表示部28に供給して立体表示させ、立体表示処理は終了する。
このようにして、画像処理装置11は、入力画像が立体表示に適していないと判定された場合、入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの何れか一方を、2次元表示する。これにより、ユーザに入力画像を提示しつつ、立体表示に適さない画像を表示することにより生じるユーザの眼の疲労を防止することができる。
〈変形例2〉
[立体表示処理の説明]
また、入力画像が立体表示に適していないと判定された場合に、入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの一方から、互いに視差を有する一対の画像が生成され、立体表示されるようにしてもよい。そのような場合、図8に示す立体表示処理が行われる。
[立体表示処理の説明]
また、入力画像が立体表示に適していないと判定された場合に、入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの一方から、互いに視差を有する一対の画像が生成され、立体表示されるようにしてもよい。そのような場合、図8に示す立体表示処理が行われる。
以下、図8のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。なお、ステップS131乃至ステップS140の処理は、図2のステップS11乃至ステップS20の処理と同様であるので、その説明は省略する。
但し、ステップS139において、判定部26から画像処理部27に、立体表示に適した画像でない旨の判定結果が供給される場合には、その判定結果とともにブロック平坦度判定マップも供給されるものとする。
ステップS140において、入力画像が立体表示に適していない画像であると判定された場合、ステップS141において、画像処理部27は、入力された入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの一方を用いて、立体表示用の画像を生成する。
すなわち、画像処理部27は、左眼入力画像Lと右眼入力画像Rのうち、ブロック平坦度判定マップの各画素の画素値の総和がより小さい画像を、より平坦でない画像として特定する。そして、画像処理部27は、入力された左眼入力画像Lと右眼入力画像Rのうち、より平坦でない方の画像を用いて、互いに視差を有する一対の画像を生成する。
例えば、より平坦でない方の画像が左眼入力画像Lであったとすると、画像処理部27は、左眼入力画像Lを左眼用の画像とするとともに、左眼入力画像Lを所定方向に所定距離だけシフトさせた画像を、新たな右眼入力画像Rとして生成する。そして、画像処理部27は、左眼入力画像Lと新たに生成した右眼入力画像Rとからなる入力画像を表示部28に供給する。
なお、左眼入力画像Lと右眼入力画像Rのうちのどちらを立体表示用の画像の生成に用いるかは、ブロック平坦度判定マップではなく、両方向判定マップやエラー判定マップが用いられて定められるようにしてもよい。
ステップS142において、表示部28は、画像処理部27から供給された左眼入力画像Lと右眼入力画像Rに基づいて、入力画像を立体表示し、立体表示処理は終了する。
これに対して、ステップS140において、入力画像が立体表示に適していると判定された場合、ステップS143において、画像処理部27は、入力された入力画像を表示部28に供給して立体表示させ、立体表示処理は終了する。
このようにして、画像処理装置11は、入力画像が立体表示に適していないと判定された場合、入力画像を構成する左眼入力画像Lと右眼入力画像Rのうちの一方を用いて、他方の画像を新たに生成し、得られた一対の画像に基づいて入力画像を立体表示する。これにより、より立体表示に適した画像を表示させることができ、ユーザの眼の疲労を軽減させることができる。
〈変形例3〉
[立体表示処理の説明]
また、入力画像が立体表示に適していないと判定された場合に、適宜、入力画像の視差調整を行い、視差調整後の入力画像を立体表示させるようにしてもよい。そのような場合、図9に示す立体表示処理が行われる。
[立体表示処理の説明]
また、入力画像が立体表示に適していないと判定された場合に、適宜、入力画像の視差調整を行い、視差調整後の入力画像を立体表示させるようにしてもよい。そのような場合、図9に示す立体表示処理が行われる。
以下、図9のフローチャートを参照して、画像処理装置11による立体表示処理について説明する。なお、ステップS171乃至ステップS180の処理は、図2のステップS11乃至ステップS20の処理と同様であるので、その説明は省略する。
但し、ステップS179において、判定部26から画像処理部27に、立体表示に適した画像でない旨の判定結果が供給される場合には、その判定結果とともに視差分布特徴量も供給されるものとする。
ステップS180において、入力画像が立体表示に適していない画像であると判定された場合、ステップS181において、画像処理部27は、視差分布特徴量に基づいて、入力画像の視差の補正が可能であるか否かを判定する。
例えば、画像処理部27は、ステップS178の処理で得られた入力画像における被写体の視差のレンジが、予め定められた、補正が可能な視差の範囲内であるか否かを判定し、レンジが所定の視差の範囲内である場合、視差の補正が可能であると判定する。ここで、視差の補正が可能な視差の範囲は、ステップS178において判定に用いられる、立体表示に適した視差の範囲を含む範囲とされる。
ステップS181において、視差の補正が可能でないと判定された場合、ステップS182において、表示部28はエラー表示を行なって立体表示処理は終了する。例えば、画像処理部27は、入力画像が立体表示できない旨のメッセージを表示部28に表示させる。
これに対して、ステップS181において、視差の補正が可能であると判定された場合、ステップS183において、画像処理部27は、入力された左眼入力画像Lと右眼入力画像Rのうちの一方を所定方向に所定距離だけシフトさせて、入力画像の視差を補正する。例えば、視差の補正は、補正後の入力画像の視差のレンジが、予め定めた立体表示に適した視差の範囲内となるように行なわれる。
そして、ステップS184において、画像処理部27は、視差が補正された入力画像を表示部28に供給して立体表示させ、立体表示処理は終了する。
また、ステップS180において、入力画像が立体表示に適していると判定された場合、ステップS185において、画像処理部27は、入力された入力画像を表示部28に供給して立体表示させ、立体表示処理は終了する。
このようにして、画像処理装置11は、必要に応じて入力画像の視差を補正し、補正後の入力画像を立体表示する。これにより、より適切な視差の画像を表示させることができ、ユーザの眼の疲労を軽減させることができる。
なお、以上においては、入力画像が静止画像である場合を例として説明したが、入力画像が動画像である場合も、上述した処理と同様の処理により、再生対象の入力画像が立体表示に適しているか否かを判定することができる。
例えば、入力画像が動画像である場合、複数フレームからなる区間ごとに立体表示に適しているか否かの判定を行なうことができる。すなわち、注目する区間の各フレームについて、そのフレームが立体表示に適しているか否かが判定され、所定数以上のフレームが立体表示に適していないと判定された場合に、その区間は立体表示に適していないとされる。例えば、1つのフレームでも立体表示に適していないと判定されれば、区間全体として立体表示に適していないとされてもよいし、半分以上のフレームが立体表示に適していないと判定された場合に、区間全体として立体表示に適していないとされてもよい。
さらに、入力画像が動画像である場合に、動画像を構成する全フレームに対して立体表示に適しているか否かの判定を行い、それらの判定結果に基づいて、最終的に入力画像が立体表示に適しているか否かが判定されてもよい。また、入力画像の最初の数フレームが用いられて、立体表示に適しているか否かが判定されてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記録部208、ネットワークインターフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 21 視差検出部, 22 視差分布特徴量生成部, 23 視差両方向特徴量生成部, 24 平坦度特徴量生成部, 25 輝度差特徴量生成部, 26 判定部, 27 画像処理部, 28 表示部
Claims (9)
- 左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差を検出する視差検出手段と、
前記視差の検出結果を用いて、所定の特徴量を生成する第1の特徴量生成手段と、
前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する判定手段と
を備える画像処理装置。 - 前記第1の特徴量生成手段は、前記入力画像の各領域における前記視差の検出の確からしさを示す視差両方向特徴量を前記特徴量として生成する
請求項1に記載の画像処理装置。 - 前記入力画像に基づいて、前記入力画像の各領域の画素の画素値の平坦さの度合いを示す平坦度特徴量を生成する第2の特徴量生成手段をさらに備え、
前記判定手段は、前記視差両方向特徴量および前記平坦度特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する
請求項2に記載の画像処理装置。 - 前記判定手段は、前記入力画像の領域ごとに、前記視差両方向特徴量および前記平坦度特徴量が所定の条件を満たすか否かを判定し、前記領域ごとの判定結果に基づいて、前記入力画像が立体表示に適した画像であるか否かを判定する
請求項3に記載の画像処理装置。 - 前記左眼入力画像と前記右眼入力画像の各領域における輝度値の差を示す輝度差特徴量を生成する第2の特徴量生成手段をさらに備え、
前記判定手段は、前記視差両方向特徴量および前記輝度差特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する
請求項2に記載の画像処理装置。 - 前記視差検出手段は、前記左眼入力画像の各画素の前記右眼入力画像との視差を示す左眼視差マップと、前記右眼入力画像の各画素の前記左眼入力画像との視差を示す右眼視差マップとを前記視差の検出結果として生成し、
前記第1の特徴量生成手段は、前記左眼視差マップと前記右眼視差マップのうちの一方のマップ上の画素を注目画素として、前記注目画素の位置と前記注目画素により示される視差により特定される、前記注目画素に対応する他方のマップの画素を特定画素として特定するとともに、前記特定画素の位置と前記特定画素により示される視差により特定される、前記特定画素に対応する前記一方のマップの画素が、前記注目画素と一致するか否かを判定し、その判定結果に基づいて前記視差両方向特徴量を生成する
請求項2に記載の画像処理装置。 - 前記視差の検出結果を用いて、前記入力画像における各被写体の視差の分布を示す視差分布特徴量を生成する第2の特徴量生成手段をさらに備え、
前記判定手段は、前記視差分布特徴量に基づいて、前記入力画像の視差のレンジが予め定めた視差の範囲内にあるか否かを判定することで、前記入力画像が立体表示に適しているか否かをさらに判定し、前記視差分布特徴量に基づく判定結果と、前記視差両方向特徴量に基づく判定結果とを用いて、前記入力画像が立体表示に適した画像であるか否かの最終的な判定を行なう
請求項2に記載の画像処理装置。 - 左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差を検出する視差検出手段と、
前記視差の検出結果を用いて、所定の特徴量を生成する特徴量生成手段と、
前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する判定手段と
を備える画像処理装置の画像処理方法であって、
前記視差検出手段が前記視差を検出し、
前記特徴量生成手段が前記特徴量を生成し、
前記判定手段が前記特徴量に基づいて、前記入力画像が立体表示に適した画像であるか否かを判定する
ステップを含む画像処理方法。 - 左眼入力画像と右眼入力画像とからなる立体表示用の入力画像に基づいて、前記左眼入力画像と前記右眼入力画像の視差を検出し、
前記視差の検出結果を用いて、所定の特徴量を生成し、
前記特徴量が所定の条件を満たすか否かを判定することで、前記入力画像が立体表示に適した画像であるか否かを判定する
ステップを含む処理をコンピュータに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182770A JP2012044383A (ja) | 2010-08-18 | 2010-08-18 | 画像処理装置および方法、並びにプログラム |
US13/197,457 US20120044246A1 (en) | 2010-08-18 | 2011-08-03 | Image Processing Device, Method, and Program |
CN201110235799.9A CN102378029B (zh) | 2010-08-18 | 2011-08-11 | 图像处理装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182770A JP2012044383A (ja) | 2010-08-18 | 2010-08-18 | 画像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012044383A true JP2012044383A (ja) | 2012-03-01 |
Family
ID=45593694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010182770A Withdrawn JP2012044383A (ja) | 2010-08-18 | 2010-08-18 | 画像処理装置および方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120044246A1 (ja) |
JP (1) | JP2012044383A (ja) |
CN (1) | CN102378029B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015115502A1 (ja) | 2014-01-29 | 2015-08-06 | 独立行政法人科学技術振興機構 | 含水状態の生物試料の電子顕微鏡観察用保護剤、電子顕微鏡観察用キット、電子顕微鏡による観察、診断、評価、定量の方法並びに試料台 |
JPWO2014148031A1 (ja) * | 2013-03-19 | 2017-02-16 | パナソニックIpマネジメント株式会社 | 画像生成装置、撮像装置および画像生成方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5817639B2 (ja) * | 2012-05-15 | 2015-11-18 | ソニー株式会社 | 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置 |
US9628770B2 (en) | 2012-06-14 | 2017-04-18 | Blackberry Limited | System and method for stereoscopic 3-D rendering |
EP2675172B1 (en) * | 2012-06-14 | 2020-06-10 | BlackBerry Limited | System and method for stereoscopic 3-d rendering |
JP2015154101A (ja) * | 2014-02-10 | 2015-08-24 | ソニー株式会社 | 画像処理方法、画像処理装置及び電子機器 |
CN104883577B (zh) * | 2015-05-26 | 2018-04-27 | 吉林大学 | 一种基于视差变化连续性调节的立体视频舒适度增强方法 |
US10748244B2 (en) * | 2017-06-09 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for stereo content detection |
CN108347594A (zh) * | 2018-03-09 | 2018-07-31 | 京东方科技集团股份有限公司 | 3d眼镜、显示服务器、显示器、显示系统及其工作方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6215898B1 (en) * | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
EP1617684A4 (en) * | 2003-04-17 | 2009-06-03 | Sharp Kk | THREE-DIMENSIONAL IMAGE CREATION DEVICE, THREE-DIMENSIONAL IMAGE REPRODUCING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME |
JP4490074B2 (ja) * | 2003-04-17 | 2010-06-23 | ソニー株式会社 | 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム |
US7839378B2 (en) * | 2004-08-17 | 2010-11-23 | Koninklijke Philips Electronics N.V. | Detection of view mode |
KR101185870B1 (ko) * | 2005-10-12 | 2012-09-25 | 삼성전자주식회사 | 3d 입체 영상 처리 장치 및 방법 |
KR101345303B1 (ko) * | 2007-03-29 | 2013-12-27 | 삼성전자주식회사 | 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치 |
-
2010
- 2010-08-18 JP JP2010182770A patent/JP2012044383A/ja not_active Withdrawn
-
2011
- 2011-08-03 US US13/197,457 patent/US20120044246A1/en not_active Abandoned
- 2011-08-11 CN CN201110235799.9A patent/CN102378029B/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014148031A1 (ja) * | 2013-03-19 | 2017-02-16 | パナソニックIpマネジメント株式会社 | 画像生成装置、撮像装置および画像生成方法 |
WO2015115502A1 (ja) | 2014-01-29 | 2015-08-06 | 独立行政法人科学技術振興機構 | 含水状態の生物試料の電子顕微鏡観察用保護剤、電子顕微鏡観察用キット、電子顕微鏡による観察、診断、評価、定量の方法並びに試料台 |
Also Published As
Publication number | Publication date |
---|---|
US20120044246A1 (en) | 2012-02-23 |
CN102378029B (zh) | 2016-08-24 |
CN102378029A (zh) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012044383A (ja) | 画像処理装置および方法、並びにプログラム | |
EP2560398B1 (en) | Method and apparatus for correcting errors in stereo images | |
US9398289B2 (en) | Method and apparatus for converting an overlay area into a 3D image | |
US9710955B2 (en) | Image processing device, image processing method, and program for correcting depth image based on positional information | |
US20100073364A1 (en) | Conversion method and apparatus with depth map generation | |
JP2010169777A (ja) | 画像処理装置、画像処理方法およびプログラム | |
EP2728887B1 (en) | Image processing apparatus and image processing method thereof | |
US20110228057A1 (en) | Image Processing Apparatus, Image Conversion Method, and Program | |
US20140064517A1 (en) | Multimedia processing system and audio signal processing method | |
TWI712990B (zh) | 用於判定影像之深度圖之方法與裝置、及非暫時性電腦可讀取儲存媒體 | |
US20130293533A1 (en) | Image processing apparatus and image processing method | |
JP2013521686A (ja) | 3dtvのための視差分布推定 | |
KR20140103812A (ko) | 직접 반응 광고 검출 및 분류 시스템 및 방법 | |
JP2012015771A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
CN104185023A (zh) | 三维视频格式自动检测方法及装置 | |
US10109077B2 (en) | Image generation device and display device | |
JP2014072809A (ja) | 画像生成装置、画像生成方法、画像生成装置用プログラム | |
CN105959679B (zh) | 一种立体图像视觉舒适度和深度感联合优化方法 | |
JP2011239172A (ja) | 映像処理装置 | |
JPWO2012153378A1 (ja) | 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム | |
TWI825892B (zh) | 立體格式影像偵測方法與使用該方法的電子裝置 | |
US9215442B2 (en) | Devices and methods for 3-D image processing | |
JP5459231B2 (ja) | 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置 | |
JP5962125B2 (ja) | 表示装置、同期方法及びプログラム | |
CN106600573B (zh) | 一种图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131105 |