JP2012120057A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2012120057A JP2012120057A JP2010269784A JP2010269784A JP2012120057A JP 2012120057 A JP2012120057 A JP 2012120057A JP 2010269784 A JP2010269784 A JP 2010269784A JP 2010269784 A JP2010269784 A JP 2010269784A JP 2012120057 A JP2012120057 A JP 2012120057A
- Authority
- JP
- Japan
- Prior art keywords
- image
- signal
- eye
- input
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】簡易な信号処理により立体視可能な画像信号を生成し、かつ過度な高域強調を低減する。
【解決手段】入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号に対する輝度微分信号、あるいは輝度微分信号の非線形変換信号を入力画像信号に対して加算/減算した信号を左眼用画像と右眼用画像の信号とする。さらに入力画像信号あるいは生成した左/右眼用画像信号に対する低域通過フィルタによるフィルタリング処理を行う。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となり、特徴量として生成される微分信号に基づく過度な高域強調が低減された自然な画像を生成できる。
【選択図】図5
【解決手段】入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号に対する輝度微分信号、あるいは輝度微分信号の非線形変換信号を入力画像信号に対して加算/減算した信号を左眼用画像と右眼用画像の信号とする。さらに入力画像信号あるいは生成した左/右眼用画像信号に対する低域通過フィルタによるフィルタリング処理を行う。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となり、特徴量として生成される微分信号に基づく過度な高域強調が低減された自然な画像を生成できる。
【選択図】図5
Description
本発明は、画像処理装置、および画像処理方法、並びにプログラムに関し、特に2次元画像に対する画像変換を実行してステレオ視(立体視)に対応した両眼視差画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
2次元画像をステレオ視(立体視)に対応した両眼視差画像に変換する装置および方法について従来から様々な提案がなされている。2次元画像に基づいて生成された両眼視差画像は、左眼で観察する左眼用画像と右眼で観察する右眼用画像のペアによって構成される。これらの左眼用画像と右眼用画像のペアによって構成される両眼視差画像を、左眼用画像と右眼用画像をそれぞれ分離して観察者の左眼と右眼に提示することを可能とした表示装置に表示することで、観察者は画像を立体画像として知覚することができる。
このような画像の生成や表示処理に関して開示した従来技術には以下のようなものがある。
例えば、特許文献1は水平方向に動きがある動画像に対する画像処理構成を開示している。具体的には左眼用画像または右眼用画像の一方に原画像を出力し、他方にはフィールド単位で遅延させた画像を出力する構成である。このような画像出力制御により、水平に移動する物体を背景よりも手前に知覚させるものである。
例えば、特許文献1は水平方向に動きがある動画像に対する画像処理構成を開示している。具体的には左眼用画像または右眼用画像の一方に原画像を出力し、他方にはフィールド単位で遅延させた画像を出力する構成である。このような画像出力制御により、水平に移動する物体を背景よりも手前に知覚させるものである。
また、特許文献2は、静止画像や動きの少ない画像に対して、左眼用画像と右眼用画像を所定量だけ水平方向にずらすことにより、画像が浮き上がったように知覚させる装置を提案している。
また、特許文献3は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
また、特許文献3は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
また、特許文献4には、特許文献3と同様にして、画像の特徴量から算出される遅延量に基づいて、左眼用画像と右眼用画像の水平遅延量を変化させながら、水平遅延量に制限を与えることにより必要以上に網膜像差が生じないようにすることで眼の疲労度を防ぐ提案がなされている。
さらに、特許文献5には、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法が提案されている。
ところで、上記の従来技術には以下に示すような問題がある。
さらに、特許文献5には、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法が提案されている。
ところで、上記の従来技術には以下に示すような問題がある。
特許文献1に記載の画像変換装置では、水平方向に一定の速度で動く物体に対してのみ良好な立体視が可能である。複数の動被写体が写っているような画像や、複雑な動きが含まれる画像においては両眼視差が正しく設定されず、不自然な位置に物体が配置されたり、網膜像差が大きくなりすぎるために立体視が成立しなくなることが考えられる。
また、特許文献2に記載の画像変換装置では、静止画や動きの少ない画像に対しては、画面全体をずらすのみであり、画像中の物体の前後関係を表現することは出来ない。
また、特許文献2に記載の画像変換装置では、静止画や動きの少ない画像に対しては、画面全体をずらすのみであり、画像中の物体の前後関係を表現することは出来ない。
特許文献3、および特許文献4に記載の画像変換装置では、画像の特徴量から擬似的な奥行きを推定するが、推定は画面前方にある物体の先鋭度が高い、輝度が高い、彩度が高いなどの仮定に基づいており、必ずしも正しい推定が行われるとは限らない。このため、奥行き推定を誤った物体に対しては誤った網膜像差が与えられるため、誤った位置に配置されてしまう。
特許文献5に記載の画像変換装置は、画像の構造を比較的単純な有限の構造に当てはめる構成であり、不自然な奥行きが発生することは抑制される。しかしながら、上記の全ての従来手法に共通する問題であるが、生成された両眼視差画像には、比較的大きな網膜像差が発生する。この両眼視差画像は、立体表示装置を利用して立体表示されるが、一般的には偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式、または液晶シャッタにより時間的に左右分離するアクティブ眼鏡方式など、立体視用の特殊な眼鏡を装着して画像を観察する立体表示装置が利用される。
大きな網膜像差を与えられた両眼視差画像を見る場合、このような立体視用の眼鏡をかけた状態では網膜像差に従った立体感を知覚することが出来る。しかし、眼鏡をはずした状態で、画面をみると左右の画像が大きく重なった2重の画像が見えてしまい、通常の2次元画像として観察することはできない。つまり、これら従来の画像変換装置により変換された画像は、眼鏡をかけた状態でしか鑑賞することができなかった。
また、大きな網膜像差は、観察者の疲れにも影響すると考えられる。例えば特許文献6には、左眼と右眼の画像が大きくずれている場合には、現実世界での見え方に対して、輻輳角の制御と水晶体の調整に矛盾が生じ、この矛盾が両眼視差を用いた立体視における疲労に繋がっているとの記述がある。
また、特許文献3、特許文献4、および特許文献5に記載の画像変換装置では、画像から擬似的な奥行きを推定しているが、1枚の画像から詳細な奥行きを検出することは難しく、たとえば、樹木の枝や電線、髪の毛のような微細な構造に対する奥行きの推定を行うことは容易ではない。従って、これらの微細な被写体に立体感を持たせることはできなかった。
これらの課題を解決する構成として本出願人は、特許文献7(特開2010−63083)を出願した。この特許文献7は、入力画像に含まれる空間的な特徴量を抽出し、抽出した特徴量を用いた入力画像に対する変換処理により左眼用画像または右眼用画像を生成する構成を開示している。この特許文献7の構成においては、特徴量の抽出手段として微分器等のハイパスフィルタを用い、ハイパスフィルタを強くかけることで立体感の強調を実現している。
しかしながら、この特許文献7に開示した構成では、ハイパスフィルタに起因する高域強調が発生し画像が不自然となる場合があるという新たな課題が発生する。
しかしながら、この特許文献7に開示した構成では、ハイパスフィルタに起因する高域強調が発生し画像が不自然となる場合があるという新たな課題が発生する。
本発明は、例えば上記の問題を解決し、奥行き推定の誤りにより誤った立体感の発生を抑制し、左右の画像が合成された場合に原画像、または原画像に近い画像を復元可能とする。すなわち、立体視対応の眼鏡をはずした状態では通常の2次元画像として鑑賞することが可能であり、かつ観察者の疲労の少ない両眼視差画像の生成、提示を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することにある。
さらに、本発明は、立体感の強調の結果生じる、微分器等のハイパスフィルタに起因する高域強調を抑制し、より自然で、かつ観察者の疲労の少ない両眼視差画像の生成、提示を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することにある。
本発明の第1の側面は、
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成であり、
前記画像変換部は、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理装置にある。
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成であり、
前記画像変換部は、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成した画像を表示する画像表示部を有する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である。
さらに、本発明の第2の側面は、
画像処理装置における画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行い、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理方法にある。
画像処理装置における画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行い、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理方法にある。
さらに、本発明の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせ、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行させるプログラムにある。
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせ、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行させるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、簡易な信号処理により立体視可能な画像信号を生成し、かつ過度な高域強調を低減する構成が実現される。
具体的には、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号に対する輝度微分信号、あるいは輝度微分信号の非線形変換信号を入力画像信号に対して加算/減算した信号を左眼用画像と右眼用画像の信号とする。さらに入力画像信号あるいは生成した左/右眼用画像信号に対する低域通過フィルタによるフィルタリング処理を行う。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となり、特徴量として生成される微分信号に基づく過度な高域強調が低減された自然な画像を生成できる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
1.本発明の画像処理装置の第1実施例について
1−1.本発明の画像処理装置の構成と処理の概要
1−2.本発明の画像処理装置の生成する左右眼用画像の構成と出力例
1−3.本発明の画像処理装置の生成する左右眼用画像の網膜像差について
1−4.本発明の画像処理装置の画像変換部の処理シーケンスについて
2.本発明の画像処理装置のその他の実施例について
2−1.画像合成部の後段に低域通過フィルタを設定した実施例(実施例2)
2−2.微分器前段と、画像合成部の後段の双方に低域通過フィルタを設定した実施例(実施例3)
2−3.画像合成部の後段に画像縮小部を設定した実施例(実施例4)
3.画像表示部を持つ画像処理装置の構成例
1.本発明の画像処理装置の第1実施例について
1−1.本発明の画像処理装置の構成と処理の概要
1−2.本発明の画像処理装置の生成する左右眼用画像の構成と出力例
1−3.本発明の画像処理装置の生成する左右眼用画像の網膜像差について
1−4.本発明の画像処理装置の画像変換部の処理シーケンスについて
2.本発明の画像処理装置のその他の実施例について
2−1.画像合成部の後段に低域通過フィルタを設定した実施例(実施例2)
2−2.微分器前段と、画像合成部の後段の双方に低域通過フィルタを設定した実施例(実施例3)
2−3.画像合成部の後段に画像縮小部を設定した実施例(実施例4)
3.画像表示部を持つ画像処理装置の構成例
[1.本発明の画像処理装置の第1実施例について]
まず、図1以下を参照して本発明の画像処理装置の第1実施例について説明する。
まず、図1以下を参照して本発明の画像処理装置の第1実施例について説明する。
(1−1.本発明の画像処理装置の構成と処理の概要)
図1は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部2が対応していればどのような色空間でも構わない。
図1は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部2が対応していればどのような色空間でも構わない。
画像入力部110から出力されたビデオデータは、色空間変換部120に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータが画像変換部130の処理データに適合している場合、例えば、Y,Cb,Cr色空間に従う場合には、色空間変換部120は、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部120は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
なお、色空間変換部120から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、画像変換部130の処理データに適合し、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。例えば輝度信号(Y)と色差信号(U,V)を用いてもよい。
色空間変換部120から出力されたビデオデータは、画像変換部130に入力される。画像変換部130は、後述する処理によって左眼用と右眼用の両眼視差画像を生成し、立体表示装置の形式に従ってこれらの画像を合成して出力する。すなわち画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
画像変換部130から出力されたビデオデータは、色空間逆変換部140に入力され、Y,Cb,Cr色空間から出力画像フォーマットに従った色空間へ変換される。このとき、出力画像フォーマットがY,Cb,Cr色空間に従う場合には、色空間逆変換部140は、色空間の変換を行わずに出力する。このように図1には、色空間変換部120、色空間逆変換部140を有する構成を示しているが、これらの構成は、必須構成ではなく、省略した構成も可能である。
色空間逆変換部140から出力されたビデオデータは、画像出力部150に入力される。画像出力部150は、画像変換部130で変換された両眼視差画像を表示して立体視を実現することが可能な外部接続した立体表示装置において受信可能なビデオデータに変換して出力する。
なお、本実施例においては、静止画像を入力した場合、画像入力部110においてビデオデータに変換する方法を記載しているが、この方法に限らず、1枚の静止画像から2枚の左眼用画像と右眼用画像に変換し、2枚の静止画像として例えばメモリカードなどにファイル出力する構成にしても構わない。
図2は、画像入力部110の一実施例の構成を示すブロック図である。画像入力部110は、静止画像ファイルなどを入力するためのメモリカードインタフェース111、映像機器を直接接続するためのUSBインタフェース112、ビデオ信号を入力するためのビデオインタフェース113、フレームメモリ114、デコーダ115、ビデオ出力部116で構成されている。
画像入力部110における処理の一例として、静止画像を入力する場合の処理シーケンスに関して図3に示すフローチャートを参照して説明する。
ステップS101において、画像入力部110は、静止画像の入力を開始する。
ステップS102において、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS104に進み、メモリカードが挿入されていない場合にはステップ103に進む。
ステップS102において、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS104に進み、メモリカードが挿入されていない場合にはステップ103に進む。
ステップS103では、画像入力部110は、USBインタフェース112に静止画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS105に進み、USB機器が接続されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS104において、画像入力部110は、メモリカードに記録されている静止画像ファイルから画像データを読み込む。この際、メモリカード内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS105では、画像入力部110は、USBインタフェースに接続された外部機器から静止画像データを読み込む。このとき、外部機器内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS106では、画像入力部110は、ステップS104、またはステップS105において読み込まれた静止画像データをフレームメモリ114に記憶する。
ステップS107において、画像入力部110は、図示しない制御部によりフレームメモリ114から静止画像データを読み出す。このとき、読み出しアドレスはステップS106において記憶された画像データの先頭を示す。
ステップS108において、画像入力部110は、静止画像のデコード処理を行う。静止画像データは、JPEG(Joint Photographic Experts Group)などで規定されたフォーマットに従って画像圧縮されていることが一般的であるため、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドの画像データを復元する。
ステップS109では、画像入力部110は、デコードされた静止画像データをビデオデータの1フレームとして出力する。ここで、ビデオデータのフォーマットは、画像出力部150で出力されるフォーマットに従う。つまり、画像出力部150においてHD(High Definition)解像度、60フレーム毎秒のビデオデータとして出力される場合には、図示しない制御部においてHD解像度、60フレーム毎秒のビデオ同期信号を生成し、この信号の有効領域内に静止画像を貼り付けて出力する。
ステップS110では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像入力処理を終了する。画像出力処理が終了していない場合には、ステップS111に進む。
ステップS111において、画像入力部110は、フレームメモリ114の読み出しアドレスを初期化し、ステップS106で記憶した静止画像データの先頭を示すようにする。ステップS111のアドレス初期化が終了すると、ステップS107に進み、以降、ステップS107〜ステップS111の処理を繰り返す。
このようにして、画像入力部110は、静止画像が入力された場合には、同じ画像が連続したビデオデータへの変換を行う。
次に、画像入力部110における処理の一例として、動画像を入力する場合の処理シーケンスに関して図4に示すフローチャートを参照して説明する。
ステップS201において、画像入力部110は、動画像の入力を開始する。
ステップS202において、画像入力部110は、ビデオインタフェース113にビデオ信号が入力されているかを確認し、ビデオインタフェースから動画像データを入力するかどうかを判断する。ビデオ信号が入力されている場合にはステップS205に進み、ビデオ信号が入力されていない場合にはステップS203に進む。
ステップS202において、画像入力部110は、ビデオインタフェース113にビデオ信号が入力されているかを確認し、ビデオインタフェースから動画像データを入力するかどうかを判断する。ビデオ信号が入力されている場合にはステップS205に進み、ビデオ信号が入力されていない場合にはステップS203に進む。
ステップS203では、画像入力部は、USBインタフェース112に動画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から動画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS206に進み、USB機器が接続されていない場合にはステップS204に進む。
ステップS204では、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから動画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS207に進み、メモリカードが挿入されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS205において、画像入力部110は、ビデオインタフェース113からビデオデータを読み込む。ビデオインタフェース113は、DVI(Digital Video Interface)、HDMI(High−Definition Multimedia Interface)、HDSDI(High−Definition Serial Digital Interface)などのデジタルビデオ伝送方式で伝送されるビデオ信号や、NTSC(National Television Standards Committee)方式、コンポーネント方式などのアナログビデオ伝送方式で伝送されるビデオ信号が入力される。ビデオインタフェース113は、アナログビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換した後、図示しないA/D変換器によりデジタル信号に変換する。一方、デジタルビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換する。
ステップS206において、画像入力部110は、USBインタフェース112に接続された外部機器から動画像データを読み込む。このとき、外部機器内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ステップS207では、画像入力部1は、メモリカードに記録されている動画像ファイルから画像データを読み込む。この際、メモリカード内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ここで、USBインタフェース112を介して入力される動画像データや、メモリカードに記録されている動画像データは、MPEG(Moving Picture Experts Group)などで規定された動画像圧縮方式により圧縮されたストリームデータである。このような圧縮方式は、フレームメモリを用いたデコード処理を要するため、ステップS208では、これらのストリームデータをフレームメモリ114に記憶する。
ステップS209において、画像入力部1は、図示しない制御部によりフレームメモリ114から動画像データを読み出す。
ステップS210において、画像入力部110は、動画像のデコード処理を行う。前述の通り、フレームメモリ114に記憶されている動画像データは、MPEGなどで圧縮されたストリームデータであるので、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドのビデオデータを復元する。
ステップS211では、ビデオ出力部116は、ビデオインタフェース113から出力されるビデオデータ、または、デコーダ115から出力されるビデオデータのいずれかを内部データ形式によりビデオ出力する。
図5は、画像変換部130の一実施例の構成を示すブロック図である。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。画像変換部130は、低域通過フィルタ(LPF)131、微分器132、非線形変換部133、および画像合成部134から構成される。
なお、先に説明した本出願人の先の特許出願である特許文献7(特開2010−63083号公報)には、図5に示す画像変換部130の低域通過フィルタ(LPF)131を持たない画像変換部構成を開示している。本発明の画像変換部130は、その構成に低域通過フィルタ(LPF)131を追加した点が異なっている。
低域通過フィルタ(LPF)131は、画像変換部130に入力されたビデオデータから輝度信号を取り出し、LPFによるフィルタリング処理により輝度信号の高域成分を除去した信号を生成して微分器132に出力する。具体的には、例えば画像信号の輝度信号を水平方向に入力して低域通過フィルタ処理を行う。低域通過フィルタとしては例えば水平方向3TAPのFIRフィルタが適用可能である。
なお、低域通過フィルタ(LPF)131を追加することによる効果については後段で詳細に説明する。
なお、低域通過フィルタ(LPF)131を追加することによる効果については後段で詳細に説明する。
微分器132は、低域通過フィルタ(LPF)131の出力する高域成分の除去された輝度信号に対する微分信号を生成する。具体的には、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
非線形変換部133は、微分器132から出力される微分信号を非線形的に変換し、視差強調信号[enh]を生成して出力する。
図6は、非線形変換部133において実行する非線形変換処理の一例を示している。横軸が、微分器132からの入力信号であり輝度微分信号である。なお、ここでは低域通過フィルタ(LPF)131によるフィルタリング処理後の輝度微分信号である。
縦軸が、非線形変換部133における非線形変換処理後の出力を示している。非線形変換部133は、入力された微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号[enh](Out)を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
f(x)=xβ
上記式に示されるような指数関数を用いる。βは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部133における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
縦軸が、非線形変換部133における非線形変換処理後の出力を示している。非線形変換部133は、入力された微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号[enh](Out)を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
f(x)=xβ
上記式に示されるような指数関数を用いる。βは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部133における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部134は、非線形変換部133から出力される視差強調信号[enh]と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
なお、図5に点線で示すように、非線形変換部133の変換処理を省略し、微分器132の生成した微分信号を画像合成部134に直接入力して、画像合成部134が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。
画像合成部134は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号[enh]を適用して左眼用画像と、右眼用画像を生成する処理を行う。
図7〜図9を参照して、画像変換部130の実行する信号処理について具体的な信号の例を適用して説明する。
なお、先に説明したように本出願人の先の特許出願である特許文献7(特開2010−63083号公報)に記載の構成は、図5に示す画像変換部130の低域通過フィルタ(LPF)131を省略した構成である。
なお、先に説明したように本出願人の先の特許出願である特許文献7(特開2010−63083号公報)に記載の構成は、図5に示す画像変換部130の低域通過フィルタ(LPF)131を省略した構成である。
本発明の構成は、低域通過フィルタ(LPF)131を追加した点が異なる構成であり、この構成の違いによる効果を、より理解しやすくするため、図7〜図9に以下の信号例を示している。
(1)図7:低域通過フィルタ(LPF)131のない構成における各信号の例(特許文献7(特開2010−63083号公報)に記載の構成)
(2)図8:低域通過フィルタ(LPF)131のある構成における各信号の例(本発明の図5の構成)
(3)図9:低域通過フィルタ(LPF)131のある構成とない構成の信号比較例
(1)図7:低域通過フィルタ(LPF)131のない構成における各信号の例(特許文献7(特開2010−63083号公報)に記載の構成)
(2)図8:低域通過フィルタ(LPF)131のある構成における各信号の例(本発明の図5の構成)
(3)図9:低域通過フィルタ(LPF)131のある構成とない構成の信号比較例
まず、図7を参照して、特許文献7(特開2010−63083号公報)に記載の構成、すなわち、低域通過フィルタ(LPF)131のない構成における信号例について説明する。
図7には、上から順に、
(a)入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
図7には、上から順に、
(a)入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
(a)入力信号は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
(b)微分信号は、(a)入力信号の微分結果である。図7に示す例は、図5に示す画像変換部130の低域通過フィルタ(LPF)131のない構成に対応する信号例であり、(b)微分信号は、(a)入力信号を、LPFを介さずに直接、微分器132において微分した信号である。
微分器132の生成する微分信号は、図に示すとおり、(a)入力信号の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)右眼用画像信号、(d)左眼用画像信号は、図5に示す画像変換部130中のLPF131を省略した構成における画像合成部134において生成される信号である。画像合成部134は、(a)入力信号と、(b)微分信号を非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号[enh]とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
図7(c)右眼用画像信号と、(d)左眼用画像信号に示すように、(a)入力信号の輝度変化領域201,202が、(c)右眼用画像信号では輝度変化領域211,212に示すように右方向に移動し、(d)左眼用画像信号では輝度変化領域213,214に示すように左方向に移動している。
このような輝度変化領域の移動により、(c)右眼用画像信号と、(d)左眼用画像信号には視差が発生する。すなわち、(c)右眼用画像信号を右眼にのみ観察させ、(d)左眼用画像信号を左眼のみに観察させる画像表示を実行することで、視差のある画像の観察が実現され、観察者は奥行感のある3次元画像として認識することができる。
しかし、この図7に示す信号は、入力輝度信号に対する微分信号、すなわち微分器(ハイパスフィルタ)に起因する高域強調が発生し画像が不自然となる場合がある。という新たな課題が発生する。
例えば、図7に示す(c)右眼用画像信号と、(d)左眼用画像信号に示すように、輝度変化領域211〜214の高低差、すなわち輝度変化量は、(a)入力信号の輝度変化領域201,202の高低差に比較して大きくなっている。これが高域強調の一例であり、元々の(a)入力信号より、輝度差が大きく設定されてしまい、不自然な画像となることがある。
例えば、図7に示す(c)右眼用画像信号と、(d)左眼用画像信号に示すように、輝度変化領域211〜214の高低差、すなわち輝度変化量は、(a)入力信号の輝度変化領域201,202の高低差に比較して大きくなっている。これが高域強調の一例であり、元々の(a)入力信号より、輝度差が大きく設定されてしまい、不自然な画像となることがある。
本発明は、この問題を解決するものであり、この問題の解決のために図5に示す画像変換部130に低域通過フィルタ(LPF)131を設けたものである。
低域通過フィルタ(LPF)131を設けた場合の信号例を図8に示す。
図8には、上から順に、
(a)入力信号
(a2)低域通過フィルタ通過後の入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
図8には、上から順に、
(a)入力信号
(a2)低域通過フィルタ通過後の入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
図8の(a)入力信号は、図7(a)と同様の入力信号であり、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
図8の(a2)低域通過フィルタ通過後の入力信号は、(a)入力信号に対して低域通過フィルタ(LPF)131による処理を行った信号である。低域通過フィルタ(LPF)131による処理により、輝度変化領域が滑らかな変化領域に変更される。
すなわち、(a)入力信号の輝度変化領域201,202は、(a2)低域通過フィルタ通過後の入力信号では、変化率の抑えられたなだらかな輝度変化領域221,222として設定される。
すなわち、(a)入力信号の輝度変化領域201,202は、(a2)低域通過フィルタ通過後の入力信号では、変化率の抑えられたなだらかな輝度変化領域221,222として設定される。
図8の(b)微分信号は、(a2)低域通過フィルタ通過後の入力信号に対する微分結果である。微分器132の生成する微分信号は、図に示すとおり、(a2)低域通過フィルタ通過後の入力信号の輝度変化が正になる領域Aにおいて正の値をとり、輝度変化が負になる領域Bにおいて負の値をとる。
図8に示す(b)微分信号は、(a2)低域通過フィルタ通過後の入力信号に対する微分結果である。この微分信号は、図7(b)の微分信号に比較して、高低差が小さいものとなる。これらの比較信号は図9(b)に示す通りである。
図9(b)〜(d)は、
低域通過フィルタ(LPF)131のある構成に対応する信号例を実線、
低域通過フィルタ(LPF)131のない構成に対応する信号例を点線、
で示している。
図9(b)〜(d)は、
低域通過フィルタ(LPF)131のある構成に対応する信号例を実線、
低域通過フィルタ(LPF)131のない構成に対応する信号例を点線、
で示している。
(c)右眼用画像信号、(d)左眼用画像信号は、図5に示す画像変換部130画像合成部134において生成される信号である。画像合成部134は、(a)入力信号と、(b)微分信号を非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号[enh]とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
図8に示す(c)右眼用画像信号と、(d)左眼用画像信号においても、図7を参照して説明したと同様、(a)入力信号の輝度変化領域201,202が、(c)右眼用画像信号では輝度変化領域231,232に示すように右方向に移動し、(d)左眼用画像信号では輝度変化領域233,234に示すように左方向に移動している。
このような輝度変化領域の移動により、(c)右眼用画像信号と、(d)左眼用画像信号には視差(網膜像差)が発生する。(c)右眼用画像信号を右眼にのみ観察させ、(d)左眼用画像信号を左眼のみに観察させる画像表示を実行することで、視差のある画像の観察が実現され、観察者は奥行感のある3次元画像として認識することができる。
この図8に示す(c)右眼用画像信号と、(d)左眼用画像信号は、図7に示す(c)右眼用画像信号と、(d)左眼用画像信号に比較して微分器(ハイパスフィルタ)に起因する高域強調が抑制され画像の不自然さが減少する。
前述したように、図9の(c)右眼用画像信号と、(d)左眼用画像信号には、
低域通過フィルタ(LPF)131のある構成に対応する信号例を実線、
低域通過フィルタ(LPF)131のない構成に対応する信号例を点線、
で示している。
低域通過フィルタ(LPF)131のある構成に対応する信号例を実線、
低域通過フィルタ(LPF)131のない構成に対応する信号例を点線、
で示している。
図9の(c)右眼用画像信号と、(d)左眼用画像信号の実線(LPFあり)と、点線(LPFなし)を比較する。
点線(LPFなし)の輝度変化領域の高低差、すなわち輝度変化量は、(a)入力信号の輝度変化領域の高低差、すなわち輝度変化量に比較して大きくなっている。
一方、実線(LPFあり)の輝度変化領域の高低差は点線(LPFなし)よりも小さくなり、(a)入力信号の輝度変化領域の高低差、すなわち輝度変化量により近い設定となっている。
点線(LPFなし)の輝度変化領域の高低差、すなわち輝度変化量は、(a)入力信号の輝度変化領域の高低差、すなわち輝度変化量に比較して大きくなっている。
一方、実線(LPFあり)の輝度変化領域の高低差は点線(LPFなし)よりも小さくなり、(a)入力信号の輝度変化領域の高低差、すなわち輝度変化量により近い設定となっている。
これは、図9(b)微分信号に示すように、
低域通過フィルタ(LPF)通過後の入力信号に対する微分結果(実線)が、LPFなしの入力信号に対する微分結果(点線)に比較して、高低差が小さく設定される結果である。
この結果、本発明の低域通過フィルタ(LPF)を利用した構成では、(c)右眼用画像信号と、(d)左眼用画像信号が、過度な高域強調が抑制され、入力信号に近い輝度変化を持つ信号となる。
低域通過フィルタ(LPF)通過後の入力信号に対する微分結果(実線)が、LPFなしの入力信号に対する微分結果(点線)に比較して、高低差が小さく設定される結果である。
この結果、本発明の低域通過フィルタ(LPF)を利用した構成では、(c)右眼用画像信号と、(d)左眼用画像信号が、過度な高域強調が抑制され、入力信号に近い輝度変化を持つ信号となる。
図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)とする。
画像合成部134は、(a)入力信号に相当するビデオデータ(S)と、(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号を非線形変換した視差強調信号[enh(E)]を受け取り、例えば以下の(式1)により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E
Left=S+E
・・・・・(式1)
ここで、画像合成部134は、(式1)のように左眼用画像信号(Left)と右眼用画像信号(Right)の両方を変換せずに、いずれか一方の信号に対してのみ変換をかけるようにしても構わない。
図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)とする。
画像合成部134は、(a)入力信号に相当するビデオデータ(S)と、(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号を非線形変換した視差強調信号[enh(E)]を受け取り、例えば以下の(式1)により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E
Left=S+E
・・・・・(式1)
ここで、画像合成部134は、(式1)のように左眼用画像信号(Left)と右眼用画像信号(Right)の両方を変換せずに、いずれか一方の信号に対してのみ変換をかけるようにしても構わない。
すなわち、
Right=S−E
Left=S
このような信号の組み合わせとしてもよい。
あるいは、
Right=S
Left=S+E
このような信号の組み合わせとしてもよい。
このような処理によって、右眼用画像信号(Right)と、左眼用画像信号(Left)には、網膜像差が発生し奥行きを知覚させる画像を得ることができる。なお、網膜像差と奥行き知覚との関係については、後段で説明する。
Right=S−E
Left=S
このような信号の組み合わせとしてもよい。
あるいは、
Right=S
Left=S+E
このような信号の組み合わせとしてもよい。
このような処理によって、右眼用画像信号(Right)と、左眼用画像信号(Left)には、網膜像差が発生し奥行きを知覚させる画像を得ることができる。なお、網膜像差と奥行き知覚との関係については、後段で説明する。
なお、前述したように、非線形変換部133の変換処理を省略し、微分器132の生成した微分信号を画像合成部134に直接入力(図5の点線)して、画像合成134が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。この場合は、上記の視差強調信号[enh(E)]は微分信号に置き換えられる。
このように、画像合成部134は、入力画像信号の空間的な特徴量を抽出して入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。特徴量は、例えば入力画像信号に対する低域通過フィルタ(LPF)による処理信号の輝度微分信号、あるいはその非線形変換処理によって生成する視差強調信号である。
図8(c)右眼用画像信号(Right)は、
(a)入力信号から、
(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号の非線形変換により生成した視差強調信号[enh(E)]、
を減算した信号である。
(a)入力信号から、
(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号の非線形変換により生成した視差強調信号[enh(E)]、
を減算した信号である。
(c)右眼用画像信号(Right)は、図8(c)右眼用画像信号に示すように以下のような信号特性(c1)〜(c3)を持つ信号として生成される。
(信号特性)
(c1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(c2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(c3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
(信号特性)
(c1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(c2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(c3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
また、図8(d)左眼用画像信号(Left)は、
(a)入力信号に、
(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号を非線形変換した視差強調信号[enh(E)]、
を加算した信号である。
(a)入力信号に、
(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号を非線形変換した視差強調信号[enh(E)]、
を加算した信号である。
(d)左眼用画像信号(Left)は、図8(d)左眼用画像信号に示すように以下のような信号特性(d1)〜(d3)を持つ信号として生成される。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
画像合成部134は、上述したように、(a)入力信号と、(a2)低域通過フィルタ通過後の入力信号に対する(b)微分信号を非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号[enh]とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
なお、画像合成部134は、例えば、変換対象となる入力信号が静止画であれば、静止画を構成する1フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
また、変換対象となる入力信号が動画であれば、動画を構成する各フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。ただし、動画像の場合は、最終的に画像表示を実行する画像出力部150(図1参照)や表示装置の制御方式に従って、右眼用画像信号と左眼用画像信号の生成態様を変更する設定としてもよい。以下、図10以下を参照して変換対象となる入力信号が動画像(ビデオデータ)である場合の画像合成部134の実行する複数の処理例について説明する。
まず、変換対象となる入力信号が動画像(ビデオデータ)の場合の画像合成部134の実行する基本的な処理例について図10を参照して説明する。図10に示す処理例は、画像合成部134が、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)のすべてについて、左眼用画像(Left)と右眼用画像(Right)の両画像を生成して出力する処理例である。
画像合成部134は、図10に示す(a)入力画像フレームのすべてのフレームについて、(a)入力画像フレームの輝度信号と、(b)微分画像信号の非線形変換結果である視差強調信号とを合成して、図10に示す(c)右眼用画像信号と、(d)左眼用画像信号を生成して出力する。この場合、画像合成部134は、2系統のビデオ信号を出力する。
合成処理は、例えば先に説明した式(式1)に従って行われる。すなわち、図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
図10に示す基本処理例では、画像合成部134は、全てのフレームに対応する右眼用画像と、左眼用画像の2系統のビデオ信号を出力する。これらの2系統の信号を受領した画像出力部150(図1参照)は、立体視を実現する表示装置にこれらのデータを出力する。表示装置は、立体視を実現する各種の表示方式に従って出力制御を行う。表示装置の表示方式とは、例えば、偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式、あるいは、液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式などである。表示装置は、画像合成部134の生成した2系統のビデオ信号を利用して上記いずれかの表示方式に従った画像を表示する。
(1−2.本発明の画像処理装置の生成する左右眼用画像の構成と出力例)
画像表示方式が予め決定されている場合は、画像合成部134が、各画像出力方式に応じた出力画像信号を生成して出力する設定とすることができる。以下、図11〜図13を参照して、3つの異なる表示方式に応じた画像合成部134の処理例について説明する。
画像表示方式が予め決定されている場合は、画像合成部134が、各画像出力方式に応じた出力画像信号を生成して出力する設定とすることができる。以下、図11〜図13を参照して、3つの異なる表示方式に応じた画像合成部134の処理例について説明する。
最終的に画像表示を実行する表示装置の表示方式は以下の3種類である。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図11)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速とした方式(図12)
これは、図11と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図13)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図11)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速とした方式(図12)
これは、図11と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図13)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
まず、図11を参照して、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部134の処理例について説明する。
この画像表示方式の場合、画像合成部134は、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)について、左眼用画像(Left)と右眼用画像(Right)を各フレーム毎に切り替えて生成して出力する。
入力するビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像および右眼用画像(または、右眼用画像および左眼用画像)として設定して出力する。出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
画像合成部134は、このような時間分割方式の立体表示装置に出力するため、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)に対する画像合成処理をフレーム単位で左眼用画像と右眼用画像を切り替えて実行する。すなわち、図11(c),(d)に示すように、左眼用画像(Left)の合成と、右眼用画像(Right)の合成をフレーム単位で交互に実施して出力する。
図11に示す例では、フレームnでは、右眼用画像を先に説明した式(式1)に従って生成する。すなわち、図11(a)入力信号のフレームnのビデオデータの輝度レベルを(S)とし、図11(b)に示すフレームnに対する低域通過フィルタ(LPF)による処理信号に対する微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)を生成する。
右眼用画像信号:Right=S−E
なお、
右眼用画像信号:Right=S−E
なお、
次のフレームn+1では、左眼用画像を先に説明した式(式1)に従って生成する。すなわち、図11(a)入力信号のフレームn+1のビデオデータの輝度レベルを(S)とし、図11(b)に示すフレームn+1の低域通過フィルタ(LPF)による処理信号に対する微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により左眼用画像信号(Left)を生成する。
左眼用画像信号:Left=S+E
左眼用画像信号:Left=S+E
以降、フレームn+2では右眼用画像、フレームn+3では左眼用画像、以下、交互に各フレーム毎に右眼用画像と左眼用画像を、前述の式1に従った画像合成処理によって生成して出力する。この方式では、画像合成部134は、各フレームに対応して右眼用画像または左眼用画像の1画像を生成して出力することになる。すなわち1系統のビデオデータを出力する。
出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
図12は、図11と同様、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部134の処理例である。ただし、この処理例は、図11に示す処理と異なり、入力ビデオデータの各フレームに対して、左眼用画像(Left)と右眼用画像(Right)の両画像を前述の式1に従った合成処理により合成して出力する。
画像出力を行う表示装置においては、入力ビデオデータの2倍のフレームレートで、左眼用画像と右眼用画像を時間分割に交互出力する。
この処理では、画像合成部134は、図12に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。さらに、次のフレーム、すなわち、(a)入力画像のフレームn+1とその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
このようにして1つのフレームから左眼用画像と右眼用画像を生成する。1フレームから生成した2枚の画像、すなわち、右眼用画像と左眼用画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。
画像出力部150は、表示装置において、図12(a)に示す入力画像のフレームレートの2倍のフレームレートで表示されるように出力する。なお、この表示タイミングに併せて画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉も同期して制御する。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるようにする。この方式では、画像合成部134は、1系統の入力ビデオデータの2倍のフレームレートのビデオデータを出力する。
図13は、空間分割方式の立体表示装置に対して出力する場合の画像合成部134の処理例を示している。空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示される方式である。すなわち、メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図13(c)に示す右眼用画像のみが観察され、左眼には図13(d)に示す左眼用画像のみが観察される。
この処理では、画像合成部134は、図13に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとフレームnに対する低域通過フィルタ(LPF)処理信号に対する(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
さらに、画像合成部134は、図13に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する。画像合成部134は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成して出力する。
図13に示す(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の有効領域(黒ライン以外の画像表示部)を連結して生成した画像である。すなわち、(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の各ラインデータを交互に含む画像である。画像合成部134は、このようにして(d)両眼視差画像を生成して出力する。この方式では、画像合成部134は、入力画像と同一フレームレートの1系統のビデオデータを出力する。
画像出力部150は、空間分割方式の立体表示装置に対して、図13に示す(d)両眼視差画像を出力表示する。空間分割方式の立体表示装置は前述したように、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタが設定されている。ユーザは偏光フィルタ方式によるメガネで観察する。メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図13(c)に示す右眼用画像のみが観察され、左眼には図13(d)に示す左眼用画像のみが観察される。
図10〜図13を参照して説明した右眼用画像信号(Right)と、左眼用画像信号(Left)は、先に説明した式(式1)に従って生成される画像である。すなわち、下式に従って、右眼用画像信号(Right)と、左眼用画像信号(Left)が生成される。
Right=S−E
Left=S+E
ただし、Sは入力信号、Eは、入力信号Sのフレームnに対する低域通過フィルタ(LPF)による処理信号の微分信号Dを非線形変換した視差強調信号である。なお、先に説明したように、視差強調信号Eは、入力信号Sの微分信号Dの非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
Right=S−E
Left=S+E
ただし、Sは入力信号、Eは、入力信号Sのフレームnに対する低域通過フィルタ(LPF)による処理信号の微分信号Dを非線形変換した視差強調信号である。なお、先に説明したように、視差強調信号Eは、入力信号Sの微分信号Dの非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
(1−3.本発明の画像処理装置の生成する左右眼用画像の網膜像差について)
このような右眼用画像信号(Right)と、左眼用画像信号(Left)を生成して、これらの画像を観察者の右眼と左眼で観察することにより奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。本発明の画像処理装置100において生成する右眼用画像と左眼用画像の網膜像差について、以下、図14〜図17を参照して説明する。
このような右眼用画像信号(Right)と、左眼用画像信号(Left)を生成して、これらの画像を観察者の右眼と左眼で観察することにより奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。本発明の画像処理装置100において生成する右眼用画像と左眼用画像の網膜像差について、以下、図14〜図17を参照して説明する。
なお、網膜像差は、先に図7,図8を参照して簡単に説明したように、輝度変化領域が(c)左眼用画像信号と(d)右眼用画像信号とでずれが発生することに起因している。以下では、この原理について数式を参照して説明する。なお、以下の説明では、理解を容易にするため低域通過フィルタ(LPF)による処理は省略したものとして説明する。また、以下の説明において、図14〜図16では、微分信号Dに対する非線形変換処理を省略し、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号Sと、入力信号Sに対する低域通過フィルタ(LPF)による処理信号の微分信号Dを適用して以下の式に従って生成したと仮定して説明する。
Right=S−D
Left=S+D
Right=S−D
Left=S+D
図14は、微分信号の加減算により発生する網膜像差を説明する図である。ここでは、説明を簡単にするために、入力信号として、1次元の正弦波信号が入力された場合に、左眼用の信号と右眼用の信号がどのように生成されるかを示した。図の水平軸は、画像の水平方向の画素位置を表しており、垂直軸は、画素の輝度レベルを表している。
入力信号Sを以下の式(式2)で表す。
S=sinωx・・・(式2)
このとき、微分信号Dは、以下の式(式3)で表される。
D=cosωx・・・(式3)
S=sinωx・・・(式2)
このとき、微分信号Dは、以下の式(式3)で表される。
D=cosωx・・・(式3)
このとき、左眼信号Lと右眼信号Rは、以下のように式(式4)、(式5)で表される。
これらの式、(式4)、(式5)から、左眼信号Lは、入力信号Sに対してπ/4だけ位相が進み、右眼信号Rは、入力信号Sに対してπ/4だけ位相が遅れている。つまり、左眼信号Lは、入力信号よりも振幅が√2倍で、角周波数ωで決まる周期の1/8だけ水平左方向にずれた信号であり、右眼信号Rは、同様に、振幅が√2倍で、周期の1/8だけ水平右方向にずれた信号となっている。このように、左眼信号Lと右眼信号Rの間ではπ/2だけの位相差が発生し、この位相差が網膜像差として知覚され、奥行きを感じることが出来る。
上述の通り、網膜像差は、角周波数ωに依存して変化する。図15は、図14と比較して、入力信号の角周波数が1/2になった場合の波形を示している。図からわかる通り、網膜像差は図14の場合の2倍になっており、両眼立体視した場合には、図14の入力信号に比較して奥に知覚される。
また、図16は、図14と比較して、入力信号の角周波数が2倍になった場合の波形を示している。図からわかる通り、網膜像差は図14の場合の1/2になっており、両眼立体視した場合には、図14の入力信号に比較して手前に知覚される。
さらに、微分信号Dの振幅を制御した場合の波形を図17に示す。図17は、微分信号Dに2倍の増幅を施した場合を示しているが、より一般化するため、制御した微分信号Fを式(式6)で示す。
F=kcosωx・・・(式6)
ここで、kは正の実数である。
なお、上記のFは、微分信号Dに対する変換処理によって生成した前述の視差強調信号Eに相当する。
F=kcosωx・・・(式6)
ここで、kは正の実数である。
なお、上記のFは、微分信号Dに対する変換処理によって生成した前述の視差強調信号Eに相当する。
このとき、左眼信号Lと右眼信号Rは、以下のように式(式7)、式(式8)で表される。
ここで、αは0〜π/2の範囲にあり、以下の式(式9)で表される。
上記式(式9)において、微分信号の増幅値kを大きくするとαは大きくなるため、入力信号Sと左眼信号L、および右眼信号Rとの位相差は大きくなる。従って、左眼信号Lと右眼信号Rの位相差も大きくなり、網膜像差が大きく知覚される。この結果、両眼立体視した場合にはより奥にあるように知覚されるようになる。
このように、本発明の画像処理装置100の生成する右眼用画像と左眼用画像は、画像の空間周波数に応じて網膜像差が変化し、空間周波数の高い領域ほど網膜像差が小さくなり、空間周波数の低い領域ほど網膜像差が大きくなるような画像である。このような画像が人間の右眼、および左眼に分離して提示された場合、人間は、網膜像差の小さい領域を手前に、網膜像差の大きい領域を奥に知覚する。
しかしながら、本発明の画像処理装置100は、上述の通り、単に局所的な空間周波数に応じた処理を行っており、画像中の個々の被写体に対してもエッジ部とテクスチャ部では異なる網膜像差が与えられている。従って、観察者は網膜像差からのみでは正確な奥行きを知覚出来ないため、画像の絵画的な特徴(構図、物体の前後関係、空間周波数)や、運動視差などを手掛かりとして、画像の大局的な奥行きは人間がこれらの画像情報から類推して知覚することが出来ると考えられる。
また、上述のとおり、主に画像のエッジ部に対して網膜像差を発生させるようにしているため、樹木の枝や電線、髪の毛といった微細な構造にも網膜像差を与えることができるため、微細な被写体の立体感を表現することも可能である。
本発明の画像処理装置は、このような特性を利用して、画像の局所的な変調処理を施すだけで、自然な立体視を実現できる両眼視差画像の生成構成を実現している。
さらに、本発明の画像処理装置は、右眼用画像(Right)と左眼用画像(Left)を先に説明した式(式1)に従って生成している。すなわち、入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成している。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
従って、例えば、図11、または図12を参照して説明したように時間分割方式の立体表示装置で表示する場合において、観察者であるユーザが液晶シャッタ方式のメガネを外して画像を観察すると、人間の視覚系における時間的な積分機能により左眼用画像(Left)と右眼用画像(Right)が積分された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
また、図13に示したように空間分割方式の立体表示装置で表示する場合には、偏光メガネを外した場合には、垂直方向の1画素を知覚できなくなる程度の距離から観察する場合には垂直方向の2画素が加算された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
このように、本発明の画像処理装置によって生成される画像は、立体表示装置を用いて表示を行うことにより、立体視用のメガネを装着した場合には立体知覚が可能であり、立体視用のメガネを非装着の場合には、変換を施していない元の2次元画像として知覚することが可能となる。
(1−4.本発明の画像処理装置の画像変換部の処理シーケンスについて)
次に、図18に示すフローチャートを参照して、本発明の一実施例に係る画像処理装置100の画像変換部130の実行する処理のシーケンスについて説明する。なお、図18に示すフローチャートは入力画像が動画像(ビデオデータ)である場合の処理である。
次に、図18に示すフローチャートを参照して、本発明の一実施例に係る画像処理装置100の画像変換部130の実行する処理のシーケンスについて説明する。なお、図18に示すフローチャートは入力画像が動画像(ビデオデータ)である場合の処理である。
ステップS401において、低域通過フィルタ131(図5参照)は、画像変換部130に入力されるビデオデータのうち輝度信号に対して低域通過フィルタ処理を行う。例えば図8(a)入力信号に対する低域通過フィルタ処理により図8(a2)の信号、すなわち低域通過フィルタによる処理信号を生成する。
次に、ステップS402において。微分器132(図5参照)は、低域通過フィルタによる処理信号に対して微分処理を行う。すなわち、図8(a2)の低域通過フィルタによる処理信号の微分処理により図8(b)微分信号を生成する。
ステップS403では、非線形変換部133(図5参照)が、微分器132から出力される微分信号に対して非線形変換処理を行う。この非線形変換処理は、例えば図6に示すようなグラフに対応した非線形変換処理である。
ステップS404以下の処理は画像合成部134の処理である。画像合成部134内の制御部は、ステップS404において、現在の入力フレームに対する左眼用画像の合成を行うかどうかを判断する。この判断処理は、画像処理装置100の出力する画像表示装置の表示方式と、画像合成部134内に設けられたフレームカウンタの値に従って判断する。フレームカウンタは、入力画像フレームのフレーム番号に対応する値を保持するカウンタである。
画像表示装置の出力方式が図11に示す時間分割出力方式の場合には、画像合成部134はフレームカウンタの値に従って左眼用画像を出力するかどうかを判断する。すなわち図11に示す時間分割出力方式の場合には、偶数フレームまたは奇数フレームのいずれかのみにおいて左眼用画像を出力するように制御を行う。フレームカウンタの値に従って左眼用画像を出力すると判断した場合は、ステップS405に進む。一方、フレームカウンタの値により右眼用画像出力のフレームであると判断した場合にはステップS406に進む。
また、図11に示す時間分割出力方式以外の場合、すなわち、図12に示す2倍のフレームレートによる時間分割出力方式、または、図13に示す空間分割出力方式、あるいは、画像表示装置側で、図10に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部134は、全ての入力フレームに対して左眼用画像を合成すると判断してステップS405に進む。
ステップS405では、画像合成部134は、先に説明した式(式1)に従って左眼用画像(Left)を生成する。すなわち、図8に示すように、図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により左眼用画像信号(Left)を生成する。
左眼用画像信号:Left=S+E
左眼用画像信号:Left=S+E
一方、ステップS404において、現在の入力フレームに対する左眼用画像の合成を行わないと判定した場合は、ステップS406に進み、現在の入力フレームに対する右眼用画像を生成する。すなわち、図8に示すように、図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)を生成する。
右眼用画像信号:Right=S−E
の合成を行う。
右眼用画像信号:Right=S−E
の合成を行う。
ステップS405において左眼用画像の生成を終了すると、ステップS407において、左眼用画像の生成フレームと同一フレームに対して右眼用画像も生成するか否かを判定する。画像処理装置の出力方式が図11に示す時間分割出力方式の場合には、各フレームにおいては左眼、右眼のいずれかの画像のみを合成するため、右眼用画像の生成は行わないと判断してステップS408に進む。
また、図11に示す時間分割出力方式以外の場合、すなわち、図12に示す2倍のフレームレートによる時間分割出力方式、または、図13に示す空間分割出力方式、あるいは、画像表示装置側で、図10に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部134は、全ての入力フレームに対して右眼用画像を合成すると判断してステップS406に進む。ステップS406の処理はすでに説明した通り、前述した式(式1)に従った右眼用画像の生成処理である。
ステップS408では、画像合成部134の制御部は、画像の縮小処理を行うかどうかを判断する。画像処理装置の出力形式が図13に示す空間分割出力方式の場合、画像縮小処理を行うと判断し、ステップS409に進む。画像処理装置の出力形式が図13に示す空間分割出力方式以外の場合、すなわち、図10に示す左眼用画像、右眼用画像の同時出力方式、図11に示す時間分割出力方式、または、図12に示す2倍のフレームレートによる時間分割出力方式のいずれかである場合には、画像縮小処理は不要であるため、ステップS411に進む。
ステップS409〜S410において、画像合成部134は、先に図13を参照して説明したように図13に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する(S409)。さらに、画像合成部134は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成する(S410)。
ステップS411では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像変換処理を終了する。画像出力処理が終了していない場合には、ステップS412に進む。
ステップS412では、フレームカウントをインクリメントし、ステップS401に進み、以降、ステップS401〜ステップS411の処理を繰り返す。
以上、説明の通り、本発明の一実施例の画像処理装置によれば、2次元画像データを入力とし、画像の特徴量、すなわち輝度変化部分であるエッジ部を抽出して、エッジ部の画像態様を変更すことで擬似的な右眼用画像と左眼用画像を生成する構成である。この構成より、立体表示装置において好適な両眼視差画像を生成することが可能となる。
さらに、本発明による画像処理装置では、図8に示すように、図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号と左眼用画像信号を生成する。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
このように、加算信号は、入力信号に等しくなる、またはほぼ等しくなる設定である。従って、立体表示装置に表示した画像をユーザが見る場合に、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となる。すなわち、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像変換装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
[2.本発明の画像処理装置のその他の実施例について]
(2−1.画像合成部の後段に低域通過フィルタを設定した実施例(実施例2))
先に図5を参照して説明した画像変換部130において、低域通過フィルタ(LPF)131は、微分器132の前段に構成していた。
低域通過フィルタ(LPF)131の位置は、この図5に示す設定に限らず、その他の位置に設定してもよい。
(2−1.画像合成部の後段に低域通過フィルタを設定した実施例(実施例2))
先に図5を参照して説明した画像変換部130において、低域通過フィルタ(LPF)131は、微分器132の前段に構成していた。
低域通過フィルタ(LPF)131の位置は、この図5に示す設定に限らず、その他の位置に設定してもよい。
例えば図19に示すような設定が可能である。
図19に示す画像変換部130は、図1に示す画像処理装置100における画像変換部130の変形例を示す図である。
図19に示す画像変換部130は、先の実施例において説明した図5に示す画像変換部130の構成と異なり、低域通過フィルタ(LPF)135が画像合成部134の出力部に設定された構成を持つ。
図19に示す画像変換部130は、図1に示す画像処理装置100における画像変換部130の変形例を示す図である。
図19に示す画像変換部130は、先の実施例において説明した図5に示す画像変換部130の構成と異なり、低域通過フィルタ(LPF)135が画像合成部134の出力部に設定された構成を持つ。
この構成では、画像合成部の出力信号に対して、低域通過フィルタ(LPF)135による高域低減処理が施される。この処理によっても、微分器132による微分信号に起因する高域強調信号を低減させる効果を奏することが可能であり、出力画像の不自然さを解消または低減することができる。
この構成において、画像合成部134の出力は図7に示す(c)左目用画像信号と、(d)右眼用画像信号である。図19に示す低域通過フィルタ(LPF)135は、この図7に示す(c)左目用画像信号と、(d)右眼用画像信号に対してフィルタリング処理を施す。
この処理によって、微分器132による微分信号の加減算に基づく高域強調信号を低減させ、出力画像の不自然さを解消または低減することができる。
この処理によって、微分器132による微分信号の加減算に基づく高域強調信号を低減させ、出力画像の不自然さを解消または低減することができる。
(2−2.微分器前段と、画像合成部の後段の双方に低域通過フィルタを設定した実施例(実施例3))
さらに、低域通過フィルタを微分器前段と、画像合成部の後段の双方に設定してもよい。
図20を参照してこの実施例について説明する。
さらに、低域通過フィルタを微分器前段と、画像合成部の後段の双方に設定してもよい。
図20を参照してこの実施例について説明する。
図20に示す画像変換部130は、図1に示す画像処理装置100における画像変換部130の変形例を示す図である。
図20に示す画像変換部130は、先の実施例において説明した図5に示す画像変換部130の構成と同様、低域通過フィルタ(LPF)131が微分器132の前段に設けられている。さらに、もう1つの低域通過フィルタ(LPF)135が画像合成部134の後段に設定されている。
図20に示す画像変換部130は、先の実施例において説明した図5に示す画像変換部130の構成と同様、低域通過フィルタ(LPF)131が微分器132の前段に設けられている。さらに、もう1つの低域通過フィルタ(LPF)135が画像合成部134の後段に設定されている。
この構成においても、微分器132による微分信号に起因する高域強調信号を低減させる効果を奏することが可能であり、出力画像の不自然さを解消または低減することができる。
(2−3.画像合成部の後段に画像縮小部を設定した実施例(実施例4))
さらに、低域通過フィルタの代わりに画像合成部の後段に画像縮小部を設定することでも、同様の効果、すなわち微分器の微分信号に起因する高域強調信号の影響を低減することができる。
さらに、低域通過フィルタの代わりに画像合成部の後段に画像縮小部を設定することでも、同様の効果、すなわち微分器の微分信号に起因する高域強調信号の影響を低減することができる。
この実施例について図21を参照して説明する。
図21に示す画像変換部130は、図1に示す画像処理装置100における画像変換部130の変形例を示す図である。
図21に示す画像変換部130は、画像合成部134の出力部に画像縮小部136を設定した構成を持つ。
図21に示す画像変換部130は、図1に示す画像処理装置100における画像変換部130の変形例を示す図である。
図21に示す画像変換部130は、画像合成部134の出力部に画像縮小部136を設定した構成を持つ。
この構成では、画像合成部134の出力信号に対して、画像縮小部136が画像縮小処理を実行する。画像の縮小処理においては、一般的に振幅特性は低域通過フィルタと同様の特性を示すため、画像縮小処理を入れることにより、低域通過フィルタと同様の効果を示すことができる。
従って、図21に示すように、画像合成部134の出力信号に対して、画像縮小部136が画像縮小処理を実行することで、微分器132による微分信号に起因する高域強調信号を低減させる効果を奏することが可能であり、出力画像の不自然さを解消または低減することができる。
[3.画像表示部を持つ画像処理装置の構成例]
図1に示す画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図22は、画像表示部を持つ画像処理装置の一実施例を示す図である。
図1に示す画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図22は、画像表示部を持つ画像処理装置の一実施例を示す図である。
画像表示装置300は、画像入力部310において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータや、輝度(Y)、色差(Cb,Cr)、あるいは(Y,U,V)などの信号からなるビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部32が対応していればどのような色空間でも構わない。
画像入力部310から出力されたビデオデータは、色空間変換部320に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータが画像変換部の処理対象とするデータ、例えばY,Cb,Cr色空間に従う場合には、色空間変換部320、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部2は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部320から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部320から出力されたビデオデータは、画像変換部330に入力される。画像変換部330は、先に説明した処理によって左眼用と右眼用の両眼視差画像を生成し、画像表示部350の形式に従ってこれらの画像を合成して出力する。
画像変換部330から出力されたビデオデータは、色空間逆変換部340に入力され、Y,Cb,Cr色空間からR,G,B色空間へ変換される。
色空間逆変換部340から出力されたビデオデータは、画像表示部350に入力される。画像表示部350は、画像出力部と表示部とを兼ね備えた構成であり、以下に示す立体表示方式(時間分割方式または空間分割方式)のいずれかの方式よって画像表示を行う。
(時間分割方式)
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部350は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部350は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
(空間分割方式)
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
以上、説明の通り、本発明による画像処理装置によれば、2次元画像データを入力とし、画像の特徴量から擬似的に右眼用画像と左眼用画像を生成することにより、両眼視差を利用した立体表示を行うことが可能である。さらに、本発明による画像処理装置によれば、左眼用画像と右眼用画像を加算したときに入力画像と等価となるように画像変換を行うことにより、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となり、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像表示装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、簡易な信号処理により立体視可能な画像信号を生成し、かつ過度な高域強調を低減する構成が実現される。
具体的には、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号に対する輝度微分信号、あるいは輝度微分信号の非線形変換信号を入力画像信号に対して加算/減算した信号を左眼用画像と右眼用画像の信号とする。さらに入力画像信号あるいは生成した左/右眼用画像信号に対する低域通過フィルタによるフィルタリング処理を行う。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となり、特徴量として生成される微分信号に基づく過度な高域強調が低減された自然な画像を生成できる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
100 画像処理装置
110 画像入力部
111 メモリカードインタフェース
112 USBインタフェース
113 ビデオインタフェース
114 フレームメモリ
115 デコーダ
116 ビデオ出力部
120 フレームメモリ
130 画像変換部
131 低域通過フィルタ
132 微分器
133 非線形変換部
134 画像合成部
134 エッジ領域検出部
135 低域通過フィルタ
136 画像縮小部
300 画像処理装置
310 画像入力部
320 フレームメモリ
330 画像変換部
340 色空間逆変換部
350 画像表示部
110 画像入力部
111 メモリカードインタフェース
112 USBインタフェース
113 ビデオインタフェース
114 フレームメモリ
115 デコーダ
116 ビデオ出力部
120 フレームメモリ
130 画像変換部
131 低域通過フィルタ
132 微分器
133 非線形変換部
134 画像合成部
134 エッジ領域検出部
135 低域通過フィルタ
136 画像縮小部
300 画像処理装置
310 画像入力部
320 フレームメモリ
330 画像変換部
340 色空間逆変換部
350 画像表示部
Claims (15)
- 2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成であり、
前記画像変換部は、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理装置。 - 前記画像変換部は、
入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
入力画像信号の輝度微分信号、または入力画像信号に対する前記低域通過フィルタによるフィルタリング処理後の信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、
前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である請求項5に記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、
生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画像変換部の生成した画像を表示する画像表示部を有する構成である請求項1〜9いずれかに記載の画像処理装置。 - 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である請求項10に記載の画像処理装置。
- 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である請求項11に記載の画像処理装置。
- 前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である請求項10に記載の画像処理装置。
- 画像処理装置における画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行い、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップにおいて、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせ、さらに、
前記特徴量の抽出前の前処理として入力画像信号に対する低域通過フィルタによるフィルタリング処理、
または生成した左眼用画像と右眼用画像に対する後処理として低域通過フィルタによるフィルタリング処理または画像縮小処理、
上記フィルタリング処理または画像縮小処理の少なくともいずれかの処理を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010269784A JP2012120057A (ja) | 2010-12-02 | 2010-12-02 | 画像処理装置、および画像処理方法、並びにプログラム |
EP11186484.9A EP2461594A3 (en) | 2010-12-02 | 2011-10-25 | Image processing device, image processing method, and program |
US13/285,468 US20120140029A1 (en) | 2010-12-02 | 2011-10-31 | Image Processing Device, Image Processing Method, and Program |
CN2011103808717A CN102547336A (zh) | 2010-12-02 | 2011-11-25 | 图像处理装置、图像处理方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010269784A JP2012120057A (ja) | 2010-12-02 | 2010-12-02 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012120057A true JP2012120057A (ja) | 2012-06-21 |
Family
ID=44970957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010269784A Withdrawn JP2012120057A (ja) | 2010-12-02 | 2010-12-02 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120140029A1 (ja) |
EP (1) | EP2461594A3 (ja) |
JP (1) | JP2012120057A (ja) |
CN (1) | CN102547336A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017163373A (ja) * | 2016-03-10 | 2017-09-14 | 日本電信電話株式会社 | 装置、投影装置、表示装置、画像生成装置、それらの方法、プログラム、およびデータ構造 |
JP2019013012A (ja) * | 2018-08-17 | 2019-01-24 | 日本電信電話株式会社 | データ構造 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103841391A (zh) * | 2012-11-20 | 2014-06-04 | 瑞昱半导体股份有限公司 | 立体影像格式转换器及其立体影像格式转换方法 |
JP2014203017A (ja) * | 2013-04-09 | 2014-10-27 | ソニー株式会社 | 画像処理装置、画像処理方法、表示装置、および電子機器 |
US20150145977A1 (en) * | 2013-11-22 | 2015-05-28 | Samsung Display Co., Ltd. | Compensation technique for viewer position in autostereoscopic displays |
CN107113394B (zh) | 2015-01-06 | 2019-10-18 | 麦克赛尔株式会社 | 影像显示装置、影像显示方法以及影像显示系统 |
KR20180133394A (ko) * | 2016-04-06 | 2018-12-14 | 소니 주식회사 | 화상 처리 장치와 화상 처리 방법 |
CN107801015A (zh) * | 2017-10-19 | 2018-03-13 | 成都旭思特科技有限公司 | 基于低通滤波器的图像处理方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4831528A (en) * | 1987-11-09 | 1989-05-16 | General Electric Company | Apparatus and method for improvement of 3D images derived from tomographic data |
JPH0486082A (ja) * | 1990-07-27 | 1992-03-18 | Pioneer Electron Corp | 時間軸補正装置 |
JP3182009B2 (ja) | 1992-12-24 | 2001-07-03 | 日本電信電話株式会社 | 両眼立体視装置 |
JP3214688B2 (ja) | 1994-02-01 | 2001-10-02 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置 |
JP2983844B2 (ja) | 1994-07-14 | 1999-11-29 | 三洋電機株式会社 | 3次元画像変換方法 |
JP3005474B2 (ja) | 1996-08-07 | 2000-01-31 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する装置および方法 |
KR100445619B1 (ko) * | 1996-07-18 | 2004-08-25 | 산요덴키가부시키가이샤 | 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법 |
US6208348B1 (en) * | 1998-05-27 | 2001-03-27 | In-Three, Inc. | System and method for dimensionalization processing of images in consideration of a pedetermined image projection format |
JP2000209614A (ja) | 1999-01-14 | 2000-07-28 | Sony Corp | 立体映像システム |
US7609297B2 (en) * | 2003-06-25 | 2009-10-27 | Qst Holdings, Inc. | Configurable hardware based digital imaging apparatus |
JP4214976B2 (ja) | 2003-09-24 | 2009-01-28 | 日本ビクター株式会社 | 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム |
US8379080B2 (en) * | 2007-07-06 | 2013-02-19 | Texas Instruments Incorporated | Method for reducing stereoscopic phase-lag distortion under motion in a 3-dimensional video display |
JP5347717B2 (ja) * | 2008-08-06 | 2013-11-20 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
WO2010024479A1 (en) * | 2008-08-26 | 2010-03-04 | Enhanced Chip Technology Inc. | Apparatus and method for converting 2d image signals into 3d image signals |
JP5024632B2 (ja) * | 2008-09-19 | 2012-09-12 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8345956B2 (en) * | 2008-11-03 | 2013-01-01 | Microsoft Corporation | Converting 2D video into stereo video |
KR20100099896A (ko) * | 2009-03-04 | 2010-09-15 | 삼성전자주식회사 | 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치 |
US8179427B2 (en) * | 2009-03-06 | 2012-05-15 | Disney Enterprises, Inc. | Optical filter devices and methods for passing one of two orthogonally polarized images |
TWI374662B (en) * | 2009-05-18 | 2012-10-11 | Novatek Microelectronics Corp | Image processing circuit and method thereof |
KR101053022B1 (ko) | 2009-05-19 | 2011-08-01 | 에이디엠이십일 주식회사 | 와이퍼블레이드용 경보장치, 그 구동방법 및 경보장치를 구비한 와이퍼블레이드 |
US20100302235A1 (en) * | 2009-06-02 | 2010-12-02 | Horizon Semiconductors Ltd. | efficient composition of a stereoscopic image for a 3-D TV |
JP2011101229A (ja) * | 2009-11-06 | 2011-05-19 | Sony Corp | 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置 |
JP2011097470A (ja) * | 2009-10-30 | 2011-05-12 | Toshiba Corp | 立体視映像再生装置、立体視映像再生方法及び立体視映像再生システム |
JP2011101230A (ja) * | 2009-11-06 | 2011-05-19 | Sony Corp | 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置 |
US20120120191A1 (en) * | 2010-11-17 | 2012-05-17 | Hung-Chia Lee | Image processor for use in a frame sequential 3d display system and related 3d display system |
-
2010
- 2010-12-02 JP JP2010269784A patent/JP2012120057A/ja not_active Withdrawn
-
2011
- 2011-10-25 EP EP11186484.9A patent/EP2461594A3/en not_active Withdrawn
- 2011-10-31 US US13/285,468 patent/US20120140029A1/en not_active Abandoned
- 2011-11-25 CN CN2011103808717A patent/CN102547336A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017163373A (ja) * | 2016-03-10 | 2017-09-14 | 日本電信電話株式会社 | 装置、投影装置、表示装置、画像生成装置、それらの方法、プログラム、およびデータ構造 |
JP2019013012A (ja) * | 2018-08-17 | 2019-01-24 | 日本電信電話株式会社 | データ構造 |
Also Published As
Publication number | Publication date |
---|---|
EP2461594A3 (en) | 2014-05-14 |
CN102547336A (zh) | 2012-07-04 |
EP2461594A2 (en) | 2012-06-06 |
US20120140029A1 (en) | 2012-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5347717B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5521913B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5387377B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US8670607B2 (en) | Image processing method, image processing device and recording medium | |
JP2012120057A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US8384766B2 (en) | Apparatus for processing a stereoscopic image stream | |
US9380284B2 (en) | Image processing method, image processing device and recording medium | |
TWI428007B (zh) | 視訊處理裝置及方法 | |
JP2004522382A (ja) | ステレオスコピック画像処理機器および方法 | |
CN102932662B (zh) | 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 | |
US8368696B2 (en) | Temporal parallax induced display | |
JP5521608B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5569635B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5794335B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
KR100372177B1 (ko) | 2차원 영상을 3차원 영상으로 변환하는 방법 | |
JP5254297B2 (ja) | 画像処理装置 | |
Lee et al. | View extrapolation method using depth map for 3D video systems | |
US9185381B2 (en) | Backward-compatible stereo image processing system and method of generating a backward-compatible stereo image | |
JP2012213116A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140204 |