JP2010063083A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2010063083A
JP2010063083A JP2009128578A JP2009128578A JP2010063083A JP 2010063083 A JP2010063083 A JP 2010063083A JP 2009128578 A JP2009128578 A JP 2009128578A JP 2009128578 A JP2009128578 A JP 2009128578A JP 2010063083 A JP2010063083 A JP 2010063083A
Authority
JP
Japan
Prior art keywords
image
signal
eye
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009128578A
Other languages
English (en)
Other versions
JP5347717B2 (ja
Inventor
Seiji Kobayashi
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009128578A priority Critical patent/JP5347717B2/ja
Priority to US12/535,431 priority patent/US8860784B2/en
Priority to EP09251934A priority patent/EP2152011A3/en
Priority to CN201310533820.2A priority patent/CN103763539B/zh
Priority to CN200910161156.7A priority patent/CN101646095B/zh
Publication of JP2010063083A publication Critical patent/JP2010063083A/ja
Application granted granted Critical
Publication of JP5347717B2 publication Critical patent/JP5347717B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Abstract

【課題】簡易な信号処理により立体視可能な画像信号を生成する。
【解決手段】入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号の輝度微分信号あるいは輝度微分信号を非線形変換して生成した信号を入力画像信号に対して加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組とする。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
【選択図】図1

Description

本発明は、画像処理装置、および画像処理方法、並びにプログラムに関し、特に2次元画像に対する画像変換を実行してステレオ視(立体視)に対応した両眼視差画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
2次元画像をステレオ視(立体視)に対応した両眼視差画像に変換する装置および方法について従来から様々な提案がなされている。2次元画像に基づいて生成された両眼視差画像は、左眼で観察する左眼用画像と右眼で観察する右眼用画像のペアによって構成される。これらの左眼用画像と右眼用画像のペアによって構成される両眼視差画像を、左眼用画像と右眼用画像をそれぞれ分離して観察者の左眼と右眼に提示することを可能とした表示装置に表示することで、観察者は画像を立体画像として知覚することができる。
このような画像の生成や表示処理に関して開示した従来技術には以下のようなものがある。
例えば、特許文献1は水平方向に動きがある動画像に対する画像処理構成を開示している。具体的には左眼用画像または右眼用画像の一方に原画像を出力し、他方にはフィールド単位で遅延させた画像を出力する構成である。このような画像出力制御により、水平に移動する物体を背景よりも手前に知覚させるものである。
また、特許文献2は、静止画像や動きの少ない画像に対して、左眼用画像と右眼用画像を所定量だけ水平方向にずらすことにより、画像が浮き上がったように知覚させる装置を提案している。
また、特許文献3は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
また、特許文献4には、特許文献3と同様にして、画像の特徴量から算出される遅延量に基づいて、左眼用画像と右眼用画像の水平遅延量を変化させながら、水平遅延量に制限を与えることにより必要以上に網膜像差が生じないようにすることで眼の疲労度を防ぐ提案がなされている。
さらに、特許文献5には、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法が提案されている。
ところで、上記の従来技術には以下に示すような問題がある。
特許文献1に記載の画像変換装置では、水平方向に一定の速度で動く物体に対してのみ良好な立体視が可能である。複数の動被写体が写っているような画像や、複雑な動きが含まれる画像においては両眼視差が正しく設定されず、不自然な位置に物体が配置されたり、網膜像差が大きくなりすぎるために立体視が成立しなくなることが考えられる。
また、特許文献2に記載の画像変換装置では、静止画や動きの少ない画像に対しては、画面全体をずらすのみであり、画像中の物体の前後関係を表現することは出来ない。
特許文献3、および特許文献4に記載の画像変換装置では、画像の特徴量から擬似的な奥行きを推定するが、推定は画面前方にある物体の先鋭度が高い、輝度が高い、彩度が高いなどの仮定に基づいており、必ずしも正しい推定が行われるとは限らない。このため、奥行き推定を誤った物体に対しては誤った網膜像差が与えられるため、誤った位置に配置されてしまう。
特許文献5に記載の画像変換装置は、画像の構造を比較的単純な有限の構造に当てはめる構成であり、不自然な奥行きが発生することは抑制される。しかしながら、上記の全ての従来手法に共通する問題であるが、生成された両眼視差画像には、比較的大きな網膜像差が発生する。この両眼視差画像は、立体表示装置を利用して立体表示されるが、一般的には偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式、または液晶シャッタにより時間的に左右分離するアクティブ眼鏡方式など、立体視用の特殊な眼鏡を装着して画像を観察する立体表示装置が利用される。
大きな網膜像差を与えられた両眼視差画像を見る場合、このような立体視用の眼鏡をかけた状態では網膜像差に従った立体感を知覚することが出来る。しかし、眼鏡をはずした状態で、画面をみると左右の画像が大きく重なった2重の画像が見えてしまい、通常の2次元画像として観察することはできない。つまり、これら従来の画像変換装置により変換された画像は、眼鏡をかけた状態でしか鑑賞することができなかった。
また、大きな網膜像差は、観察者の疲れにも影響すると考えられる。例えば特許文献6には、左眼と右眼の画像が大きくずれている場合には、現実世界での見え方に対して、輻輳角の制御と水晶体の調整に矛盾が生じ、この矛盾が両眼視差を用いた立体視における疲労に繋がっているとの記述がある。
また、特許文献3、特許文献4、および特許文献5に記載の画像変換装置では、画像から擬似的な奥行きを推定しているが、1枚の画像から詳細な奥行きを検出することは難しく、たとえば、樹木の枝や電線、髪の毛のような微細な構造に対する奥行きの推定を行うことは容易ではない。従って、これらの微細な被写体に立体感を持たせることはできなかった。
特開平9−107562号公報 特開平8−30806号公報 特開平10−51812号公報 特開2000−209614号公報 特開2005−151534号公報 特開平6−194602号公報
本発明は、例えば上記の問題を解決し、奥行き推定の誤りにより誤った立体感の発生を抑制し、左右の画像が合成された場合に原画像、または原画像に近い画像を復元可能とする。すなわち、立体視対応の眼鏡をはずした状態では通常の2次元画像として鑑賞することが可能であり、かつ観察者の疲労の少ない両眼視差画像の生成、提示を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することにある。
本発明の第1の側面は、
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成である画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号のエッジ領域を検出するエッジ領域検出部と、前記エッジ領域検出部が検出したエッジ領域について前記特徴量を低減させる特徴量修正を行うエンハンス制御部と、前記エンハンス制御部において生成した修正特徴量を適用し、エッジ領域の強調処理レベルを低下させた強調処理を施す画像合成部を有する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の肌色領域を検出する肌色領域検出部と、前記肌色領域検出部が検出した肌色領域について前記特徴量を低減させる特徴量修正を行うエンハンス制御部と、前記エンハンス制御部において生成した修正特徴量を適用し、肌色領域の強調処理レベルを低下させた強調処理を施す画像合成部を有する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を第1の特徴量として設定し、入力画像信号の輝度信号に対して前記第1の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の輝度信号として生成し、入力画像信号の色差微分信号を抽出し、該色差微分信号を第2の特徴量として設定し、入力画像信号の色差信号に対して前記第2の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の色差信号として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を第1の特徴量として設定し、入力画像信号の輝度信号に対して前記第1の特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の輝度信号の組として生成し、入力画像信号の色差微分信号を抽出し、該色差微分信号を第2の特徴量として設定し、入力画像信号の色差信号に対して前記第2の特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の色差信号の組として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成した画像を表示する画像表示部を有する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である。
さらに、本発明の第2の側面は、
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、立体視を実現するための左眼用画像または右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、
左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定とした左眼用画像と右眼用画像を生成する処理を行う構成である画像処理装置にある。
さらに、本発明の第3の側面は、
画像処理装置における画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行うステップである画像処理方法にある。
さらに、本発明の第4の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせるステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、画像変換部が入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号の輝度微分信号、あるいは輝度微分信号を非線形変換して生成した信号を特徴量とする。入力画像信号に対してこの特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像入力部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像入力部の一処理例として、入力画像が静止画像である場合の処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像入力部の一処理例として、入力画像が動画像である場合の処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する画像信号に対する非線形変換処理の一例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
1.本発明の画像処理装置の第1実施例
1−1.本発明の画像処理装置の構成と処理の概要
1−2.本発明の画像処理装置の生成する左右眼用画像の構成と出力例
1−3.本発明の画像処理装置の生成する左右眼用画像の網膜像差について
1−4.本発明の画像処理装置の画像変換部の処理シーケンスについて
2.特定画像領域の検出と制御処理を含む本発明の画像処理装置の第2実施例
3.色差信号に対応する左右眼用画像信号を生成する本発明の画像処理装置の第3実施例
4.画像表示部を持つ画像処理装置の構成例
[1.本発明の画像処理装置の第1実施例]
まず、図1以下を参照して本発明の画像処理装置の第1実施例について説明する。
(1−1.本発明の画像処理装置の構成と処理の概要)
図1は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部2が対応していればどのような色空間でも構わない。
画像入力部110から出力されたビデオデータは、色空間変換部120に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータが画像変換部130の処理データに適合している場合、例えば、Y,Cb,Cr色空間に従う場合には、色空間変換部120は、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部120は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
なお、色空間変換部120から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、画像変換部130の処理データに適合し、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。例えば輝度信号(Y)と色差信号(U,V)を用いてもよい。
色空間変換部120から出力されたビデオデータは、画像変換部130に入力される。画像変換部130は、後述する処理によって左眼用と右眼用の両眼視差画像を生成し、立体表示装置の形式に従ってこれらの画像を合成して出力する。すなわち画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
画像変換部130から出力されたビデオデータは、色空間逆変換部140に入力され、Y,Cb,Cr色空間から出力画像フォーマットに従った色空間へ変換される。このとき、出力画像フォーマットがY,Cb,Cr色空間に従う場合には、色空間逆変換部140は、色空間の変換を行わずに出力する。このように図1には、色空間変換部120、色空間逆変換部140を有する構成を示しているが、これらの構成は、必須構成ではなく、省略した構成も可能である。
色空間逆変換部140から出力されたビデオデータは、画像出力部150に入力される。画像出力部150は、画像変換部130で変換された両眼視差画像を表示して立体視を実現することが可能な外部接続した立体表示装置において受信可能なビデオデータに変換して出力する。
なお、本実施例においては、静止画像を入力した場合、画像入力部110においてビデオデータに変換する方法を記載しているが、この方法に限らず、1枚の静止画像から2枚の左眼用画像と右眼用画像に変換し、2枚の静止画像として例えばメモリカードなどにファイル出力する構成にしても構わない。
図2は、画像入力部110の一実施例の構成を示すブロック図である。画像入力部110は、静止画像ファイルなどを入力するためのメモリカードインタフェース111、映像機器を直接接続するためのUSBインタフェース112、ビデオ信号を入力するためのビデオインタフェース113、フレームメモリ114、デコーダ115、ビデオ出力部116で構成されている。
画像入力部110における処理の一例として、静止画像を入力する場合の処理シーケンスに関して図3に示すフローチャートを参照して説明する。
ステップS101において、画像入力部110は、静止画像の入力を開始する。
ステップS102において、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS104に進み、メモリカードが挿入されていない場合にはステップ103に進む。
ステップS103では、画像入力部110は、USBインタフェース112に静止画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS105に進み、USB機器が接続されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS104において、画像入力部110は、メモリカードに記録されている静止画像ファイルから画像データを読み込む。この際、メモリカード内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS105では、画像入力部110は、USBインタフェースに接続された外部機器から静止画像データを読み込む。このとき、外部機器内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS106では、画像入力部110は、ステップS104、またはステップS105において読み込まれた静止画像データをフレームメモリ114に記憶する。
ステップS107において、画像入力部110は、図示しない制御部によりフレームメモリ114から静止画像データを読み出す。このとき、読み出しアドレスはステップS106において記憶された画像データの先頭を示す。
ステップS108において、画像入力部110は、静止画像のデコード処理を行う。静止画像データは、JPEG(Joint Photographic Experts Group)などで規定されたフォーマットに従って画像圧縮されていることが一般的であるため、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドの画像データを復元する。
ステップS109では、画像入力部110は、デコードされた静止画像データをビデオデータの1フレームとして出力する。ここで、ビデオデータのフォーマットは、画像出力部150で出力されるフォーマットに従う。つまり、画像出力部150においてHD(High Definition)解像度、60フレーム毎秒のビデオデータとして出力される場合には、図示しない制御部においてHD解像度、60フレーム毎秒のビデオ同期信号を生成し、この信号の有効領域内に静止画像を貼り付けて出力する。
ステップS110では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像入力処理を終了する。画像出力処理が終了していない場合には、ステップS111に進む。
ステップS111において、画像入力部110は、フレームメモリ114の読み出しアドレスを初期化し、ステップS106で記憶した静止画像データの先頭を示すようにする。ステップS111のアドレス初期化が終了すると、ステップS107に進み、以降、ステップS107〜ステップS111の処理を繰り返す。
このようにして、画像入力部110は、静止画像が入力された場合には、同じ画像が連続したビデオデータへの変換を行う。
次に、画像入力部110における処理の一例として、動画像を入力する場合の処理シーケンスに関して図4に示すフローチャートを参照して説明する。
ステップS201において、画像入力部110は、動画像の入力を開始する。
ステップS202において、画像入力部110は、ビデオインタフェース113にビデオ信号が入力されているかを確認し、ビデオインタフェースから動画像データを入力するかどうかを判断する。ビデオ信号が入力されている場合にはステップS205に進み、ビデオ信号が入力されていない場合にはステップS203に進む。
ステップS203では、画像入力部は、USBインタフェース112に動画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から動画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS206に進み、USB機器が接続されていない場合にはステップS204に進む。
ステップS204では、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから動画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS207に進み、メモリカードが挿入されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS205において、画像入力部110は、ビデオインタフェース113からビデオデータを読み込む。ビデオインタフェース113は、DVI(Digital Video Interface)、HDMI(High−Definition Multimedia Interface)、HDSDI(High−Definition Serial Digital Interface)などのデジタルビデオ伝送方式で伝送されるビデオ信号や、NTSC(National Television Standards Committee)方式、コンポーネント方式などのアナログビデオ伝送方式で伝送されるビデオ信号が入力される。ビデオインタフェース113は、アナログビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換した後、図示しないA/D変換器によりデジタル信号に変換する。一方、デジタルビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換する。
ステップS206において、画像入力部110は、USBインタフェース112に接続された外部機器から動画像データを読み込む。このとき、外部機器内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ステップS207では、画像入力部1は、メモリカードに記録されている動画像ファイルから画像データを読み込む。この際、メモリカード内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ここで、USBインタフェース112を介して入力される動画像データや、メモリカードに記録されている動画像データは、MPEG(Moving Picture Experts Group)などで規定された動画像圧縮方式により圧縮されたストリームデータである。このような圧縮方式は、フレームメモリを用いたデコード処理を要するため、ステップS208では、これらのストリームデータをフレームメモリ114に記憶する。
ステップS209において、画像入力部1は、図示しない制御部によりフレームメモリ114から動画像データを読み出す。
ステップS210において、画像入力部110は、動画像のデコード処理を行う。前述の通り、フレームメモリ114に記憶されている動画像データは、MPEGなどで圧縮されたストリームデータであるので、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドのビデオデータを復元する。
ステップS211では、ビデオ出力部116は、ビデオインタフェース113から出力されるビデオデータ、または、デコーダ115から出力されるビデオデータのいずれかを内部データ形式によりビデオ出力する。
図5は、画像変換部130の一実施例の構成を示すブロック図である。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。画像変換部130は、微分器131、非線形変換部132、および画像合成部133から構成される。
微分器131は、画像変換部130に入力されたビデオデータから輝度信号を取り出し、輝度信号に対する微分信号を生成する。具体的には、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
非線形変換部132は、微分器131から出力される微分信号を非線形的に変換し、視差強調信号[enh]を生成して出力する。
図6は、非線形変換部132において実行する非線形変換処理の一例を示している。横軸が、微分器131からの入力信号であり輝度微分信号である。縦軸が、非線形変換部132における非線形変換処理後の出力を示している。非線形変換部132は、入力された微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号[enh](Out)を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
f(x)=xβ
上記式に示されるような指数関数を用いる。βは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部132における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部133は、非線形変換部132から出力される視差強調信号[enh]と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
なお、図5に点線で示すように、非線形変換部132の変換処理を省略し、微分器131の生成した微分信号を画像合成部133に直接入力して、画像合成部133が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。
画像合成部133は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号[enh]を適用して左眼用画像と、右眼用画像を生成する処理を行う。
図7は、画像合成部133において実行する画像合成処理の概念を示している。図7には、上から順に、
(a)入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
(a)入力信号は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
(b)微分信号は、(a)入力信号の微分結果である。この微分信号は、図5に示す画像変換部130の微分器131において生成される信号である。
微分器131の生成する微分信号は、図に示すとおり、(a)入力信号の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)右眼用画像信号、(d)左眼用画像信号は、図5に示す画像変換部130の画像合成部133において生成する信号である。画像合成部133は、(a)入力信号と、(b)微分信号を非線形変換部132において非線形変換した結果(非線形変換部132の出力)である視差強調信号[enh]とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
図7(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)とする。
画像合成部133は、(a)入力信号に相当するビデオデータ(S)と、(b)微分信号を非線形変換した視差強調信号[enh(E)]を受け取り、例えば以下の(式1)により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E
Left=S+E
・・・・・(式1)
ここで、画像合成部133は、(式1)のように左眼用画像信号(Left)と右眼用画像信号(Right)の両方を変換せずに、いずれか一方の信号に対してのみ変換をかけるようにしても構わない。
すなわち、
Right=S−E
Left=S
このような信号の組み合わせとしてもよい。
あるいは、
Right=S
Left=S+E
このような信号の組み合わせとしてもよい。
このような処理によって、右眼用画像信号(Right)と、左眼用画像信号(Left)には、網膜像差が発生し奥行きを知覚させる画像を得ることができる。なお、網膜像差と奥行き知覚との関係については、図12以下を参照して後段で説明する。
なお、前述したように、非線形変換部132の変換処理を省略し、微分器131の生成した微分信号を画像合成部133に直接入力(図5の点線)して、画像合成133が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。この場合は、上記の視差強調信号[enh(E)]は微分信号に置き換えられる。
このように、画像合成部133は、入力画像信号の空間的な特徴量を抽出して入力画像信号に対して前記特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。特徴量は、入力画像信号の輝度微分信号、あるいはその非線形変換処理によって生成する視差強調信号である。
図7(c)右眼用画像信号(Right)は、(a)入力信号から、(b)微分信号を非線形変換した視差強調信号[enh(E)]を減算して生成した信号である。
(c)右眼用画像信号(Right)は、図7(c)右眼用画像信号に示すように以下のような信号特性(c1)〜(c3)を持つ信号として生成される。
(信号特性)
(c1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(c2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(c3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
また、図7(d)左眼用画像信号(Left)は、(a)入力信号に、(b)微分信号を非線形変換した視差強調信号[enh(E)]を加算して生成した信号である。
(d)左眼用画像信号(Left)は、図7(d)左眼用画像信号に示すように以下のような信号特性(d1)〜(d3)を持つ信号として生成される。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
画像合成部133は、上述したように、(a)入力信号と、(b)微分信号を非線形変換部132において非線形変換した結果(非線形変換部132の出力)である視差強調信号[enh]とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
なお、画像合成部133は、例えば、変換対象となる入力信号が静止画であれば、静止画を構成する1フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
また、変換対象となる入力信号が動画であれば、動画を構成する各フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。ただし、動画像の場合は、最終的に画像表示を実行する画像出力部150(図1参照)や表示装置の制御方式に従って、右眼用画像信号と左眼用画像信号の生成態様を変更する設定としてもよい。以下、図8以下を参照して変換対象となる入力信号が動画像(ビデオデータ)である場合の画像合成部133の実行する複数の処理例について説明する。
まず、変換対象となる入力信号が動画像(ビデオデータ)の場合の画像合成部133の実行する基本的な処理例について図8を参照して説明する。図8に示す処理例は、画像合成部133が、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)のすべてについて、左眼用画像(Left)と右眼用画像(Right)の両画像を生成して出力する処理例である。
画像合成部133は、図8に示す(a)入力画像フレームのすべてのフレームについて、(a)入力画像フレームの輝度信号と、(b)微分画像信号の非線形変換結果である視差強調信号とを合成して、図8に示す(c)右眼用画像信号と、(d)左眼用画像信号を生成して出力する。この場合、画像合成部133は、2系統のビデオ信号を出力する。
合成処理は、例えば先に説明した式(式1)に従って行われる。すなわち、図7(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
図8に示す基本処理例では、画像合成部133は、全てのフレームに対応する右眼用画像と、左眼用画像の2系統のビデオ信号を出力する。これらの2系統の信号を受領した画像出力部150(図1参照)は、立体視を実現する表示装置にこれらのデータを出力する。表示装置は、立体視を実現する各種の表示方式に従って出力制御を行う。表示装置の表示方式とは、例えば、偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式、あるいは、液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式などである。表示装置は、画像合成部133の生成した2系統のビデオ信号を利用して上記いずれかの表示方式に従った画像を表示する。
(1−2.本発明の画像処理装置の生成する左右眼用画像の構成と出力例)
画像表示方式が予め決定されている場合は、画像合成部133が、各画像出力方式に応じた出力画像信号を生成して出力する設定とすることができる。以下、図9〜図11を参照して、3つの異なる表示方式に応じた画像合成部133の処理例について説明する。
最終的に画像表示を実行する表示装置の表示方式は以下の3種類である。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図9)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速とした方式(図10)
これは、図9と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図11)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
まず、図9を参照して、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部133の処理例について説明する。
この画像表示方式の場合、画像合成部133は、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)について、左眼用画像(Left)と右眼用画像(Right)を各フレーム毎に切り替えて生成して出力する。
入力するビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像および右眼用画像(または、右眼用画像および左眼用画像)として設定して出力する。出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
画像合成部133は、このような時間分割方式の立体表示装置に出力するため、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)に対する画像合成処理をフレーム単位で左眼用画像と右眼用画像を切り替えて実行する。すなわち、図9(c),(d)に示すように、左眼用画像(Left)の合成と、右眼用画像(Right)の合成をフレーム単位で交互に実施して出力する。
図9に示す例では、フレームnでは、右眼用画像を先に説明した式(式1)に従って生成する。すなわち、図9(a)入力信号のフレームnのビデオデータの輝度レベルを(S)とし、図9(b)に示すフレームnの微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)を生成する。
右眼用画像信号:Right=S−E
次のフレームn+1では、左眼用画像を先に説明した式(式1)に従って生成する。すなわち、図9(a)入力信号のフレームn+1のビデオデータの輝度レベルを(S)とし、図9(b)に示すフレームn+1の微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により左眼用画像信号(Left)を生成する。
左眼用画像信号:Left=S+E
以降、フレームn+2では右眼用画像、フレームn+3では左眼用画像、以下、交互に各フレーム毎に右眼用画像と左眼用画像を、前述の式1に従った画像合成処理によって生成して出力する。この方式では、画像合成部133は、各フレームに対応して右眼用画像または左眼用画像の1画像を生成して出力することになる。すなわち1系統のビデオデータを出力する。
出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
図10は、図9と同様、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部133の処理例である。ただし、この処理例は、図9に示す処理と異なり、入力ビデオデータの各フレームに対して、左眼用画像(Left)と右眼用画像(Right)の両画像を前述の式1に従った合成処理により合成して出力する。
画像出力を行う表示装置においては、入力ビデオデータの2倍のフレームレートで、左眼用画像と右眼用画像を時間分割に交互出力する。
この処理では、画像合成部133は、図10に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。さらに、次のフレーム、すなわち、(a)入力画像のフレームn+1とその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
このようにして1つのフレームから左眼用画像と右眼用画像を生成する。1フレームから生成した2枚の画像、すなわち、右眼用画像と左眼用画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。
画像出力部150は、表示装置において、図10(a)に示す入力画像のフレームレートの2倍のフレームレートで表示されるように出力する。なお、この表示タイミングに併せて画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉も同期して制御する。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるようにする。この方式では、画像合成部133は、1系統の入力ビデオデータの2倍のフレームレートのビデオデータを出力する。
図11は、空間分割方式の立体表示装置に対して出力する場合の画像合成部133の処理例を示している。空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示される方式である。すなわち、メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図11(c)に示す右眼用画像のみが観察され、左眼には図11(d)に示す左眼用画像のみが観察される。
この処理では、画像合成部133は、図11に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
さらに、画像合成部133は、図11に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する。画像合成部133は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成して出力する。
図11に示す(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の有効領域(黒ライン以外の画像表示部)を連結して生成した画像である。すなわち、(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の各ラインデータを交互に含む画像である。画像合成部133は、このようにして(d)両眼視差画像を生成して出力する。この方式では、画像合成部133は、入力画像と同一フレームレートの1系統のビデオデータを出力する。
画像出力部150は、空間分割方式の立体表示装置に対して、図11に示す(d)両眼視差画像を出力表示する。空間分割方式の立体表示装置は前述したように、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタが設定されている。ユーザは偏光フィルタ方式によるメガネで観察する。メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図11(c)に示す右眼用画像のみが観察され、左眼には図11(d)に示す左眼用画像のみが観察される。
図8〜図11を参照して説明した右眼用画像信号(Right)と、左眼用画像信号(Left)は、先に説明した式(式1)に従って生成される画像である。すなわち、下式に従って、右眼用画像信号(Right)と、左眼用画像信号(Left)が生成される。
Right=S−E
Left=S+E
ただし、Sは入力信号、Eは、入力信号Sの微分信号Dを非線形変換した視差強調信号である。なお、先に説明したように、視差強調信号Eは、入力信号Sの微分信号Dの非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
(1−3.本発明の画像処理装置の生成する左右眼用画像の網膜像差について)
このような右眼用画像信号(Right)と、左眼用画像信号(Left)を生成して、これらの画像を観察者の右眼と左眼で観察することにより奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。本発明の画像処理装置100において生成する右眼用画像と左眼用画像の網膜像差について、以下、図12〜図15を参照して説明する。なお、以下において、図12〜図14では、微分信号Dに対する非線形変換処理を省略し、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号Sと、入力信号Sの微分信号Dを適用して以下の式に従って生成したと仮定して説明する。
Right=S−D
Left=S+D
図12は、微分信号の加減算により発生する網膜像差を説明する図である。ここでは、説明を簡単にするために、入力信号として、1次元の正弦波信号が入力された場合に、左眼用の信号と右眼用の信号がどのように生成されるかを示した。図の水平軸は、画像の水平方向の画素位置を表しており、垂直軸は、画素の輝度レベルを表している。
入力信号Sを以下の式(式2)で表す。
S=sinωx・・・(式2)
このとき、微分信号Dは、以下の式(式3)で表される。
D=cosωx・・・(式3)
このとき、左眼信号Lと右眼信号Rは、以下のように式(式4)、(式5)で表される。
これらの式、(式4)、(式5)から、左眼信号Lは、入力信号Sに対してπ/4だけ位相が進み、右眼信号Rは、入力信号Sに対してπ/4だけ位相が遅れている。つまり、左眼信号Lは、入力信号よりも振幅が√2倍で、角周波数ωで決まる周期の1/8だけ水平左方向にずれた信号であり、右眼信号Rは、同様に、振幅が√2倍で、周期の1/8だけ水平右方向にずれた信号となっている。このように、左眼信号Lと右眼信号Rの間ではπ/2だけの位相差が発生し、この位相差が網膜像差として知覚され、奥行きを感じることが出来る。
上述の通り、網膜像差は、角周波数ωに依存して変化する。図13は、図12と比較して、入力信号の角周波数が1/2になった場合の波形を示している。図からわかる通り、網膜像差は図12の場合の2倍になっており、両眼立体視した場合には、図12の入力信号に比較して奥に知覚される。
また、図14は、図12と比較して、入力信号の角周波数が2倍になった場合の波形を示している。図からわかる通り、網膜像差は図12の場合の1/2になっており、両眼立体視した場合には、図12の入力信号に比較して手前に知覚される。
さらに、微分信号Dの振幅を制御した場合の波形を図15に示す。図15は、微分信号Dに2倍の増幅を施した場合を示しているが、より一般化するため、制御した微分信号Fを式(式6)で示す。
F=kcosωx・・・(式6)
ここで、kは正の実数である。
なお、上記のFは、微分信号Dに対する変換処理によって生成した前述の視差強調信号Eに相当する。
このとき、左眼信号Lと右眼信号Rは、以下のように式(式7)、式(式8)で表される。
ここで、αは0〜π/2の範囲にあり、以下の式(式9)で表される。
上記式(式9)において、微分信号の増幅値kを大きくするとαは大きくなるため、入力信号Sと左眼信号L、および右眼信号Rとの位相差は大きくなる。従って、左眼信号Lと右眼信号Rの位相差も大きくなり、網膜像差が大きく知覚される。この結果、両眼立体視した場合にはより奥にあるように知覚されるようになる。
このように、本発明の画像処理装置100の生成する右眼用画像と左眼用画像は、画像の空間周波数に応じて網膜像差が変化し、空間周波数の高い領域ほど網膜像差が小さくなり、空間周波数の低い領域ほど網膜像差が大きくなるような画像である。このような画像が人間の右眼、および左眼に分離して提示された場合、人間は、網膜像差の小さい領域を手前に、網膜像差の大きい領域を奥に知覚する。
しかしながら、本発明の画像処理装置100は、上述の通り、単に局所的な空間周波数に応じた処理を行っており、画像中の個々の被写体に対してもエッジ部とテクスチャ部では異なる網膜像差が与えられている。従って、観察者は網膜像差からのみでは正確な奥行きを知覚出来ないため、画像の絵画的な特徴(構図、物体の前後関係、空間周波数)や、運動視差などを手掛かりとして、画像の大局的な奥行きは人間がこれらの画像情報から類推して知覚することが出来ると考えられる。
また、上述のとおり、主に画像のエッジ部に対して網膜像差を発生させるようにしているため、樹木の枝や電線、髪の毛といった微細な構造にも網膜像差を与えることができるため、微細な被写体の立体感を表現することも可能である。
本発明の画像処理装置は、このような特性を利用して、画像の局所的な変調処理を施すだけで、自然な立体視を実現できる両眼視差画像の生成構成を実現している。
さらに、本発明の画像処理装置は、右眼用画像(Right)と左眼用画像(Left)を先に説明した式(式1)に従って生成している。すなわち、入力信号に相当するビデオデータの輝度レベルを(S)とし、図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成している。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
従って、例えば、図9、または図10を参照して説明したように時間分割方式の立体表示装置で表示する場合において、観察者であるユーザが液晶シャッタ方式のメガネを外して画像を観察すると、人間の視覚系における時間的な積分機能により左眼用画像(Left)と右眼用画像(Right)が積分された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
また、図11に示したように空間分割方式の立体表示装置で表示する場合には、偏光メガネを外した場合には、垂直方向の1画素を知覚できなくなる程度の距離から観察する場合には垂直方向の2画素が加算された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
このように、本発明の画像処理装置によって生成される画像は、立体表示装置を用いて表示を行うことにより、立体視用のメガネを装着した場合には立体知覚が可能であり、立体視用のメガネを非装着の場合には、変換を施していない元の2次元画像として知覚することが可能となる。
(1−4.本発明の画像処理装置の画像変換部の処理シーケンスについて)
次に、図16に示すフローチャートを参照して、本発明の一実施例に係る画像処理装置100の画像変換部130の実行する処理のシーケンスについて説明する。なお、図16に示すフローチャートは入力画像が動画像(ビデオデータ)である場合の処理である。
ステップS401において、微分器131(図5参照)は、画像変換部130に入力されるビデオデータのうち輝度信号に対して微分処理を行う。すなわち、図7(a)入力信号の微分処理により図7(b)微分信号を生成する。
ステップS402では、非線形変換部132(図5参照)が、微分器131から出力される微分信号に対して非線形変換処理を行う。この非線形変換処理は、例えば図6に示すようなグラフに対応した非線形変換処理である。
ステップS403以下の処理は画像合成部133の処理である。画像合成部133内の制御部は、ステップS403において、現在の入力フレームに対する左眼用画像の合成を行うかどうかを判断する。この判断処理は、画像処理装置100の出力する画像表示装置の表示方式と、画像合成部133内に設けられたフレームカウンタの値に従って判断する。フレームカウンタは、入力画像フレームのフレーム番号に対応する値を保持するカウンタである。
画像表示装置の出力方式が図9に示す時間分割出力方式の場合には、画像合成部133はフレームカウンタの値に従って左眼用画像を出力するかどうかを判断する。すなわち図9に示す時間分割出力方式の場合には、偶数フレームまたは奇数フレームのいずれかのみにおいて左眼用画像を出力するように制御を行う。フレームカウンタの値に従って左眼用画像を出力すると判断した場合は、ステップS404に進む。一方、フレームカウンタの値により右眼用画像出力のフレームであると判断した場合にはステップS405に進む。
また、図9に示す時間分割出力方式以外の場合、すなわち、図10に示す2倍のフレームレートによる時間分割出力方式、または、図11に示す空間分割出力方式、あるいは、画像表示装置側で、図8に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部133は、全ての入力フレームに対して左眼用画像を合成すると判断してステップS404に進む。
ステップS404では、画像合成部133は、先に説明した式(式1)に従って左眼用画像(Left)を生成する。すなわち、図7に示すように、図7(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により左眼用画像信号(Left)を生成する。
左眼用画像信号:Left=S+E
一方、ステップS403において、現在の入力フレームに対する左眼用画像の合成を行わないと判定した場合は、ステップS405に進み、現在の入力フレームに対する右眼用画像を生成する。すなわち、図7に示すように、図7(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)を生成する。
右眼用画像信号:Right=S−E
の合成を行う。
ステップS404において左眼用画像の生成を終了すると、ステップS406において、左眼用画像の生成フレームと同一フレームに対して右眼用画像も生成するか否かを判定する。画像処理装置の出力方式が図9に示す時間分割出力方式の場合には、各フレームにおいては左眼、右眼のいずれかの画像のみを合成するため、右眼用画像の生成は行わないと判断してステップS407に進む。
また、図9に示す時間分割出力方式以外の場合、すなわち、図10に示す2倍のフレームレートによる時間分割出力方式、または、図11に示す空間分割出力方式、あるいは、画像表示装置側で、図8に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部133は、全ての入力フレームに対して右眼用画像を合成すると判断してステップS405に進む。ステップS405の処理はすでに説明した通り、前述した式(式1)に従った右眼用画像の生成処理である。
ステップS407では、画像合成部133の制御部は、画像の縮小処理を行うかどうかを判断する。画像処理装置の出力形式が図11に示す空間分割出力方式の場合、画像縮小処理を行うと判断し、ステップS408に進む。画像処理装置の出力形式が図11に示す空間分割出力方式以外の場合、すなわち、図8に示す左眼用画像、右眼用画像の同時出力方式、図9に示す時間分割出力方式、または、図10に示す2倍のフレームレートによる時間分割出力方式のいずれかである場合には、画像縮小処理は不要であるため、ステップS410に進む。
ステップS408〜S409において、画像合成部133は、先に図11を参照して説明したように図11に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する(S408)。さらに、画像合成部133は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成する(S409)。
ステップS410では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像変換処理を終了する。画像出力処理が終了していない場合には、ステップS411に進む。
ステップS411では、フレームカウントをインクリメントし、ステップS401に進み、以降、ステップS401〜ステップS410の処理を繰り返す。
以上、説明の通り、本発明の一実施例の画像処理装置によれば、2次元画像データを入力とし、画像の特徴量、すなわち輝度変化部分であるエッジ部を抽出して、エッジ部の画像態様を変更すことで擬似的な右眼用画像と左眼用画像を生成する構成である。この構成より、立体表示装置において好適な両眼視差画像を生成することが可能となる。
さらに、本発明による画像処理装置では、図7に示すように、図7(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図7(b)に示す微分信号を非線形変換した視差強調信号[enh]の信号レベルを(E)としたとき、以下の式により右眼用画像信号と左眼用画像信号を生成する。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
このように、加算信号は、入力信号に等しくなる、またはほぼ等しくなる設定である。従って、立体表示装置に表示した画像をユーザが見る場合に、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となる。すなわち、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像変換装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
[2.特定画像領域の検出と制御処理を含む本発明の画像処理装置の第2実施例]
次に、本発明の画像処理装置の第2実施例として、特定画像領域の検出を行い、検出情報に基づいて画像領域の特徴に応じた強調処理制御を行う画像処理装置の例について説明する。上述した第1実施例の画像処理装置100は、図5に示す画像変換部130において、輝度信号の微分信号を生成して、入力信号に対して、微分信号を加算、または減算することで、右眼用画像と左眼用画像を生成していた。
この処理によって生成した右眼用画像と左眼用画像は、図7に示すように信号のエッジ周辺において原信号の振幅を超えるオーバーシュートやアンダーシュートが発生する傾向がある。このオーバーシュートやアンダーシュートは、観察画像の不自然さを発生させる要因となる。
また、人間は肌色の階調に敏感であるとされており、例えば業務用ビデオカメラなどでは、肌色領域の輪郭強調処理を弱めるスキントーンディテールと呼ばれる機能が搭載されている場合がある。図5に示した画像変換部では、原信号の高域強調を伴うため、立体視した場合に肌色領域のしわやあれなどが強調されてしまう問題がある。
以下に説明する第2実施例は、これらの問題を解決するため、処理対象となる入力画像からエッジ領域や肌色領域を検出し、エッジ周辺や肌色領域では視差強調信号の寄与を小さくする処理を行う。この処理によって、エッジ領域におけるオーバーシュートやアンダーシュートの発生を低減し、また肌をなめらかに表現することが可能となる。
本実施例に係る画像処理装置の全体構成は、図1に示す画像処理装置100と同様の構成である。すなわち画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、色空間変換部120に入力する。
色空間変換部120は、入力信号から輝度信号と色差信号を生成し、画像変換部130に出力する。画像変換部130は、輝度信号と色差信号を用いて左右眼用画像を生成する。画像変換部130が生成した左右眼用画像は、色空間逆変換部140に入力され、出力信号に応じた信号に変換され、画像出力部150を介して表示部に出力される。
本実施例2では、画像変換部130の構成が、先の実施例1において説明した図5の構成とは異なる構成を持つ。実施例2における画像変換部130の構成について、図17を参照して説明する。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
図17に示すように、本実施例の画像変換部130は、微分器131、非線形変換部132、画像合成部133、エッジ領域検出部134、肌色領域検出部135、およびエンハンス制御部136を有する。
微分器131は、先の実施例1において図5を参照して説明した微分器131と同様、画像変換部130に入力される画像信号、例えばビデオデータから輝度信号を取り出し、輝度信号に対する微分信号を生成する。具体的には、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
非線形変換部132も、先の実施例1において図5を参照して説明した非線形変換部132と同様、微分器131から出力される微分信号を非線形的に変換し、視差強調信号として出力する。
画像合成部133も、先の実施例1において図5を参照して説明した画像合成部133と同様、非線形変換部132から出力される視差強調信号と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
エッジ領域検出部134は、画像変換部130に入力されたビデオデータからエッジ領域と平坦領域を識別するエッジ領域識別信号を生成して出力する。具体的には、例えば入力ビデオ信号から各画素の輝度信号を取り出し、輝度信号の周囲領域における平坦度合を得るため周辺領域における分散値を算出して、算出した分散値を画素対応のエッジ領域識別信号として出力する。分散値の値に応じてエッジ領域であるか平坦領域であるかを判別することができる。なお、エッジ領域検出部134が算出して出力する信号は、分散値に限らず、エッジ領域と平坦領域を判別することが可能な信号であればよい。
肌色領域検出部135は、画像変換部130に入力されたビデオデータから肌色領域を識別する肌色領域識別信号を生成して出力する。具体的には、例えば入力ビデオ信号から色差信号を取り出し、色差信号と予め設定した閾値との比較に基づいて人物の肌色の領域を検出し、肌色として認識された画素を[1]、非肌色の画素を[0]とする設定とした画素対応の肌色領域識別信号を出力する。
肌色領域検出部135の入力する色差信号は、(Cb,Cr)、または(U,V)などの色差信号であり、肌色領域検出部135は入力する色差信号に対応する肌色判別用の閾値データを保持し、閾値データと入力色差信号との比較を画素単位で実行して、各画素が肌色であるか否かを判定する。
なお、肌色領域検出部135における肌色の検出は、上述のような単純な色差信号と閾値との比較処理で実現可能であるが、この方法に限定するものではなく、顔検出や人体検出技術を用いて、より正確に肌色領域を検出する方法を用いても良い。
エンハンス制御部136は、非線形変換部132から出力される視差強調信号[enh(E)]、エッジ領域検出部134から出力されるエッジ領域識別信号(例えば分散値)、および肌色領域検出部135から出力される肌色領域識別信号(例えば[0],[1]の識別信号)を受け取り、エッジ領域識別信号と肌色領域識別信号に応じて視差強調信号[enh(E)]に対してゲイン制御処理を行う。
エッジ領域検出部134から出力されるエッジ領域識別信号である分散値は、エッジなどの輝度変化の大きい領域では大きく、平坦な領域では小さくなる信号である。
先に説明したように、第1実施例の図5に示す構成を持つ画像変換部130は、図7に示した通り、信号のエッジ周辺において原信号の振幅を超えるオーバーシュートやアンダーシュートが発生する傾向にある。この問題を解決するため、本実施例においては、画素値の変化が少ない平坦な領域では視差強調信号の寄与を大きくし、画素値の変化が大きいエッジ周辺では視差強調信号の寄与を小さくすることにより、オーバーシュート、アンダーシュートの発生を低減する。従って、エンハンス制御部136は、以下のような反比例式(式10)により与えられるエッジ対応ゲイン量[gainflat]を計算し、視差強調信号に乗ずることで視差強調信号の寄与を制御する。
上記式(式10)において、
varは1で正規化した分散値であり、
aは比例定数である。
varが0でない場合には、エッジ対応ゲイン量[gainflat]は、最大値[1]でクリッピングされる。varが0の場合には、エッジ対応ゲイン量[gainflat]は[1]になる。エッジ対応ゲイン量[gainflat]は、上記式による変換に限定するものではなく、平坦な領域では大きくなり、エッジ周辺で小さくなるような特性を持つ変換を実現するものであれば上記式と異なる変換式を適用してもよい。
肌色領域検出部135から出力される肌色領域識別信号は、肌色の領域のみで[1]となる信号である。人間は肌色の階調に敏感であるとされており、業務用ビデオカメラなどでは、肌色領域の輪郭強調処理を弱めるスキントーンディテールと呼ばれる機能が搭載されている場合がある。先に説明したように、第1実施例の図5に示す構成を持つ画像変換部130は、原信号の高域強調を伴うため、立体視した場合に肌色領域のしわやあれなどが強調されてしまう問題がある。この問題を解決するため、本実施例においては、肌色領域では視差強調信号の寄与を小さくすることにより、肌の肌理がなめらかに表現されるようにする。従って、エンハンス制御部136は、以下のような反比例式(式11)により与えられる肌色対応ゲイン量[gainskin]を計算し、視差強調信号に乗ずることで視差強調信号の寄与を制御する。
上記式(式11)において、
skinは、画素位置iにおける肌色識別信号であり、
bは比例定数である。
このように、肌色対応ゲイン量[gainskin]は、周囲n画素の肌色識別信号の平均値に反比例し、最大値1でクリッピングされる。ここで、肌色対応ゲイン量[gainskin]は、上記式による変換に限定するものではなく、肌色領域で小さくなるような変換を実現するものであれば上記式と異なる変換式を適用してもよい。
エンハンス制御部136は、下記の式(式12)に示すとおり、上記の式(式10)により与えられるエッジ対応ゲイン量[gainflat]と、上記の式(式11)により与えられる肌色対応ゲイン量[gainskin]を、非線形変換部132から入力する視差強調信号[enh]に乗算することによりゲイン制御された修正視差強調信号[enh']を出力する。
上記の修正視差強調信号[enh']の算出は、各画素単位で実行され、各画素対応のエッジ対応ゲイン量[gainflat]と、肌色対応ゲイン量[gainskin]に基づいて各画素単位で修正視差強調信号[enh']を算出する。
このように、図17に示す画像変換部130のエンハンス制御部136は、修正視差強調信号[enh']を算出し、修正視差強調信号[enh']を画像合成部133に出力する。
画像合成部133の処理は、先に説明した実施例1の画像合成部133の処理と同様の処理である。画像合成部133は、エンハンス制御部136から出力される修正視差強調信号[enh']と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
画像合成部133は、(a)入力信号に相当するビデオデータ(S)と、(b)微分信号を非線形変換した視差強調信号[enh(E)]に対して画像領域単位で修正(エンハンス制御)した修正視差強調信号[enh'(E')]を受け取り、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E'
Left=S+E'
ここで、画像合成部133は、左眼用画像信号(Left)と右眼用画像信号(Right)の両方を変換せずに、いずれか一方の信号に対してのみ変換をかけるようにしても構わない。すなわち、
Right=S−E'
Left=S
このような信号の組み合わせとしてもよい。
あるいは、
Right=S
Left=S+E'
このような信号の組み合わせとしてもよい。
このような処理によって、右眼用画像信号(Right)と、左眼用画像信号(Left)には、網膜像差が発生し奥行きを知覚させる画像を得ることができる。
本実施例では、図17を参照して説明したように、画像変換部130に、エッジ領域検出部134、肌色領域検出部135、エンハンス制御部136を設定し、入力画像の画像特徴に応じて修正視差強調信号[enh']を算出する構成としている。
エンハンス制御部136は、例えばエッジ領域では、非線形変換部132から入力する視差強調信号[enh(E)]に小さなエッジ対応ゲイン量[gainflat]を乗算する。
エンハンス制御部136は、この処理により、エッジ領域では平面領域に比較して小さな値となる修正視差強調信号[enh'(E')]を生成する。この処理によって、画像合成部133で出力される左眼用画像と右眼用画像において、エッジ周辺に発生するオーバーシュート、およびアンダーシュートを抑制し、立体視において良好な画質を得ることが可能となる。さらに、エッジ周辺のみにおいて視差強調信号[enh(E)]の寄与を下げることにより、画像全体の視差量を維持することができるため、全体の奥行き感には大きな影響はない。
また、図17に示す画像変換部130は、上述の通り、肌色領域検出部135で検出された肌色領域に対して非線形変換部132から入力する視差強調信号[enh(E)]に小さな肌色対応ゲイン量[gainskin]を乗算する。
エンハンス制御部136は、肌色領域では、その他の領域に比較して小さな値となる修正視差強調信号[enh'(E')]を生成する。この処理により、画像合成部133で出力される左眼用画像と右眼用画像において、人物の顔などの肌色領域でのしわやあれなどの強調を抑えることができ、立体視において良好な画質を得ることが可能となる。
[3.色差信号に対応する左右眼用画像信号を生成する本発明の画像処理装置の第3実施例]
次に、本発明の画像処理装置の第3実施例として、色差信号に対応する左右眼用画像信号を生成する画像処理装置の構成について説明する。
本実施例に係る画像処理装置の全体構成は、図1に示す画像処理装置100と同様の構成である。すなわち画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、色空間変換部120に入力する。
色空間変換部120は、入力信号から輝度信号と色差信号を生成し、画像変換部130に出力する。画像変換部130は、輝度信号と色差信号を用いて左右眼用画像を生成する。画像変換部130が生成した左右眼用画像は、色空間逆変換部140に入力され、出力信号に応じた信号に変換され、画像出力部150を介して表示部に出力される。
本実施例3では、画像変換部130の構成が、先の実施例1において説明した図5の構成とは異なる構成を持つ。実施例2における画像変換部130の構成について、図18を参照して説明する。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
図18に示すように、本実施例の画像変換部130は、微分器131、非線形変換部132、画像合成部133、色差信号微分器137、および第2画像合成部138を有する。微分器131、非線形変換部132、画像合成部133は、図5を参照して説明したと同様の処理を行う。これらの処理についての説明は省略する。
色差信号微分器137は、画像変換部130に入力されたビデオデータから色差信号(Cb,Cr)または(U,V)を取り出し、色差信号各々に対する微分信号を生成する。微分信号の生成は、微分器131による輝度信号に対する微分信号の生成と同様であり、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
第2画像合成部138は、
(a)色差信号微分器137から出力される色差信号の微分信号[Dc]、
(b)画像変換部130に入力されたビデオデータの色差信号[C]、
(c)微分器131から出力される輝度信号の微分信号、
(d)非線形変換部132から出力される視差強調信号[enh(E)]、
これらの各信号を入力する。
第2画像合成部138は、これらの信号を受け取り、ビデオデータを構成する各フレーム画像の色差信号と、色差信号の微分信号を合成し、左眼用画像と右眼用画像の色差信号を生成する処理を行う。具体的には、第2画像合成部138は、色差信号の微分信号[Dc]と、ビデオデータの色差信号[C]を以下の式(式13)により合成し、左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]を生成する。
上記式(式13)において、
色差信号Cは、色差信号のいずれかのチャンネル(CbまたはCr)、あるいは(UまたはV)を表している。
微分信号Dcは、色差信号Cを微分したものである。
また、Dyは輝度信号の微分信号、
enhは視差強調信号を表している。
なお、画像変換部130に入力される色差信号が(Cb,Cr)であれば、第2画像合成部138は、色差信号Cbに対応する左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]と、色差信号Crに対応する左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]とを生成する。
また、画像変換部130に入力される色差信号が(U,V)であれば、第2画像合成部138は、色差信号Uに対応する左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]と、色差信号Vに対応する左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]とを生成する。
上記式(式13)の合成式は、輝度信号の視差強調信号[enh]と微分信号[Dy]の比[enh/Dy]によって強調量を決める設定である。すなわち、
左眼用画像の色差信号[Left]は、視差強調信号[enh]と微分信号[Dy]の比[enh/Dy]に対する色差信号の微分信号Dcの乗算値[Dc×(enh/Dy)]を元の色差信号Cに加算して生成する。
右眼用画像の色差信号[Right]は、視差強調信号[enh]と微分信号[Dy]の比[enh/Dy]に対する色差信号の微分信号Dcの乗算値[Dc×(enh/Dy)]を元の色差信号Cから減算して生成する。
なお、上記式(式13)の合成式は、本実施例における第2画像合成部138の実行する合成処理の一例に過ぎず、第2画像合成部138は、左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]の各々を、色差信号とその微分信号の加算処理と減算処理によって生成すれば、上記式以外の合成処理を実行してもよい。
このように、本実施例の画像処理装置では、図18に示す画像変換部130によって、色差信号の微分信号を生成して、元の色差信号と合成する処理を行って、左眼用画像の色差信号[Left]と右眼用画像の色差信号[Right]の各々を生成する。この構成により、彩度の高い被写体の境界付近で発生する疑色や色にじみを抑制することが可能となる。さらに、輝度信号の視差強調信号と微分信号の比によって強調量を決めることにより、輝度信号と同程度のエンハンスを実現することが可能となる。
図18に示す画像変換部130の処理についてまとめて説明する。
図18に示す画像変換部130の微分器131、非線形変換部132、画像合成部133の処理は、前述の実施例1と同様の処理である。すなわち、微分器131が入力画像信号の輝度微分信号を抽出し、非線形変換部132において微分信号の非線形変換を実行し、この結果を第1の特徴量として設定する。画像合成部133は、入力画像信号の輝度信号に対してこの第1の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の輝度信号として生成する。
図18に示す画像変換部130の色差信号微分器137と第2画像合成部138の処理は以下の処理となる。色差信号微分器137は、入力画像信号の色差微分信号を抽出し、この色差微分信号を第2の特徴量として設定する。第2画像合成部138は、入力画像信号の色差信号に対して第2の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の色差信号として生成する。
このような処理によって、左眼用画像と右眼用画像の輝度信号と色差信号が得られる。なお、上述の処理によって、左眼用画像と右眼用画像の輝度信号と色差信号を生成して出力する構成としてもよいが、上述の特徴量を用いた加算または減算処理によって左眼用画像、または右眼用画像の一方の眼用画像の輝度信号と色差信号のみを生成して、入力画像信号に処理を加えない非変換信号を変換信号と異なる眼用の画像として設定して出力する構成としてもよい。
[4.画像表示部を持つ画像処理装置の構成例]
図1に示す画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図19は、画像表示部を持つ画像処理装置の一実施例を示す図である。
画像表示装置300は、画像入力部310において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータや、輝度(Y)、色差(Cb,Cr)、あるいは(Y,U,V)などの信号からなるビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部32が対応していればどのような色空間でも構わない。
画像入力部310から出力されたビデオデータは、色空間変換部320に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータが画像変換部の処理対象とするデータ、例えばY,Cb,Cr色空間に従う場合には、色空間変換部320、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部2は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部320から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部320から出力されたビデオデータは、画像変換部330に入力される。画像変換部330は、先に説明した処理によって左眼用と右眼用の両眼視差画像を生成し、画像表示部350の形式に従ってこれらの画像を合成して出力する。
画像変換部330から出力されたビデオデータは、色空間逆変換部340に入力され、Y,Cb,Cr色空間からR,G,B色空間へ変換される。
色空間逆変換部340から出力されたビデオデータは、画像表示部350に入力される。画像表示部350は、画像出力部と表示部とを兼ね備えた構成であり、以下に示す立体表示方式(時間分割方式または空間分割方式)のいずれかの方式よって画像表示を行う。
(時間分割方式)
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部350は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
(空間分割方式)
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
以上、説明の通り、本発明による画像処理装置によれば、2次元画像データを入力とし、画像の特徴量から擬似的に右眼用画像と左眼用画像を生成することにより、両眼視差を利用した立体表示を行うことが可能である。さらに、本発明による画像処理装置によれば、左眼用画像と右眼用画像を加算したときに入力画像と等価となるように画像変換を行うことにより、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となり、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像表示装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
なお、これまで複数の実施例について説明してきたが、各実施例を組み合わせた構成としてもよい。すなわち上述の実施例1〜3や画像表示部を有する画像処理装置の各々についての任意の組み合わせ、例えば実施例2と実施例3を組み合わせた機能を持つ画像処理装置など、各実施例の有する機能を併せ持つ画像処理装置を構成することが可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、画像変換部が入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号の輝度微分信号、あるいは輝度微分信号を非線形変換して生成した信号を特徴量とする。入力画像信号に対してこの特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
100 画像処理装置
110 画像入力部
111 メモリカードインタフェース
112 USBインタフェース
113 ビデオインタフェース
114 フレームメモリ
115 デコーダ
116 ビデオ出力部
120 フレームメモリ
130 画像変換部
131 微分器
132 非線形変換部
133 画像合成部
134 エッジ領域検出部
135 肌色領域検出部
136 エンハンス制御部
137 色差信号微分器
138 第2画像合成部
140 色空間逆変換部
150 画像出力部
300 画像処理装置
310 画像入力部
320 フレームメモリ
330 画像変換部
340 色空間逆変換部
350 画像表示部

Claims (20)

  1. 2次元画像信号を入力する画像入力部と、
    前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
    前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
    前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成である画像処理装置。
  2. 前記画像変換部は、
    入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である請求項1に記載の画像処理装置。
  3. 前記画像変換部は、
    入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である請求項1に記載の画像処理装置。
  4. 前記画像変換部は、
    入力画像信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である請求項1に記載の画像処理装置。
  5. 前記画像変換部は、
    入力画像信号のエッジ領域を検出するエッジ領域検出部と、
    前記エッジ領域検出部が検出したエッジ領域について前記特徴量を低減させる特徴量修正を行うエンハンス制御部と、
    前記エンハンス制御部において生成した修正特徴量を適用し、エッジ領域の強調処理レベルを低下させた強調処理を施す画像合成部を有する請求項1に記載の画像処理装置。
  6. 前記画像変換部は、
    入力画像信号の肌色領域を検出する肌色領域検出部と、
    前記肌色領域検出部が検出した肌色領域について前記特徴量を低減させる特徴量修正を行うエンハンス制御部と、
    前記エンハンス制御部において生成した修正特徴量を適用し、肌色領域の強調処理レベルを低下させた強調処理を施す画像合成部を有する請求項1に記載の画像処理装置。
  7. 前記画像変換部は、
    入力画像信号の輝度微分信号を抽出し、該輝度微分信号を第1の特徴量として設定し、入力画像信号の輝度信号に対して前記第1の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の輝度信号として生成し、
    入力画像信号の色差微分信号を抽出し、該色差微分信号を第2の特徴量として設定し、入力画像信号の色差信号に対して前記第2の特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像の色差信号として生成し、
    入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である請求項1に記載の画像処理装置。
  8. 前記画像変換部は、
    入力画像信号の輝度微分信号を抽出し、該輝度微分信号を第1の特徴量として設定し、入力画像信号の輝度信号に対して前記第1の特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の輝度信号の組として生成し、
    入力画像信号の色差微分信号を抽出し、該色差微分信号を第2の特徴量として設定し、入力画像信号の色差信号に対して前記第2の特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の色差信号の組として生成する処理を行う構成である請求項1に記載の画像処理装置。
  9. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である請求項1に記載の画像処理装置。
  10. 前記画像処理装置は、さらに、
    前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、
    前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である請求項9に記載の画像処理装置。
  11. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である請求項1に記載の画像処理装置。
  12. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、
    生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である請求項1に記載の画像処理装置。
  13. 前記画像変換部は、
    生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である請求項1に記載の画像処理装置。
  14. 前記画像処理装置は、さらに、
    前記画像変換部の生成した画像を表示する画像表示部を有する構成である請求項1〜13いずれかに記載の画像処理装置。
  15. 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である請求項14に記載の画像処理装置。
  16. 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である請求項15に記載の画像処理装置。
  17. 前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である請求項14に記載の画像処理装置。
  18. 2次元画像信号を入力する画像入力部と、
    前記画像入力部から出力される画像信号を入力して、立体視を実現するための左眼用画像または右眼用画像を生成して出力する画像変換部と、
    前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
    前記画像変換部は、
    左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定とした左眼用画像と右眼用画像を生成する処理を行う構成である画像処理装置。
  19. 画像処理装置における画像処理方法であり、
    画像入力部が、2次元画像信号を入力する画像入力ステップと、
    画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
    画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
    前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行うステップである画像処理方法。
  20. 画像処理装置において画像処理を実行させるプログラムであり、
    画像入力部に、2次元画像信号を入力させる画像入力ステップと、
    画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
    画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
    前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせるステップであるプログラム。
JP2009128578A 2008-08-06 2009-05-28 画像処理装置、および画像処理方法、並びにプログラム Expired - Fee Related JP5347717B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009128578A JP5347717B2 (ja) 2008-08-06 2009-05-28 画像処理装置、および画像処理方法、並びにプログラム
US12/535,431 US8860784B2 (en) 2008-08-06 2009-08-04 Image processing apparatus, image processing method, and program
EP09251934A EP2152011A3 (en) 2008-08-06 2009-08-04 Image processing apparatus, image processing method, and program
CN201310533820.2A CN103763539B (zh) 2008-08-06 2009-08-06 图像处理装置和图像处理方法
CN200910161156.7A CN101646095B (zh) 2008-08-06 2009-08-06 图像处理装置、图像处理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008203614 2008-08-06
JP2008203614 2008-08-06
JP2009128578A JP5347717B2 (ja) 2008-08-06 2009-05-28 画像処理装置、および画像処理方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013154340A Division JP5569635B2 (ja) 2008-08-06 2013-07-25 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010063083A true JP2010063083A (ja) 2010-03-18
JP5347717B2 JP5347717B2 (ja) 2013-11-20

Family

ID=41165533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128578A Expired - Fee Related JP5347717B2 (ja) 2008-08-06 2009-05-28 画像処理装置、および画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8860784B2 (ja)
EP (1) EP2152011A3 (ja)
JP (1) JP5347717B2 (ja)
CN (2) CN103763539B (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124935A (ja) * 2009-12-14 2011-06-23 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2012029371A1 (ja) * 2010-08-30 2012-03-08 シャープ株式会社 立体画像生成方法、立体画像生成装置、およびそれを備える表示装置
EP2461594A2 (en) 2010-12-02 2012-06-06 Sony Corporation Image processing device, image processing method, and program
WO2012077420A1 (ja) * 2010-12-09 2012-06-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
EP2469870A2 (en) 2010-12-27 2012-06-27 Sony Corporation Image processing device, image processing method, and program
JP2012147409A (ja) * 2010-12-21 2012-08-02 National Institute Of Advanced Industrial & Technology 画像生成装置、画像生成方法、及びプログラム
JP2013005259A (ja) * 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2013080697A1 (ja) 2011-11-29 2013-06-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2013115532A (ja) * 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム
KR101279129B1 (ko) 2010-12-09 2013-06-26 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
JP5343159B1 (ja) * 2012-09-21 2013-11-13 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
US8988424B2 (en) 2011-07-21 2015-03-24 Sony Corporation Image processing apparatus, image processing method, and program for generating multi-viewpoint images
US9088774B2 (en) 2010-02-12 2015-07-21 Sony Corporation Image processing apparatus, image processing method and program
JP2017163373A (ja) * 2016-03-10 2017-09-14 日本電信電話株式会社 装置、投影装置、表示装置、画像生成装置、それらの方法、プログラム、およびデータ構造
WO2018056086A1 (ja) * 2016-09-23 2018-03-29 日本電信電話株式会社 画像生成装置、画像生成方法、データ構造、およびプログラム
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造
WO2020240827A1 (ja) * 2019-05-31 2020-12-03 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
WO2023042266A1 (ja) * 2021-09-14 2023-03-23 日本電信電話株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
WO2024013850A1 (ja) * 2022-07-12 2024-01-18 日本電信電話株式会社 ステレオ映像生成装置、ステレオ映像生成方法、及びプログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2906899B1 (fr) * 2006-10-05 2009-01-16 Essilor Int Dispositif d'affichage pour la visualisation stereoscopique.
JP5332531B2 (ja) * 2008-11-18 2013-11-06 ソニー株式会社 画像表示装置と画像表示方法および画像表示システム
JP2011066507A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 画像処理装置
JP4747214B2 (ja) * 2009-09-17 2011-08-17 パナソニック株式会社 映像信号処理装置、及び、映像信号処理方法
US8520020B2 (en) * 2009-12-14 2013-08-27 Canon Kabushiki Kaisha Stereoscopic color management
TWI491243B (zh) * 2009-12-21 2015-07-01 Chunghwa Picture Tubes Ltd 影像處理方法
CN102281450A (zh) * 2010-06-13 2011-12-14 深圳Tcl新技术有限公司 3d视频清晰度调整系统及方法
CN102340679B (zh) * 2010-07-23 2014-11-26 深圳Tcl新技术有限公司 一种3d视频清晰度调整系统及方法
EP2429199B1 (en) * 2010-09-13 2018-02-21 LG Electronics Inc. Image display apparatus and method for operating the same
EP2636222A1 (en) * 2010-11-04 2013-09-11 Koninklijke Philips Electronics N.V. Generation of depth indication maps
CN102075773B (zh) * 2010-11-25 2014-05-07 深圳市创凯电子有限公司 立体与平面图像混合信号在超大屏幕上显像的同步方法
JP5488482B2 (ja) * 2011-01-24 2014-05-14 株式会社Jvcケンウッド 奥行き推定データ生成装置、奥行き推定データ生成プログラム及び擬似立体画像表示装置
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
KR20120132240A (ko) * 2011-05-27 2012-12-05 삼성전자주식회사 복수의 사용자에게 복수의 영상을 제공하는 듀얼 뷰 디스플레이 방법 및 듀얼 뷰 안경 구동 방법, 이를 적용한 디스플레이 장치 및 듀얼 뷰 안경
CN103004179B (zh) * 2011-06-29 2015-11-25 奥林巴斯映像株式会社 跟踪装置和跟踪方法
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US20130050420A1 (en) * 2011-08-22 2013-02-28 Ding-Yun Chen Method and apparatus for performing image processing according to disparity information
US20140198104A1 (en) * 2011-09-02 2014-07-17 Sharp Kabushiki Kaisha Stereoscopic image generating method, stereoscopic image generating device, and display device having same
JP2013243626A (ja) * 2012-05-23 2013-12-05 Sony Corp 信号処理装置、信号処理方法、およびプログラム
US9565420B2 (en) 2012-05-28 2017-02-07 Panasonic Intellectual Property Management Co., Ltd. Image processor, image capture device, image processing method and program
US9760783B2 (en) * 2014-05-09 2017-09-12 Conduent Business Services, Llc Vehicle occupancy detection using passenger to driver feature distance
US10725300B2 (en) * 2014-07-31 2020-07-28 Seiko Epson Corporation Display device, control method for display device, and program
CN109644266B (zh) * 2016-05-26 2022-03-29 奥尔松科技有限公司 能够实现手术区域的深度感知的立体可视化系统
US10630895B2 (en) 2017-09-11 2020-04-21 Qualcomm Incorporated Assist for orienting a camera at different zoom levels
WO2020181074A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for multi-angle free-perspective interaction
CN112383765B (zh) * 2020-11-10 2023-04-07 中移雄安信息通信科技有限公司 一种vr图像传输方法及装置
CN112367512B (zh) * 2021-01-14 2021-04-02 广州市诺以德医疗科技发展有限公司 一种rdk立体视检测系统及其使用方法
CN113420700B (zh) * 2021-07-02 2022-10-25 支付宝(杭州)信息技术有限公司 手掌生物特征采集装置及方法
CN114268779B (zh) * 2021-12-08 2023-09-08 北京字跳网络技术有限公司 图像数据处理方法、装置、设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863615A (ja) * 1994-08-26 1996-03-08 Sanyo Electric Co Ltd 2次元画像の3次元化方法
JPH09116930A (ja) * 1995-10-20 1997-05-02 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する方法
JPH1198534A (ja) * 1997-09-24 1999-04-09 Sanyo Electric Co Ltd 3次元映像生成方法
JP2000092516A (ja) * 1998-09-17 2000-03-31 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62293381A (ja) * 1986-06-11 1987-12-19 Toshiba Corp 立体画像表示装置
US5255190A (en) * 1989-05-31 1993-10-19 Kavouras, Inc. Software method for enhancing IR satellite sensor cloud images
JP3182009B2 (ja) 1992-12-24 2001-07-03 日本電信電話株式会社 両眼立体視装置
CN1113320C (zh) 1994-02-01 2003-07-02 三洋电机株式会社 将二维图像转换成三维图像的方法以及三维图像显示系统
JP3214688B2 (ja) 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
US6553184B1 (en) 1994-03-14 2003-04-22 Sanyo Electric Co., Ltd. Method of converting two dimensional images into three-dimensional images
JP2983844B2 (ja) 1994-07-14 1999-11-29 三洋電機株式会社 3次元画像変換方法
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JPH0954376A (ja) * 1995-06-09 1997-02-25 Pioneer Electron Corp 立体表示装置
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3005474B2 (ja) 1996-08-07 2000-01-31 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
EP0918439B1 (en) 1996-07-18 2008-12-24 SANYO ELECTRIC Co., Ltd. Device for converting two-dimensional video into three-dimensional video
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP2000209614A (ja) 1999-01-14 2000-07-28 Sony Corp 立体映像システム
CN100366096C (zh) * 2001-07-23 2008-01-30 皇家菲利浦电子有限公司 立体图像处理设备和方法
US7002533B2 (en) * 2001-08-17 2006-02-21 Michel Sayag Dual-stage high-contrast electronic image display
US6956964B2 (en) * 2001-11-08 2005-10-18 Silicon Intergrated Systems Corp. Apparatus for producing real-time anaglyphs
JP4051196B2 (ja) * 2001-11-08 2008-02-20 オリンパス株式会社 ノイズリダクションシステム、ノイズリダクション方法、ノイズリダクションプログラム、及び電子カメラ
JP4343468B2 (ja) * 2001-11-29 2009-10-14 富士フイルム株式会社 画像処理システム、撮像装置、画像処理装置、画像処理方法、及びプログラム
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US20040105074A1 (en) * 2002-08-02 2004-06-03 Peter Soliz Digital stereo image analyzer for automated analyses of human retinopathy
JP3953434B2 (ja) * 2003-03-20 2007-08-08 株式会社ソフィア 画像表示装置
CN100458848C (zh) * 2003-03-20 2009-02-04 欧姆龙株式会社 图像处理装置
US6950751B2 (en) * 2003-03-31 2005-09-27 Conocophillps Company Method and apparatus for the assimilation and visualization of information from 3D data volumes
US20070109660A1 (en) * 2003-09-10 2007-05-17 Sharp Kabushiki Kaisha Imaging lens position control device
JP4214976B2 (ja) 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP4574249B2 (ja) * 2004-06-29 2010-11-04 キヤノン株式会社 画像処理装置及びその方法、プログラム、撮像装置
US7262767B2 (en) * 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
JP4687320B2 (ja) * 2005-08-11 2011-05-25 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
JP4932528B2 (ja) 2007-02-21 2012-05-16 旭化成イーマテリアルズ株式会社 硬化レリーフパターン付き基材の製造方法
JP2009128578A (ja) 2007-11-22 2009-06-11 Fujitsu Ltd 波長選択スイッチ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863615A (ja) * 1994-08-26 1996-03-08 Sanyo Electric Co Ltd 2次元画像の3次元化方法
JPH09116930A (ja) * 1995-10-20 1997-05-02 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する方法
JPH1198534A (ja) * 1997-09-24 1999-04-09 Sanyo Electric Co Ltd 3次元映像生成方法
JP2000092516A (ja) * 1998-09-17 2000-03-31 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124935A (ja) * 2009-12-14 2011-06-23 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9088774B2 (en) 2010-02-12 2015-07-21 Sony Corporation Image processing apparatus, image processing method and program
WO2012029371A1 (ja) * 2010-08-30 2012-03-08 シャープ株式会社 立体画像生成方法、立体画像生成装置、およびそれを備える表示装置
EP2461594A2 (en) 2010-12-02 2012-06-06 Sony Corporation Image processing device, image processing method, and program
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101856805B1 (ko) * 2010-12-09 2018-06-20 소니 주식회사 화상 처리 장치 및 화상 처리 방법, 및 프로그램
US9922441B2 (en) 2010-12-09 2018-03-20 Saturn Licensing Llc Image processing device, image processing method, and program
KR101279129B1 (ko) 2010-12-09 2013-06-26 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
WO2012077420A1 (ja) * 2010-12-09 2012-06-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
KR20130137000A (ko) * 2010-12-09 2013-12-13 소니 주식회사 화상 처리 장치 및 화상 처리 방법, 및 프로그램
JP2012147409A (ja) * 2010-12-21 2012-08-02 National Institute Of Advanced Industrial & Technology 画像生成装置、画像生成方法、及びプログラム
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
EP2469870A2 (en) 2010-12-27 2012-06-27 Sony Corporation Image processing device, image processing method, and program
JP2013005259A (ja) * 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8988424B2 (en) 2011-07-21 2015-03-24 Sony Corporation Image processing apparatus, image processing method, and program for generating multi-viewpoint images
US9392257B2 (en) 2011-11-28 2016-07-12 Sony Corporation Image processing device and method, recording medium, and program
JP2013115532A (ja) * 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム
US10424049B2 (en) 2011-11-28 2019-09-24 Sony Corporation Image processing device, method, and recording medium
WO2013080697A1 (ja) 2011-11-29 2013-06-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5343159B1 (ja) * 2012-09-21 2013-11-13 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
JP2017163373A (ja) * 2016-03-10 2017-09-14 日本電信電話株式会社 装置、投影装置、表示装置、画像生成装置、それらの方法、プログラム、およびデータ構造
US10972718B2 (en) 2016-09-23 2021-04-06 Nippon Telegraph And Telephone Corporation Image generation apparatus, image generation method, data structure, and program
CN109716761A (zh) * 2016-09-23 2019-05-03 日本电信电话株式会社 图像生成装置、图像生成方法、数据结构以及程序
JPWO2018056086A1 (ja) * 2016-09-23 2019-08-15 日本電信電話株式会社 画像生成装置、画像生成方法、データ構造、およびプログラム
CN109716761B (zh) * 2016-09-23 2020-12-08 日本电信电话株式会社 图像生成装置、图像生成方法以及记录介质
WO2018056086A1 (ja) * 2016-09-23 2018-03-29 日本電信電話株式会社 画像生成装置、画像生成方法、データ構造、およびプログラム
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造
WO2020240827A1 (ja) * 2019-05-31 2020-12-03 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
JPWO2020240827A1 (ja) * 2019-05-31 2020-12-03
JP7218801B2 (ja) 2019-05-31 2023-02-07 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
WO2023042266A1 (ja) * 2021-09-14 2023-03-23 日本電信電話株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
WO2024013850A1 (ja) * 2022-07-12 2024-01-18 日本電信電話株式会社 ステレオ映像生成装置、ステレオ映像生成方法、及びプログラム

Also Published As

Publication number Publication date
CN103763539A (zh) 2014-04-30
US8860784B2 (en) 2014-10-14
EP2152011A3 (en) 2011-03-09
US20100033554A1 (en) 2010-02-11
CN101646095A (zh) 2010-02-10
EP2152011A2 (en) 2010-02-10
CN101646095B (zh) 2014-01-01
CN103763539B (zh) 2016-05-18
JP5347717B2 (ja) 2013-11-20

Similar Documents

Publication Publication Date Title
JP5347717B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5521913B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5387377B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP4098235B2 (ja) ステレオスコピック画像処理機器および方法
JP5500066B2 (ja) 画像処理方法、画像処理装置及びプログラム
US9380284B2 (en) Image processing method, image processing device and recording medium
JP2012120057A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20120163701A1 (en) Image processing device, image processing method, and program
TWI428007B (zh) 視訊處理裝置及方法
JP2000209614A (ja) 立体映像システム
JP2011176800A (ja) 画像処理装置、立体表示装置及び画像処理方法
US9088774B2 (en) Image processing apparatus, image processing method and program
JP5569635B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JPH0863615A (ja) 2次元画像の3次元化方法
JP5794335B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
JP5254297B2 (ja) 画像処理装置
Lee et al. View extrapolation method using depth map for 3D video systems
US9185381B2 (en) Backward-compatible stereo image processing system and method of generating a backward-compatible stereo image
JP2014011492A (ja) 画像処理装置および画像処理方法
JP2012213116A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R151 Written notification of patent or utility model registration

Ref document number: 5347717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees