JP5521913B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP5521913B2
JP5521913B2 JP2010196486A JP2010196486A JP5521913B2 JP 5521913 B2 JP5521913 B2 JP 5521913B2 JP 2010196486 A JP2010196486 A JP 2010196486A JP 2010196486 A JP2010196486 A JP 2010196486A JP 5521913 B2 JP5521913 B2 JP 5521913B2
Authority
JP
Japan
Prior art keywords
image
signal
eye
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010196486A
Other languages
English (en)
Other versions
JP2011120210A (ja
Inventor
寿夫 山崎
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010196486A priority Critical patent/JP5521913B2/ja
Priority to US12/906,367 priority patent/US20110096147A1/en
Priority to CN201010530224.5A priority patent/CN102055998B/zh
Publication of JP2011120210A publication Critical patent/JP2011120210A/ja
Application granted granted Critical
Publication of JP5521913B2 publication Critical patent/JP5521913B2/ja
Priority to US15/361,940 priority patent/US10313660B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、および画像処理方法、並びにプログラムに関し、特に2次元画像に対する画像変換を実行してステレオ視(立体視)に対応した両眼視差画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
2次元画像をステレオ視(立体視)に対応した両眼視差画像に変換する装置および方法について従来から様々な提案がなされている。2次元画像に基づいて生成された両眼視差画像は、左眼で観察する左眼用画像と右眼で観察する右眼用画像のペアによって構成される。これらの左眼用画像と右眼用画像のペアによって構成される両眼視差画像を、左眼用画像と右眼用画像をそれぞれ分離して観察者の左眼と右眼に提示することを可能とした表示装置に表示することで、観察者は画像を立体画像として知覚することができる。
このような画像の生成や表示処理に関して開示した従来技術には以下のようなものがある。
例えば、特許文献1には、水平方向に動きがある動画像に対する画像処理構成を開示している。具体的には左眼用画像または右眼用画像の一方に原画像を出力し、他方にはフィールド単位で遅延させた画像を出力する構成である。このような画像出力制御により、水平に移動する物体を背景よりも手前に知覚させるものである。
また、特許文献2は、静止画像や動きの少ない画像に対して、左眼用画像と右眼用画像を所定量だけ水平方向にずらすことにより、画像が浮き上がったように知覚させる装置を提案している。
また、特許文献3は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
また、特許文献4には、特許文献3と同様にして、画像の特徴量から算出される遅延量に基づいて、左眼用画像と右眼用画像の水平遅延量を変化させながら、水平遅延量に制限を与えることにより必要以上に網膜像差が生じないようにすることで眼の疲労度を防ぐ提案がなされている。
さらに、特許文献5には、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法が提案されている。
ところで、上記の従来技術には以下に示すような問題がある。
特許文献1に記載の画像変換装置では、水平方向に一定の速度で動く物体に対してのみ良好な立体視が可能である。複数の動被写体が写っているような画像や、複雑な動きが含まれる画像においては両眼視差が正しく設定されず、不自然な位置に物体が配置されたり、網膜像差が大きくなりすぎるために立体視が成立しなくなることが考えられる。
また、特許文献2に記載の画像変換装置では、静止画や動きの少ない画像に対しては、画面全体をずらすのみであり、画像中の物体の前後関係を表現することは出来ない。
特許文献3、および特許文献4に記載の画像変換装置では、画像の特徴量から擬似的な奥行きを推定するが、推定は画面前方にある物体の先鋭度が高い、輝度が高い、彩度が高いなどの仮定に基づいており、必ずしも正しい推定が行われるとは限らない。このため、奥行き推定を誤った物体に対しては誤った網膜像差が与えられるため、誤った位置に配置されてしまう。
特許文献5に記載の画像変換装置は、画像の構造を比較的単純な有限の構造に当てはめる構成であり、不自然な奥行きが発生することは抑制される。しかしながら、上記の全ての従来手法に共通する問題であるが、生成された両眼視差画像には、比較的大きな網膜像差が発生する。この両眼視差画像は、立体表示装置を利用して立体表示されるが、一般的には偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式、または液晶シャッタにより時間的に左右分離するアクティブ眼鏡方式など、立体視用の特殊な眼鏡を装着して画像を観察する立体表示装置が利用される。
大きな網膜像差を与えられた両眼視差画像を見る場合、このような立体視用の眼鏡をかけた状態では網膜像差に従った立体感を知覚することが出来る。しかし、眼鏡をはずした状態で、画面をみると左右の画像が大きく重なった2重の画像が見えてしまい、通常の2次元画像として観察することはできない。つまり、これら従来の画像変換装置により変換された画像は、眼鏡をかけた状態でしか鑑賞することができなかった。
また、大きな網膜像差は、観察者の疲れにも影響すると考えられる。例えば特許文献6には、左眼と右眼の画像が大きくずれている場合には、現実世界での見え方に対して、輻輳角の制御と水晶体の調整に矛盾が生じ、この矛盾が両眼視差を用いた立体視における疲労に繋がっているとの記述がある。
また、特許文献3、特許文献4、および特許文献5に記載の画像変換装置では、画像から擬似的な奥行きを推定しているが、1枚の画像から詳細な奥行きを検出することは難しく、たとえば、樹木の枝や電線、髪の毛のような微細な構造に対する奥行きの推定を行うことは容易ではない。従って、これらの微細な被写体に立体感を持たせることはできなかった。
特開平9−107562号公報 特開平8−30806号公報 特開平10−51812号公報 特開2000−209614号公報 特開2005−151534号公報 特開平6−194602号公報
本発明は、例えば上記の問題を解決し、奥行き推定の誤りにより誤った立体感の発生を抑制し、左右の画像が合成された場合に原画像、または原画像に近い画像を復元可能とする。すなわち、立体視対応の眼鏡をはずした状態では通常の2次元画像として鑑賞することが可能であり、かつ観察者の疲労の少ない両眼視差画像の生成、提示を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することにある。
本発明の第1の側面は、
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、
入力画像信号の空間的な特徴量を抽出し、前記特徴量を適用した画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成であり、前記入力画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて異なる態様の画像変換処理を実行する画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、入力画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記入力画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記入力画像信号に前記特徴量を加算して左眼用画像または右眼用画像を生成する処理と、前記入力画像信号から前記特徴量を減算して左眼用画像または右眼用画像を生成する処理を切り替えて処理を実行する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記所定領域単位の距離と前記予め規定した閾値との関係が、距離≦閾値の場合には、左眼用画像信号を前記入力画像信号から前記特徴量を減算した信号、右眼用画像信号を前記入力画像信号に前記特徴量を加算した信号として生成し、距離>閾値の場合には、左眼用画像信号を前記入力画像信号に前記特徴量を加算した信号、右眼用画像信号を前記入力画像信号から前記特徴量を減算した信号として生成する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記所定領域単位の距離情報に応じて前記入力画像信号と前記特徴量との加算処理と減算処理を入れ替える処理を行い、知覚範囲を表示部の前後領域に拡大した左眼用画像と右眼用画像を生成する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成した画像を表示する画像表示部を有する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である。
さらに、本発明の第2の側面は、
2次元画像信号を入力する画像入力部と、
前記画像入力部から出力される画像信号を入力して、立体視を実現するための左眼用画像または右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、
左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定とした左眼用画像と右眼用画像を生成する処理を行う構成であり、前記入力画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて異なる態様の画像変換処理を実行する画像処理装置にある。
さらに、本発明の第3の側面は、
画像処理装置における画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
画像変換部が、前記画像入力部から出力される画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップは、
入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行うステップであり、前記入力画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて異なる態様の画像変換処理を実行するステップである画像処理方法にある。
さらに、本発明の第4の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
画像変換部に、前記画像入力部から出力される画像信号を入力させて、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせるステップであり、前記入力画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて異なる態様の画像変換処理を実行するステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、画像変換部が入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号の輝度微分信号、あるいは輝度微分信号を非線形変換して生成した信号を特徴量とする。入力画像信号に対してこの特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する。さらに、画素あるいは所定領域単位の距離情報に応じて加算処理と減算処理を入れ替え、知覚範囲を表示部の前後領域に拡大する。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像入力部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像入力部の一処理例として、入力画像が静止画像である場合の処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像入力部の一処理例として、入力画像が動画像である場合の処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する画像信号に対する非線形変換処理の一例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部内の画像合成部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 発明の一実施例に係る画像処理装置の生成する右眼用画像と左眼用画像の網膜像差について説明する図である。 右眼用画像と左眼用画像の視差の設定と知覚画像について説明する図である。 右眼用画像と左眼用画像の視差の設定と知覚画像について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 右眼用画像と左眼用画像の視差の設定と知覚画像について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する左眼用画像の生成処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する右眼用画像の生成処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する画像信号に対する非線形変換処理の一例について説明する図である。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。
図1は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部2が対応していればどのような色空間でも構わない。
画像入力部110から出力されたビデオデータは、色空間変換部120に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータがY,Cb,Cr色空間に従う場合には、色空間変換部120は、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部120は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部120から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部120から出力されたビデオデータは、画像変換部130に入力される。画像変換部130は、後述する処理によって左眼用と右眼用の両眼視差画像を生成し、立体表示装置の形式に従ってこれらの画像を合成して出力する。すなわち画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
画像変換部130から出力されたビデオデータは、色空間逆変換部140に入力され、Y,Cb,Cr色空間から出力画像フォーマットに従った色空間へ変換される。このとき、出力画像フォーマットがY,Cb,Cr色空間に従う場合には、色空間逆変換部140は、色空間の変換を行わずに出力する。このように図1には、色空間変換部120、色空間逆変換部140を有する構成を示しているが、これらの構成は、必須構成ではなく、省略した構成も可能である。
色空間逆変換部140から出力されたビデオデータは、画像出力部150に入力される。画像出力部150は、画像変換部130で変換された両眼視差画像を表示して立体視を実現することが可能な外部接続した立体表示装置において受信可能なビデオデータに変換して出力する。
なお、本実施例においては、静止画像を入力した場合、画像入力部110においてビデオデータに変換する方法を記載しているが、この方法に限らず、1枚の静止画像から2枚の左眼用画像と右眼用画像に変換し、2枚の静止画像として例えばメモリカードなどにファイル出力する構成にしても構わない。
図2は、画像入力部110の一実施例の構成を示すブロック図である。画像入力部110は、静止画像ファイルなどを入力するためのメモリカードインタフェース111、映像機器を直接接続するためのUSBインタフェース112、ビデオ信号を入力するためのビデオインタフェース113、フレームメモリ114、デコーダ115、ビデオ出力部116で構成されている。
画像入力部110における処理の一例として、静止画像を入力する場合の処理シーケンスに関して図3に示すフローチャートを参照して説明する。
ステップS101において、画像入力部110は、静止画像の入力を開始する。
ステップS102において、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS104に進み、メモリカードが挿入されていない場合にはステップ103に進む。
ステップS103では、画像入力部110は、USBインタフェース112に静止画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS105に進み、USB機器が接続されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS104において、画像入力部110は、メモリカードに記録されている静止画像ファイルから画像データを読み込む。この際、メモリカード内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS105では、画像入力部110は、USBインタフェースに接続された外部機器から静止画像データを読み込む。このとき、外部機器内の静止画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に静止画像ファイルを選択しても良い。
ステップS106では、画像入力部110は、ステップS104、またはステップS105において読み込まれた静止画像データをフレームメモリ114に記憶する。
ステップS107において、画像入力部110は、図示しない制御部によりフレームメモリ114から静止画像データを読み出す。このとき、読み出しアドレスはステップS106において記憶された画像データの先頭を示す。
ステップS108において、画像入力部110は、静止画像のデコード処理を行う。静止画像データは、JPEG(Joint Photographic Experts Group)などで規定されたフォーマットに従って画像圧縮されていることが一般的であるため、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドの画像データを復元する。
ステップS109では、画像入力部110は、デコードされた静止画像データをビデオデータの1フレームとして出力する。ここで、ビデオデータのフォーマットは、画像出力部150で出力されるフォーマットに従う。つまり、画像出力部150においてHD(High Definition)解像度、60フレーム毎秒のビデオデータとして出力される場合には、図示しない制御部においてHD解像度、60フレーム毎秒のビデオ同期信号を生成し、この信号の有効領域内に静止画像を貼り付けて出力する。
ステップS110では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像入力処理を終了する。画像出力処理が終了していない場合には、ステップS111に進む。
ステップS111において、画像入力部110は、フレームメモリ114の読み出しアドレスを初期化し、ステップS106で記憶した静止画像データの先頭を示すようにする。ステップS111のアドレス初期化が終了すると、ステップS107に進み、以降、ステップS107〜ステップS111の処理を繰り返す。
このようにして、画像入力部110は、静止画像が入力された場合には、同じ画像が連続したビデオデータへの変換を行う。
次に、画像入力部110における処理の一例として、動画像を入力する場合の処理シーケンスに関して図4に示すフローチャートを参照して説明する。
ステップS201において、画像入力部110は、動画像の入力を開始する。
ステップS202において、画像入力部110は、ビデオインタフェース113にビデオ信号が入力されているかを確認し、ビデオインタフェースから動画像データを入力するかどうかを判断する。ビデオ信号が入力されている場合にはステップS205に進み、ビデオ信号が入力されていない場合にはステップS203に進む。
ステップS203では、画像入力部は、USBインタフェース112に動画像入力が可能な外部機器が接続されているかどうかを確認し、USBインタフェース112から動画像データを入力するかどうかを判断する。USB機器が接続されている場合にはステップS206に進み、USB機器が接続されていない場合にはステップS204に進む。
ステップS204では、画像入力部110は、メモリカードインタフェース111にメモリカードが挿入されているかどうかを確認し、メモリカードから動画像データを入力するかどうかを判断する。メモリカードが挿入されている場合にはステップS207に進み、メモリカードが挿入されていない場合には、画像入力処理を終了する。
ここで、どの媒体から動画像データを入力するかの判断には、図示しない操作部を利用して、入力装置を指示する方法でも構わない。
ステップS205において、画像入力部110は、ビデオインタフェース113からビデオデータを読み込む。ビデオインタフェース113は、DVI(Digital Video Interface)、HDMI(High−Definition Multimedia Interface)、HDSDI(High−Definition Serial Digital Interface)などのデジタルビデオ伝送方式で伝送されるビデオ信号や、NTSC(National Television Standards Committee)方式、コンポーネント方式などのアナログビデオ伝送方式で伝送されるビデオ信号が入力される。ビデオインタフェース113は、アナログビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換した後、図示しないA/D変換器によりデジタル信号に変換する。一方、デジタルビデオ信号が入力された場合には、復調処理によりベースバンド信号に変換する。
ステップS206において、画像入力部110は、USBインタフェース112に接続された外部機器から動画像データを読み込む。このとき、外部機器内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ステップS207では、画像入力部110は、メモリカードに記録されている動画像ファイルから画像データを読み込む。この際、メモリカード内の動画像ファイルの選択は、図示しない操作部を用いて行っても良いし、何らかの基準で決められた順番に従って自動的に動画像ファイルを選択しても良い。
ここで、USBインタフェース112を介して入力される動画像データや、メモリカードに記録されている動画像データは、MPEG(Moving Picture Experts Group)などで規定された動画像圧縮方式により圧縮されたストリームデータである。このような圧縮方式は、フレームメモリを用いたデコード処理を要するため、ステップS208では、これらのストリームデータをフレームメモリ114に記憶する。
ステップS209において、画像入力部110は、図示しない制御部によりフレームメモリ114から動画像データを読み出す。
ステップS210において、画像入力部110は、動画像のデコード処理を行う。前述の通り、フレームメモリ114に記憶されている動画像データは、MPEGなどで圧縮されたストリームデータであるので、デコーダ115は、画像フォーマットに従った画像伸張処理を実施し、ベースバンドのビデオデータを復元する。
ステップS211では、ビデオ出力部116は、ビデオインタフェース113から出力されるビデオデータ、または、デコーダ115から出力されるビデオデータのいずれかを内部データ形式によりビデオ出力する。
図5は、画像変換部130の一実施例の構成を示すブロック図である。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。画像変換部130は、微分器131、非線形変換部132、および画像合成部133から構成される。
微分器131は、画像変換部130に入力されたビデオデータから輝度信号を取り出し、輝度信号に対する微分信号を生成する。具体的には、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
非線形変換部132は、微分器131から出力される微分信号を非線形的に変換し、視差強調信号として出力する。
図6は、非線形変換部132において実行する非線形変換処理の一例を示している。横軸が、微分器131からの入力信号であり輝度微分信号である。縦軸が、非線形変換部132における非線形変換処理後の出力を示している。非線形変換部132は、入力された微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号(Out)を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
f(x)=xβ
上記式に示されるような指数関数を用いる。βは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部132における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
図25に非線形変換部132において実行する非線形変換処理の別例を示す。図6と同様に、横軸が、微分器131からの入力信号であり輝度微分信号である。縦軸が、非線形変換部132における非線形変換処理後の出力を示している。非線形変換部132は、入力された微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号(Out)を出力する。すなわちOut=f(In)とする。図25に示す例は、関数f(x)として、以下に示す数式10に示す関数f(x)を用いた場合の例である。gain、γA、γB、Daは予め設定した係数であり、様々な値に設定可能である。
このような非線形変換処理を行う狙いは、より良い3D画像を生成することにある。例えば、図25に示す非線形変換処理では、入力された微分信号(In)が任意のスレッショルドDaを超えると視差強調信号(Out)を抑制する方向に働く。この効果により、最終的に生成される右目用画像信号と左目用画像信号の不必要な高域強調を抑えることができ、同時に生成される右目用画像信号と左目用画像信号の奥行き感を強調する効果も生じる。
画像合成部133は、非線形変換部132から出力される視差強調信号と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
なお、図5に点線で示すように、非線形変換部132の変換処理を省略し、微分器131の生成した微分信号を画像合成部133に直接入力して、画像合成部133が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。
このように、画像合成部133は、入力画像信号の空間的な特徴量として、微分器131の生成した微分信号、または、非線形変換部132から出力される視差強調信号を適用して左眼用画像と、右眼用画像を生成する処理を行う。
画像合成部133は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して左眼用画像と、右眼用画像を生成する処理を行う。
図7は、画像合成部133の一実施例の構成を示すブロック図である。画像合成部133は、加算器134、減算器135、距離情報(距離画像)生成部136、セレクタ137を有する。
距離情報(距離画像)生成部136は、処理対象とする画像の構成画素単位、あるいは予め規定した複数画素から構成されるブロック等の所定領域単位で、撮影位置(カメラ位置)からの距離を算出または取得してセレクタ137に出力する。具体的には、例えば距離を輝度レベルで表した距離画像を生成してセレクタ137に出力する。なお、画像の構成画素あるいは所定領域単位の距離の取得または生成手法としては既存の公知技術を用いることが可能である。例えば、画像生成時にレーザーレンジスキャナ等の距離計測機器を使い、算出した距離情報を画像の属性情報として画像に付属させて、これを取得する。あるいは画像の解析によって距離を算出する公知の手法を適用して画素単位あるいは所定領域単位の距離を算出する。
距離情報(距離画像)生成部136の取得または生成した距離情報はセレクタ137に出力される。セレクタ137は、予め設定した距離閾値(スレッショルド)と距離画像生成部136から出力された現在処理中画素の距離(カメラからの距離)を比較する。この比較結果に応じて、左眼用画像(L画像)と右眼用画像(R画像)を加算器134の出力、あるいは減算器135の出力のいずれにするかを決定して出力する。
加算器134、減算器135は、入力信号と微分信号を非線形変換した視差強調信号を加算、または減算し出力する。すなわち、
加算器134は、入力信号+視差強調信号、
減算器135は、入力信号−視差強調信号、
これらの信号を生成して出力する。
セレクタ137は、予め設定した距離閾値(スレッショルド)と距離画像生成部136から出力された現在処理中画素の距離(カメラからの距離)を比較し、以下に示す表1に従って、加算器134の出力と減算器135の出力を左眼用画像(L画像)または右眼用画像(R画像)として出力する。
上記表1に示すように、画像合成部133は、距離画像生成部136からの距離情報に応じて、左眼用画像(L画像)と右眼用画像(R画像)を以下のように設定して出力する。
撮影位置からの距離≦閾値(スレッショルド)
の場合、
左眼用画像(L画像)=入力信号−視差強調信号(減算器の出力)
右眼用画像(R画像)=入力信号+視差強調信号(加算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として出力する。
一方、
撮影位置からの距離>閾値(スレッショルド)
の場合、
左眼用画像(L画像)=入力信号+視差強調信号(加算器の出力)
右眼用画像(R画像)=入力信号−視差強調信号(減算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として出力する。
図8を参照して、画像合成部133において実行する画像合成処理の一例について説明する。図8に示す処理は、上記の表1における撮影位置からの距離が、
距離>閾値(スレッショルド)
この場合の画素領域に対応する処理である。この場合、画像合成部133は、
左眼用画像(L画像)=入力信号+視差強調信号(加算器の出力)
右眼用画像(R画像)=入力信号−視差強調信号(減算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として生成して出力する。
図8には、上から順に、
(a)入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
(a)入力信号は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
(b)微分信号は、(a)入力信号の微分結果である。この微分信号は、図5に示す画像変換部130の微分器131において生成される信号である。
微分器131の生成する微分信号は、図に示すとおり、(a)入力信号の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)右眼用画像信号、(d)左眼用画像信号は、図5に示す画像変換部130の画像合成部133において生成する信号である。画像合成部133は、(a)入力信号と、(b)微分信号を非線形変換部132において非線形変換した結果(非線形変換部132の出力)である視差強調信号とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図8(b)に示す微分信号を非線形変換した視差強調信号の信号レベルを(E)とする。
画像合成部133は、(a)入力信号に相当するビデオデータ(S)と、(b)微分信号を非線形変換した視差強調信号(E)を受け取り、例えば以下の(式1)により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E
Left=S+E
・・・・・(式1)
ここで、画像合成部133は、(式1)のように左眼用画像信号(Left)と右眼用画像信号(Right)の両方を変換せずに、いずれか一方の信号に対してのみ変換をかけるようにしても構わない。
すなわち、
Right=S−E
Left=S
このような信号の組み合わせとしてもよい。
あるいは、
Right=S
Left=S+E
このような信号の組み合わせとしてもよい。
このような処理によって、右眼用画像信号(Right)と、左眼用画像信号(Left)には、網膜像差が発生し奥行きを知覚させる画像を得ることができる。なお、網膜像差と奥行き知覚との関係については、図13以下を参照して後段で説明する。
なお、前述したように、非線形変換部132の変換処理を省略し、微分器131の生成した微分信号を画像合成部133に直接入力(図5の点線)して、画像合成133が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。この場合は、上記の視差強調信号(E)は微分信号に置き換えられる。
このように、画像合成部133は、入力画像信号の空間的な特徴量を抽出して入力画像信号に対して前記特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。特徴量は、入力画像信号の輝度微分信号、あるいはその非線形変換処理によって生成する視差強調信号である。
図8(c)右眼用画像信号(Right)は、(a)入力信号から、(b)微分信号を非線形変換した視差強調信号(E)を減算して生成した信号である。
(c)右眼用画像信号(Right)は、図8(c)右眼用画像信号に示すように以下のような信号特性(c1)〜(c3)を持つ信号として生成される。
(信号特性)
(c1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(c2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(c3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
また、図8(d)左眼用画像信号(Left)は、(a)入力信号に、(b)微分信号を非線形変換した視差強調信号(E)を加算して生成した信号である。
(d)左眼用画像信号(Left)は、図8(d)左眼用画像信号に示すように以下のような信号特性(d1)〜(d3)を持つ信号として生成される。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d3)(b)微分信号が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
画像合成部133は、上述したように、(a)入力信号と、(b)微分信号を非線形変換部132において非線形変換した結果(非線形変換部132の出力)である視差強調信号とを合成して(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
なお、画像合成部133は、例えば、変換対象となる入力信号が静止画であれば、静止画を構成する1フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。
また、変換対象となる入力信号が動画であれば、動画を構成する各フレーム画像について、上記の式1に従った信号合成処理によって、(c)右眼用画像信号と、(d)左眼用画像信号を生成する。ただし、動画像の場合は、最終的に画像表示を実行する画像出力部150(図1参照)や表示装置の制御方式に従って、右眼用画像信号と左眼用画像信号の生成態様を変更する設定としてもよい。以下、図9以下を参照して変換対象となる入力信号が動画像(ビデオデータ)である場合の画像合成部133の実行する複数の処理例について説明する。
まず、変換対象となる入力信号が動画像(ビデオデータ)の場合の画像合成部133の実行する基本的な処理例について図9を参照して説明する。図9に示す処理例は、画像合成部133が、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)のすべてについて、左眼用画像(Left)と右眼用画像(Right)の両画像を生成して出力する処理例である。
画像合成部133は、図9に示す(a)入力画像フレームのすべてのフレームについて、(a)入力画像フレームの輝度信号と、(b)微分画像信号の非線形変換結果である視差強調信号とを合成して、図9に示す(c)右眼用画像信号と、(d)左眼用画像信号を生成して出力する。この場合、画像合成部133は、2系統のビデオ信号を出力する。
合成処理は、例えば先に説明した式(式1)に従って行われる。すなわち、図8(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
図9に示す基本処理例では、画像合成部133は、全てのフレームに対応する右眼用画像と、左眼用画像の2系統のビデオ信号を出力する。これらの2系統の信号を受領した画像出力部150(図1参照)は、立体視を実現する表示装置にこれらのデータを出力する。表示装置は、立体視を実現する各種の表示方式に従って出力制御を行う。表示装置の表示方式とは、例えば、偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式、あるいは、液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式などである。表示装置は、画像合成部133の生成した2系統のビデオ信号を利用して上記いずれかの表示方式に従った画像を表示する。
なお、画像表示方式が予め決定されている場合は、画像合成部133が、各画像出力方式に応じた出力画像信号を生成して出力する設定とすることができる。以下、図10〜図12を参照して、3つの異なる表示方式に応じた画像合成部133の処理例について説明する。
最終的に画像表示を実行する表示装置の表示方式は以下の3種類である。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図10)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速とした方式(図11)
これは、図10と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図12)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
まず、図10を参照して、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部133の処理例について説明する。
この画像表示方式の場合、画像合成部133は、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)について、左眼用画像(Left)と右眼用画像(Right)を各フレーム毎に切り替えて生成して出力する。
入力するビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像および右眼用画像(または、右眼用画像および左眼用画像)として設定して出力する。出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
画像合成部133は、このような時間分割方式の立体表示装置に出力するため、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)に対する画像合成処理をフレーム単位で左眼用画像と右眼用画像を切り替えて実行する。すなわち、図10(c),(d)に示すように、左眼用画像(Left)の合成と、右眼用画像(Right)の合成をフレーム単位で交互に実施して出力する。
図10に示す例では、フレームnでは、右眼用画像を先に説明した式(式1)に従って生成する。すなわち、図10(a)入力信号のフレームnのビデオデータの輝度レベルを(S)とし、図10(b)に示すフレームnの微分信号を非線形変換した視差強調信号の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)を生成する。
右眼用画像信号:Right=S−E
次のフレームn+1では、左眼用画像を先に説明した式(式1)に従って生成する。すなわち、図10(a)入力信号のフレームn+1のビデオデータの輝度レベルを(S)とし、図10(b)に示すフレームn+1の微分信号を非線形変換した視差強調信号の信号レベルを(E)としたとき、以下の式により左眼用画像信号(Left)を生成する。
左眼用画像信号:Left=S+E
以降、フレームn+2では右眼用画像、フレームn+3では左眼用画像、以下、交互に各フレーム毎に右眼用画像と左眼用画像を、前述の式1に従った画像合成処理によって生成して出力する。この方式では、画像合成部133は、各フレームに対応して右眼用画像または左眼用画像の1画像を生成して出力することになる。すなわち1系統のビデオデータを出力する。
出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
図11は、図10と同様、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部133の処理例である。ただし、この処理例は、図10に示す処理と異なり、入力ビデオデータの各フレームに対して、左眼用画像(Left)と右眼用画像(Right)の両画像を前述の式1に従った合成処理により合成して出力する。
画像出力を行う表示装置においては、入力ビデオデータの2倍のフレームレートで、左眼用画像と右眼用画像を時間分割に交互出力する。
この処理では、画像合成部133は、図11に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。さらに、次のフレーム、すなわち、(a)入力画像のフレームn+1とその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
このようにして1つのフレームから左眼用画像と右眼用画像を生成する。1フレームから生成した2枚の画像、すなわち、右眼用画像と左眼用画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。
画像出力部150は、表示装置において、図11(a)に示す入力画像のフレームレートの2倍のフレームレートで表示されるように出力する。なお、この表示タイミングに併せて画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉も同期して制御する。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるようにする。この方式では、画像合成部133は、1系統の入力ビデオデータの2倍のフレームレートのビデオデータを出力する。
図12は、空間分割方式の立体表示装置に対して出力する場合の画像合成部133の処理例を示している。空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示される方式である。すなわち、メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図12(c)に示す右眼用画像のみが観察され、左眼には図12(d)に示す左眼用画像のみが観察される。
この処理では、画像合成部133は、図12に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(b)微分画像から生成した視差強調信号から、前述の式1を適用して、(c)右眼用画像と、(d)左眼用画像を生成する。
さらに、画像合成部133は、図12に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する。画像合成部133は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成して出力する。
図12に示す(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の有効領域(黒ライン以外の画像表示部)を連結して生成した画像である。すなわち、(d)両眼視差画像は、(c)右眼用画像と(d)左眼用画像の各ラインデータを交互に含む画像である。画像合成部133は、このようにして(d)両眼視差画像を生成して出力する。この方式では、画像合成部133は、入力画像と同一フレームレートの1系統のビデオデータを出力する。
画像出力部150は、空間分割方式の立体表示装置に対して、図12に示す(d)両眼視差画像を出力表示する。空間分割方式の立体表示装置は前述したように、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタが設定されている。ユーザは偏光フィルタ方式によるメガネで観察する。メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図12(c)に示す右眼用画像のみが観察され、左眼には図12(d)に示す左眼用画像のみが観察される。
図9〜図12を参照して説明した右眼用画像信号(Right)と、左眼用画像信号(Left)は、先に説明した式(式1)に従って生成される画像である。すなわち、下式に従って、右眼用画像信号(Right)と、左眼用画像信号(Left)が生成される。
Right=S−E
Left=S+E
ただし、Sは入力信号、Eは、入力信号Sの微分信号Dを非線形変換した視差強調信号である。なお、先に説明したように、視差強調信号Eは、入力信号Sの微分信号Dの非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
このような右眼用画像信号(Right)と、左眼用画像信号(Left)を生成して、これらの画像を観察者の右眼と左眼で観察することにより奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。本発明の画像処理装置100において生成する右眼用画像と左眼用画像の網膜像差について、以下、図13〜図16を参照して説明する。なお、以下において、図13〜図15では、微分信号Dに対する非線形変換処理を省略し、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号Sと、入力信号Sの微分信号Dを適用して以下の式に従って生成したと仮定して説明する。
Right=S−D
Left=S+D
図13は、微分信号の加減算により発生する網膜像差を説明する図である。ここでは、説明を簡単にするために、入力信号として、1次元の正弦波信号が入力された場合に、左眼用の信号と右眼用の信号がどのように生成されるかを示した。図の水平軸は、画像の水平方向の画素位置を表しており、垂直軸は、画素の輝度レベルを表している。
入力信号Sを以下の式(式2)で表す。
S=sinωx・・・(式2)
このとき、微分信号Dは、以下の式(式3)で表される。
D=cosωx・・・(式3)
このとき、左眼信号Lと右眼信号Rは、以下のように式(式4)、(式5)で表される。
これらの式、(式4)、(式5)から、左眼信号Lは、入力信号Sに対してπ/4だけ位相が進み、右眼信号Rは、入力信号Sに対してπ/4だけ位相が遅れている。つまり、左眼信号Lは、入力信号よりも振幅が√2倍で、角周波数ωで決まる周期の1/8だけ水平左方向にずれた信号であり、右眼信号Rは、同様に、振幅が√2倍で、周期の1/8だけ水平右方向にずれた信号となっている。このように、左眼信号Lと右眼信号Rの間ではπ/2だけの位相差が発生し、この位相差が網膜像差として知覚され、奥行きを感じることが出来る。
上述の通り、網膜像差は、角周波数ωに依存して変化する。図14は、図13と比較して、入力信号の角周波数が1/2になった場合の波形を示している。図からわかる通り、網膜像差は図13の場合の2倍になっており、両眼立体視した場合には、図13の入力信号に比較して奥に知覚される。
また、図15は、図13と比較して、入力信号の角周波数が2倍になった場合の波形を示している。図からわかる通り、網膜像差は図13の場合の1/2になっており、両眼立体視した場合には、図13の入力信号に比較して手前に知覚される。
さらに、微分信号Dの振幅を制御した場合の波形を図16に示す。図16は、微分信号Dに2倍の増幅を施した場合を示しているが、より一般化するため、制御した微分信号Fを式(式6)で示す。
F=kcosωx・・・(式6)
ここで、kは正の実数である。
なお、上記のFは、微分信号Dに対する変換処理によって生成した前述の視差強調信号Eに相当する。
このとき、左眼信号Lと右眼信号Rは、以下のように式(式7)、式(式8)で表される。
ここで、αは0〜π/2の範囲にあり、以下の式(式9)で表される。
上記式(式9)において、微分信号の増幅値kを大きくするとαは大きくなるため、入力信号Sと左眼信号L、および右眼信号Rとの位相差は大きくなる。従って、左眼信号Lと右眼信号Rの位相差も大きくなり、網膜像差が大きく知覚される。この結果、両眼立体視した場合にはより奥にあるように知覚されるようになる。
このように、本発明の画像処理装置100の生成する右眼用画像と左眼用画像は、画像の空間周波数に応じて網膜像差が変化し、空間周波数の高い領域ほど網膜像差が小さくなり、空間周波数の低い領域ほど網膜像差が大きくなるような画像である。このような画像が人間の右眼、および左眼に分離して提示された場合、人間は、網膜像差の小さい領域を手前に、網膜像差の大きい領域を奥に知覚する。
しかしながら、本発明の画像処理装置100は、上述の通り、単に局所的な空間周波数に応じた処理を行っており、画像中の個々の被写体に対してもエッジ部とテクスチャ部では異なる網膜像差が与えられている。従って、観察者は網膜像差からのみでは正確な奥行きを知覚出来ないため、画像の絵画的な特徴(構図、物体の前後関係、空間周波数)や、運動視差などを手掛かりとして、画像の大局的な奥行きは人間がこれらの画像情報から類推して知覚することが出来ると考えられる。
また、上述のとおり、主に画像のエッジ部に対して網膜像差を発生させるようにしているため、樹木の枝や電線、髪の毛といった微細な構造にも網膜像差を与えることができるため、微細な被写体の立体感を表現することも可能である。
本発明の画像処理装置は、このような特性を利用して、画像の局所的な変調処理を施すだけで、自然な立体視を実現できる両眼視差画像の生成構成を実現している。
さらに、本発明の画像処理装置は、右眼用画像(Right)と左眼用画像(Left)を先に説明した式(式1)に従って生成している。すなわち、入力信号に相当するビデオデータの輝度レベルを(S)とし、図8(b)に示す微分信号を非線形変換した視差強調信号の信号レベルを(E)としたとき、以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成している。
右眼用画像信号:Right=S−E
左眼用画像信号:Left=S+E
この式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
結果として加算信号は、入力画像と等価になる。
従って、例えば、図10、または図11を参照して説明したように時間分割方式の立体表示装置で表示する場合において、観察者であるユーザが液晶シャッタ方式のメガネを外して画像を観察すると、人間の視覚系における時間的な積分機能により左眼用画像(Left)と右眼用画像(Right)が積分された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
また、図12に示したように空間分割方式の立体表示装置で表示する場合には、偏光メガネを外した場合には、垂直方向の1画素を知覚できなくなる程度の距離から観察する場合には垂直方向の2画素が加算された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+E)+(S−E)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
このように、本発明の画像処理装置によって生成される画像は、立体表示装置を用いて表示を行うことにより、立体視用のメガネを装着した場合には立体知覚が可能であり、立体視用のメガネを非装着の場合には、変換を施していない元の2次元画像として知覚することが可能となる。
以上は、前記した表1の撮影位置からの距離が、
距離>閾値(スレッショルド)
上記式に対応する画素領域に対する処理についての説明である。
次に、
距離≦閾値(スレッショルド)
上記式に対応する画素領域に対する処理について説明する。
先に示した表1に示すように、
撮影位置からの距離≦閾値(スレッショルド)
の場合、
左眼用画像(L画像)=入力信号−視差強調信号(減算器の出力)
右眼用画像(R画像)=入力信号+視差強調信号(加算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として出力する。
この処理は、図8以下を参照して説明した撮影位置からの距離が、
距離>閾値(スレッショルド)
の場合の処理における左眼用画像(L画像)と右眼用画像(R画像)を入れ替えた処理、すなわち、図7に示すセレクタ137の処理によって、加算器134と、減算器135の出力を入れ替えた処理に相当する。
この場合、図8(c)右眼用信号が左眼用信号に、図8(d)左眼用信号が右眼用信号に入れ替わることになる。これは、図13においては、左眼用信号と右眼用信号が入れ替わることを示す。
前述の通りこの位相差が網膜残差として知覚され奥行きを感じるが、この場合、残差が丁度逆になるので、入れ替わらない場合と比較して、奥に感じていた場合は手前、手前に感じていた場合は奥へ奥行きを反転して感じることになる。
ここで、感じる奥行きが反転する境界は、撮影位置からの距離が、加算器134、減算器135の出力を切り替える距離=閾値(スレッショルド)が成立する画素となる。すなわち、距離>閾値(スレッショルド)の範囲で奥に深さを知覚していれば距離=スレッショルドの値を境界として距離<閾値(スレッショルド)の範囲で手前に深さを知覚し、切り替えを行わない処理と比較して、より広い範囲の深さを知覚することが可能となる。
この知覚構成について、図17〜図20を参照して説明する。
図17(a)に示すように、表示部の表示面上で左眼用画像と右眼用画像が一致している視差なし画像の表示を行った場合、観察者は、表示面に画像を知覚する。これは通常の2次元画像表示処理である。
立体表示、すなわち3次元画像表示処理を行う場合、左眼用画像と右眼用画像をずらして表示する。すなわち視差のある画像を表示することにより、立体的な知覚を得ることができる。
視差設定の態様としては、図17、図18に示す2つの異なる設定が可能である。すなわち、
図17(b)視差あり(視差設定例1)
図18(c)視差あり(視差設定例2)
これらの2のパターンである。
図17(b)視差あり(視差設定例1)は、図17(b)表示画像に示すように、表示面上に表示する左眼用画像を左側(観察者から見て左側)にずらし、右眼用画像を右側(観察者から見て右側)にずらした視差設定例である。この設定では、図17(b)知覚画像に示すように、観察者は、画像に対応するオブジェクトを表示面より奥(遠く)に知覚することになる。
図18(c)視差あり(視差設定例2)は、図18(c)表示画像に示すように、表示面上に表示する左眼用画像を右側(観察者から見て右側)にずらし、右眼用画像を左側(観察者から見て左側)にずらした視差設定例である。この設定では、図18(c)知覚画像に示すように、観察者は、画像に対応するオブジェクトを表示面より手前(近く)に知覚することになる。
本発明の画像処理装置は、これら図17(b)の視差設定と、図18(c)の視差設定の両者を選択適用する構成である。すなわち、図5、図7に示す画像合成部133は、先に示した表1の撮影位置からの距離と閾値(スレッショルド)との比較に応じて、これらの視差設定を切り替えて、左眼用画像と右眼用画像を生成する。
画像合成部133の実行する処理は、具体的には以下の処理となる。
撮影位置からの距離>閾値(スレッショルド)
上記判定式が成立する画素領域に対しては、
左眼用画像(L画像)=入力信号+視差強調信号(加算器の出力)
右眼用画像(R画像)=入力信号−視差強調信号(減算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として出力する。
この処理は、図8に示す(c)右目用画像と(d)左眼用画像を生成する処理となる。これは、図17(b)の視差設定例1に対応する処理となり、画像が表示面より奥(遠く)に知覚される。
一方、
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立する画素領域に対しては、
左眼用画像(L画像)=入力信号−視差強調信号(減算器の出力)
右眼用画像(R画像)=入力信号+視差強調信号(加算器の出力)
これらの出力を左眼用画像(L画像)と右眼用画像(R画像)として出力する。
この処理は、図18(c)の視差設定例2に対応する処理となり、画像が表示面より手前(近く)に知覚される。
なお、この処理において、画像合成部133において実行する画像合成処理によって生成する右眼用画像(R画像)と左眼用画像(L画像)は、図19に示す設定となる。
図19には、先に説明した図8と同様の信号、すなわち、上から順に、
(a)入力信号
(b)微分信号
(c)右眼用画像信号
(d)左眼用画像信号
これらの各信号を示している。
(a)入力信号、(b)微分信号は、先に説明した図8と同様の信号である。(a)入力信号は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
(b)微分信号は、(a)入力信号の微分結果である。この微分信号は、図5に示す画像変換部130の微分器131において生成される信号である。
微分器131の生成する微分信号は、図に示すとおり、(a)入力信号の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)右眼用画像信号、(d)左眼用画像信号は、先に説明した図8に示す(c)右眼用画像信号と(d)左眼用画像信号を入れ替えた信号となる。
これらの信号を適用することで、図18(c)の視差設定例2に対応する表示処理が実行され、観察者は画像を表示面より手前(近く)に知覚することになる。
このように、本発明の画像処理装置は、図17(b)の視差設定と、図18(c)の視差設定の両者を選択適用する。すなわち、先に説明した表1に示したように、撮影位置からの距離と閾値(スレッショルド)との比較に応じて、視差設定を切り替えた右眼用画像信号と左眼用画像信号を生成する。
図20を参照して本発明に従った画像処理装置の実行する処理についてまとめて説明する。本発明の画像処理装置は、図20(p)に示すように表示面より遠くに画像を知覚させる視差設定例2と、図20(q)に示すように表示面より近くに画像を知覚させる視差設定例1を画像の構成画素の距離情報に応じて切り替えて利用する。この結果、図20(r)に示すように、観察者は、画像を表示面の手前(近く)から表示面の奥(遠く)までの広範囲で知覚することが可能となり、より立体的な知覚を得ることができる。
次に、図21に示すフローチャートを参照して、本発明の一実施例に係る画像処理装置100の画像変換部130の実行する処理のシーケンスについて説明する。なお、図21に示すフローチャートは入力画像が動画像(ビデオデータ)である場合の処理である。
ステップS401において、微分器131(図5参照)は、画像変換部130に入力されるビデオデータのうち輝度信号に対して微分処理を行う。すなわち、図8(a)入力信号の微分処理により図8(b)微分信号を生成する。
ステップS402では、非線形変換部132(図5参照)が、微分器131から出力される微分信号に対して非線形変換処理を行う。この非線形変換処理は、例えば図6に示すようなグラフに対応した非線形変換処理である。
ステップS403以下の処理は画像合成部133の処理である。画像合成部133内の制御部は、ステップS403において、現在の入力フレームに対する左眼用画像の合成を行うかどうかを判断する。この判断処理は、画像処理装置100の出力する画像表示装置の表示方式と、画像合成部133内に設けられたフレームカウンタの値に従って判断する。フレームカウンタは、入力画像フレームのフレーム番号に対応する値を保持するカウンタである。
画像表示装置の出力方式が図10に示す時間分割出力方式の場合には、画像合成部133はフレームカウンタの値に従って左眼用画像を出力するかどうかを判断する。すなわち図10に示す時間分割出力方式の場合には、偶数フレームまたは奇数フレームのいずれかのみにおいて左眼用画像を出力するように制御を行う。フレームカウンタの値に従って左眼用画像を出力すると判断した場合は、ステップS404に進む。一方、フレームカウンタの値により右眼用画像出力のフレームであると判断した場合にはステップS405に進む。
また、図10に示す時間分割出力方式以外の場合、すなわち、図11に示す2倍のフレームレートによる時間分割出力方式、または、図12に示す空間分割出力方式、あるいは、画像表示装置側で、図9に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部133は、全ての入力フレームに対して左眼用画像を合成すると判断してステップS404に進む。
ステップS404では、画像合成部133は左眼用画像(Left)を生成する。ステップS404の左眼用画像(Left)生成処理の詳細フローを図22に示す。画像合成部133は、先に説明した表1に従って左眼用画像(Left)を生成する。
すなわち、各画素あるいは所定領域単位で撮影位置からの距離と予め設定した閾値(スレッショルド)を比較し、比較結果に応じて以下のように左眼用画像(Left)を生成する。
撮影位置からの距離≦閾値(スレッショルド)の場合には、
左眼用画像(L画像)=入力信号−視差強調信号、
撮影位置からの距離>閾値(スレッショルド)の場合には、
左眼用画像(L画像)=入力信号+視差強調信号、
これらの処理によって左眼用画像(Left)を生成する。
ステップS404の左眼用画像(Left)生成処理の詳細について、図22のフローを参照して説明する。まず、ステップS501において、各画素毎に左眼用画像(Left)生成処理が終了したか否か判定する。全ての画素について処理が終了したと判定した場合は、ステップS510に進み、ステップS404は終了し、図21に示すステップS406に進む。
ステップS501において、左眼用画像(Left)生成処理が未処理の画素があると判定した場合は、ステップS502に進む。
ステップS502では、画素あるいは所定領域単位で撮影位置からの距離と予め設定した閾値(スレッショルド)を比較する。
ステップS502において、
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立すると判定した場合(ステップS502の判定=Yes)は、
ステップS503に進む。
ステップS503では、以下の式に従って、左眼用画像を生成する。
左眼用画像(L画像)=入力信号(S)−視差強調信号(E)
上記算出式は、図7に示す画像合成部133のセレクタ137が減算器135の出力を選択して左眼用画像(L画像)として出力する処理に相当する。
一方、ステップS502において、
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立しないと判定した場合(ステップS502の判定=No)は、
ステップS504に進む。
ステップS504では、以下の式に従って、左眼用画像を生成する。
左眼用画像(L画像)=入力信号(S)+視差強調信号(E)
上記算出式は、図7に示す画像合成部133のセレクタ137が加算器134の出力を選択して左眼用画像(L画像)として出力する処理に相当する。
一方、図21に示すステップS403において、現在の入力フレームに対する左眼用画像の合成を行わないと判定した場合は、ステップS405に進み、現在の入力フレームに対する右眼用画像を生成する。
ステップS405では、画像合成部133は右眼用画像(Right)を生成する。ステップS405の右眼用画像(Right)生成処理の詳細フローを図23に示す。画像合成部133は、先に説明した表1に従って右眼用画像(Right)を生成する。
すなわち、各画素あるいは所定領域単位で撮影位置からの距離と予め設定した閾値(スレッショルド)を比較し、比較結果に応じて以下のように右眼用画像(Right)を生成する。
撮影位置からの距離≦閾値(スレッショルド)の場合には、
右眼用画像(R画像)=入力信号+視差強調信号、
撮影位置からの距離>閾値(スレッショルド)の場合には、
右眼用画像(R画像)=入力信号−視差強調信号、
これらの処理によって右眼用画像(Right)を生成する。
ステップS405の右眼用画像(Right)生成処理の詳細について、図23のフローを参照して説明する。まず、ステップS521において、各画素毎に右眼用画像(Right)生成処理が終了したか否か判定する。全ての画素について処理が終了したと判定した場合は、ステップS530に進み、ステップS405は終了し、図21に示すステップS407に進む。
ステップS521において、右眼用画像(Right)生成処理が未処理の画素があると判定した場合は、ステップS522に進む。
ステップS522では、画素あるいは所定領域単位で撮影位置からの距離と予め設定した閾値(スレッショルド)を比較する。
ステップS522において、
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立すると判定した場合(ステップS522の判定=Yes)は、
ステップS523に進む。
ステップS523では、以下の式に従って、右眼用画像を生成する。
右眼用画像(R画像)=入力信号(S)+視差強調信号(E)
上記算出式は、図7に示す画像合成部133のセレクタ137が加算器134の出力を選択して右眼用画像(R画像)として出力する処理に相当する。
一方、ステップS522において、
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立しないと判定した場合(ステップS522の判定=No)は、
ステップS524に進む。
ステップS524では、以下の式に従って、右眼用画像を生成する。
右眼用画像(R画像)=入力信号(S)−視差強調信号(E)
上記算出式は、図7に示す画像合成部133のセレクタ137が減算器135の出力を選択して右眼用画像(R画像)として出力する処理に相当する。
また、図21のステップS404において左眼用画像の生成を終了すると、ステップS406において、左眼用画像の生成フレームと同一フレームに対して右眼用画像も生成するか否かを判定する。画像処理装置の出力方式が図10に示す時間分割出力方式の場合には、各フレームにおいては左眼、右眼のいずれかの画像のみを合成するため、右眼用画像の生成は行わないと判断してステップS407に進む。
また、図10に示す時間分割出力方式以外の場合、すなわち、図11に示す2倍のフレームレートによる時間分割出力方式、または、図12に示す空間分割出力方式、あるいは、画像表示装置側で、図9に示す左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部133は、全ての入力フレームに対して右眼用画像を合成すると判断してステップS405に進む。ステップS405の処理はすでに説明した通り、前述した表1に従った右眼用画像の生成処理である。
ステップS407では、画像合成部133の制御部は、画像の縮小処理を行うかどうかを判断する。画像処理装置の出力形式が図12に示す空間分割出力方式の場合、画像縮小処理を行うと判断し、ステップS408に進む。画像処理装置の出力形式が図12に示す空間分割出力方式以外の場合、すなわち、図9に示す左眼用画像、右眼用画像の同時出力方式、図10に示す時間分割出力方式、または、図11に示す2倍のフレームレートによる時間分割出力方式のいずれかである場合には、画像縮小処理は不要であるため、ステップS410に進む。
ステップS408〜S409において、画像合成部133は、先に図12を参照して説明したように図12に示す(e)両眼視差画像を(c)右眼用画像と(d)左眼用画像から生成する。すなわち、(c)右眼用画像と(d)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する(S408)。さらに、画像合成部133は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(d)両眼視差画像を生成する(S409)。
ステップS410では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像変換処理を終了する。画像出力処理が終了していない場合には、ステップS411に進む。
ステップS411では、フレームカウントをインクリメントし、ステップS401に進み、以降、ステップS401〜ステップS410の処理を繰り返す。
なお、図21〜図23のフローの説明では右目用画像と左眼用画像の生成を入力信号(S)と視差強調信号(E)を適用して生成する例を説明したが、先に図5を参照して説明したように、非線形変換部132の変換処理を省略し、微分器131の生成した微分信号を画像合成部133に直接入力(図5の点線)して、画像合成133が、微分信号を適用して左眼用画像と、右眼用画像を生成する処理を行う構成としてもよい。この場合は、上記の視差強調信号(E)は微分信号に置き換えられる。
以上、説明の通り、本発明の一実施例の画像処理装置によれば、2次元画像データを入力とし、画像の特徴量、すなわち輝度変化部分であるエッジ部を抽出して、エッジ部の画像態様を変更すことで擬似的な右眼用画像と左眼用画像を生成する構成である。この構成より、立体表示装置において好適な両眼視差画像を生成することが可能となる。
さらに、本発明による画像処理装置では、先に表1を参照して説明したように、入力信号(S)と視差強調信号(E)としたとき、以下の式により右眼用画像信号と左眼用画像信号を生成する。
撮影位置からの距離≦閾値(スレッショルド)
上記判定式が成立する画素領域の場合、
左眼用画像信号:Left=S−E
右眼用画像信号:Right=S+E
撮影位置からの距離>閾値(スレッショルド)
上記判定式が成立する画素領域の場合、
左眼用画像信号:Left=S+E
右眼用画像信号:Right=S−E
これら、左眼用画像信号と右眼用画像信号の生成式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+E)+(S−E)=S
上記式から明らかなように加算信号は入力画像と等価になる。
このように、加算信号は入力信号に等しくなる、またはほぼ等しくなる設定である。従って、立体表示装置に表示した画像をユーザが見る場合に、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となる。すなわち、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像変換装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
図1に示す画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図24は、画像表示部を持つ画像処理装置の一実施例を示す図である。
画像表示装置300は、画像入力部310において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部32が対応していればどのような色空間でも構わない。
画像入力部310から出力されたビデオデータは、色空間変換部320に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータがY,Cb,Cr色空間に従う場合には、色空間変換部320、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部320は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部320から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部320から出力されたビデオデータは、画像変換部330に入力される。画像変換部330は、先に説明した処理によって左眼用と右眼用の両眼視差画像を生成し、画像表示部350の形式に従ってこれらの画像を合成して出力する。
画像変換部330から出力されたビデオデータは、色空間逆変換部340に入力され、Y,Cb,Cr色空間からR,G,B色空間へ変換される。
色空間逆変換部340から出力されたビデオデータは、画像表示部350に入力される。画像表示部350は、画像出力部と表示部とを兼ね備えた構成であり、以下に示す立体表示方式(時間分割方式または空間分割方式)のいずれかの方式よって画像表示を行う。
(時間分割方式)
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部350は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
(空間分割方式)
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
以上、説明の通り、本発明による画像処理装置によれば、2次元画像データを入力とし、画像の特徴量から擬似的に右眼用画像と左眼用画像を生成することにより、両眼視差を利用した立体表示を行うことが可能である。さらに、本発明による画像処理装置によれば、左眼用画像と右眼用画像を加算したときに入力画像と等価となるように画像変換を行うことにより、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となり、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像表示装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、2次元画像信号を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成する構成において、画像変換部が入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には、入力画像信号の輝度微分信号、あるいは輝度微分信号を非線形変換して生成した信号を特徴量とする。入力画像信号に対してこの特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する。さらに、画素あるいは所定領域単位の距離情報に応じて加算処理と減算処理を入れ替え、知覚範囲を表示部の前後領域に拡大する。本構成により、簡易な信号処理で、立体視の可能な画像の生成が可能となる。また、左眼用画像と右眼用画像の加算信号は、入力信号に等しくなるので、立体視用のメガネを用いないで画像を観察した場合には通常の2次元画像として観察することが可能となる。
100 画像処理装置
110 画像入力部
111 メモリカードインタフェース
112 USBインタフェース
113 ビデオインタフェース
114 フレームメモリ
115 デコーダ
116 ビデオ出力部
120 フレームメモリ
130 画像変換部
131 微分器
132 非線形変換部
133 画像合成部
134 加算器
135 減算器
136 距離情報生成部
137 セレクタ
140 色空間逆変換部
150 画像出力部
300 画像処理装置
310 画像入力部
320 フレームメモリ
330 画像変換部
140 色空間逆変換部
350 画像表示部

Claims (18)

  1. 一つの2次元画像信号に対する画像変換を実行して2つの異なる視点からの観察画像に相当する第一画像と第二画像を生成する画像変換部を有し、
    前記画像変換部は、
    2次元画像信号の空間的な特徴量を抽出し、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記特徴量を適用した異なる態様の画像変換処理を実行して前記第一画像または第二画像の少なくともいずれかの画像生成を行う構成であり、
    前記画像変換部は、
    2次元画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、2次元画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を第一画像として生成し、2次元画像信号に処理を加えない非変換信号を第二画像として生成する画像処理装置。
  2. 一つの2次元画像信号に対する画像変換を実行して2つの異なる視点からの観察画像に相当する第一画像と第二画像を生成する画像変換部を有し、
    前記画像変換部は、
    2次元画像信号の空間的な特徴量を抽出し、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記特徴量を適用した異なる態様の画像変換処理を実行して前記第一画像または第二画像の少なくともいずれかの画像生成を行う構成であり、
    前記画像変換部は、
    2次元画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、2次元画像信号に対して前記特徴量を加算した信号と減算した信号を生成し、これらの2つの信号の組を第一画像と第二画像の組として生成する画像処理装置。
  3. 一つの2次元画像信号に対する画像変換を実行して2つの異なる視点からの観察画像に相当する第一画像と第二画像を生成する画像変換部を有し、
    前記画像変換部は、
    2次元画像信号の空間的な特徴量を抽出し、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記特徴量を適用した異なる態様の画像変換処理を実行して前記第一画像または第二画像の少なくともいずれかの画像生成を行う構成であり、
    前記画像変換部は、
    2次元画像信号の輝度微分信号を抽出し、該輝度微分信号を非線形変換して生成した信号を前記特徴量として設定し、2次元画像信号に対して前記特徴量を加算した信号または減算した信号を生成し、これらの信号のいずれかを第一画像または第二画像として生成する処理を行う画像処理装置。
  4. 前記画像変換部は、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、
    前記2次元画像信号に前記特徴量を加算して第一画像または第二画像を生成する処理と、
    前記2次元画像信号から前記特徴量を減算して第一画像または第二画像を生成する処理を切り替えて処理を実行する構成である請求項1〜3いずれかに記載の画像処理装置。
  5. 前記画像変換部は、前記所定領域単位の距離と前記予め規定した閾値との関係が、
    距離≦閾値の場合には、
    第一画像信号を前記2次元画像信号から前記特徴量を減算した信号、
    第二画像信号を前記2次元画像信号に前記特徴量を加算した信号として生成し、
    距離>閾値の場合には、
    第一画像信号を前記2次元画像信号に前記特徴量を加算した信号、
    第二画像信号を前記2次元画像信号から前記特徴量を減算した信号として生成する構成である請求項1〜4いずれかに記載の画像処理装置。
  6. 前記画像変換部は、
    前記所定領域単位の距離情報に応じて前記2次元画像信号と前記特徴量との加算処理と減算処理を入れ替える処理を行い、知覚範囲を表示部の前後領域に拡大した第一画像と第二画像を生成する請求項1〜5いずれかに記載の画像処理装置。
  7. 前記画像変換部は、
    動画像を構成する各フレームに対して、第一画像と第二画像を生成する処理を行う構成である請求項1〜3いずれかに記載の画像処理装置。
  8. 前記画像処理装置は、さらに、
    前記画像変換部の生成する第一画像と第二画像の出力を行う画像出力部を有し、
    前記画像出力部は、前記画像変換部の生成する第一画像と第二画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である請求項7に記載の画像処理装置。
  9. 前記画像変換部は、
    動画像を構成する各フレームに対して、第一画像と第二画像のいずれか一方のみを交互に生成する処理を行う構成である請求項1〜3いずれかに記載の画像処理装置。
  10. 前記画像変換部は、
    動画像を構成する各フレームに対して、第一画像と第二画像を生成する処理を行うとともに、
    生成した第一画像と第二画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である請求項1〜3いずれかに記載の画像処理装置。
  11. 前記画像変換部は、
    生成する第一画像と第二画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として第一画像と第二画像を生成する処理を行う構成である請求項1〜3いずれかに記載の画像処理装置。
  12. 前記画像処理装置は、さらに、
    前記画像変換部の生成した画像を表示する画像表示部を有する構成である請求項1〜11いずれかに記載の画像処理装置。
  13. 前記画像表示部は、第一画像、および第二画像を交互に出力する時間分割方式の立体表示処理を行う構成である請求項12に記載の画像処理装置。
  14. 前記画像表示部は、第一画像、および第二画像を交互に出力する時間分割方式の立体表示処理を実行する際、第一画像および第二画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である請求項13に記載の画像処理装置。
  15. 前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する第一画像と第二画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である請求項12に記載の画像処理装置。
  16. 前記第一画像と第二画像は、立体視を実現するための左眼用画像と右眼用画像である請求項1〜15いずれかに記載の画像処理装置。
  17. 画像処理装置における画像処理方法であり、
    画像変換部が、一つの2次元画像信号に対する画像変換を実行して2つの異なる視点からの観察画像に相当する第一画像と第二画像を生成する画像変換ステップを実行し、
    前記画像変換ステップは、
    2次元画像信号の空間的な特徴量を抽出する特徴量抽出処理と、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記特徴量を適用した異なる態様の画像変換処理を実行して前記第一画像または第二画像の少なくともいずれかの画像生成を行う画像生成処理を含むステップであり、
    前記特徴量抽出処理は、
    2次元画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定する処理であり、
    前記画像生成処理は、
    2次元画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を第一画像として生成し、2次元画像信号に処理を加えない非変換信号を第二画像として生成する処理である画像処理方法。
  18. 画像処理装置において画像処理を実行させるプログラムであり、
    画像変換部に、一つの2次元画像信号に対する画像変換を実行して2つの異なる視点からの観察画像に相当する第一画像と第二画像を生成する画像変換ステップを実行させ、
    前記画像変換ステップにおいて、
    2次元画像信号の空間的な特徴量を抽出する特徴量抽出処理と、
    前記2次元画像信号の所定領域単位の距離情報と予め規定した閾値との比較処理結果に応じて、前記特徴量を適用した異なる態様の画像変換処理を実行して前記第一画像または第二画像の少なくともいずれかの画像生成を行う画像生成処理を実行させ、
    前記特徴量抽出処理は、
    2次元画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定する処理であり、
    前記画像生成処理は、
    2次元画像信号に対して前記特徴量を加算した変換信号、または減算した変換信号のいずれかの変換信号を第一画像として生成し、2次元画像信号に処理を加えない非変換信号を第二画像として生成する処理であるプログラム。
JP2010196486A 2009-10-28 2010-09-02 画像処理装置、および画像処理方法、並びにプログラム Expired - Fee Related JP5521913B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010196486A JP5521913B2 (ja) 2009-10-28 2010-09-02 画像処理装置、および画像処理方法、並びにプログラム
US12/906,367 US20110096147A1 (en) 2009-10-28 2010-10-18 Image processing apparatus, image processing method, and program
CN201010530224.5A CN102055998B (zh) 2009-10-28 2010-10-21 图像处理装置和图像处理方法
US15/361,940 US10313660B2 (en) 2009-10-28 2016-11-28 Image processing apparatus, image processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009247931 2009-10-28
JP2009247931 2009-10-28
JP2010196486A JP5521913B2 (ja) 2009-10-28 2010-09-02 画像処理装置、および画像処理方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014059902A Division JP5794335B2 (ja) 2009-10-28 2014-03-24 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011120210A JP2011120210A (ja) 2011-06-16
JP5521913B2 true JP5521913B2 (ja) 2014-06-18

Family

ID=43898085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010196486A Expired - Fee Related JP5521913B2 (ja) 2009-10-28 2010-09-02 画像処理装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (2) US20110096147A1 (ja)
JP (1) JP5521913B2 (ja)
CN (1) CN102055998B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240479B2 (en) 2017-08-30 2022-02-01 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
JP2012237919A (ja) * 2011-05-13 2012-12-06 Sony Corp 画素回路、表示装置、電子機器、及び、画素回路の駆動方法
TWI482484B (zh) * 2011-06-17 2015-04-21 Wistron Corp 立體顯示系統及其方法
US20130194395A1 (en) * 2011-06-28 2013-08-01 Nokia Corporation Method, A System, A Viewing Device and a Computer Program for Picture Rendering
WO2013125139A1 (ja) * 2012-02-22 2013-08-29 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2013243626A (ja) * 2012-05-23 2013-12-05 Sony Corp 信号処理装置、信号処理方法、およびプログラム
US9013549B2 (en) * 2012-05-24 2015-04-21 Silicon Integrated Systems Corp. Depth map generation for conversion of two-dimensional image data into three-dimensional image data
US20130182086A1 (en) * 2013-03-11 2013-07-18 Allan Thomas Evans Apparatus for enhancing stereoscopic images
US10409079B2 (en) 2014-01-06 2019-09-10 Avegant Corp. Apparatus, system, and method for displaying an image using a plate
US10303242B2 (en) 2014-01-06 2019-05-28 Avegant Corp. Media chair apparatus, system, and method
KR102224716B1 (ko) * 2014-05-13 2021-03-08 삼성전자주식회사 스테레오 소스 영상 보정 방법 및 장치
US9906772B2 (en) 2014-11-24 2018-02-27 Mediatek Inc. Method for performing multi-camera capturing control of an electronic device, and associated apparatus
US9823474B2 (en) 2015-04-02 2017-11-21 Avegant Corp. System, apparatus, and method for displaying an image with a wider field of view
US9995857B2 (en) 2015-04-03 2018-06-12 Avegant Corp. System, apparatus, and method for displaying an image using focal modulation
JP6457964B2 (ja) * 2016-03-10 2019-01-23 日本電信電話株式会社 装置、投影装置、表示装置、画像生成装置、それらの方法、およびプログラム
CN109716761B (zh) * 2016-09-23 2020-12-08 日本电信电话株式会社 图像生成装置、图像生成方法以及记录介质
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造
CN109673077A (zh) * 2018-12-13 2019-04-23 中科芯集成电路股份有限公司 一种led亮度调节的非线性校正系统及其校正方法
CN110866563B (zh) * 2019-11-20 2022-04-29 咪咕文化科技有限公司 相似视频检测、推荐方法、电子设备和存储介质

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568268A (ja) 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JP3182009B2 (ja) 1992-12-24 2001-07-03 日本電信電話株式会社 両眼立体視装置
JP3214688B2 (ja) 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
CN1113320C (zh) * 1994-02-01 2003-07-02 三洋电机株式会社 将二维图像转换成三维图像的方法以及三维图像显示系统
JP2983844B2 (ja) 1994-07-14 1999-11-29 三洋電機株式会社 3次元画像変換方法
US6553184B1 (en) * 1994-03-14 2003-04-22 Sanyo Electric Co., Ltd. Method of converting two dimensional images into three-dimensional images
JP2846840B2 (ja) * 1994-07-14 1999-01-13 三洋電機株式会社 2次元映像から3次元映像を生成する方法
JPH09331550A (ja) 1996-06-11 1997-12-22 Sony Corp 立体映像信号生成方法及び立体映像表示方法
WO1998004087A1 (fr) * 1996-07-18 1998-01-29 Sanyo Electric Co., Ltd. Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
JP3235776B2 (ja) * 1996-08-07 2001-12-04 三洋電機株式会社 立体感調整方法および立体感調整装置
JP3005474B2 (ja) 1996-08-07 2000-01-31 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP2994633B2 (ja) * 1997-12-10 1999-12-27 松下電器産業株式会社 疑似輪郭ノイズ検出装置およびそれを用いた表示装置
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
US8379126B2 (en) * 1999-06-24 2013-02-19 Konica Minolta Holdings, Inc. Image-sensing apparatus
US20030063383A1 (en) * 2000-02-03 2003-04-03 Costales Bryan L. Software out-of-focus 3D method, system, and apparatus
US6801263B2 (en) * 2000-04-10 2004-10-05 Sony Corporation Liquid crystal display, liquid crystal device and liquid crystal display system
ES2332708T3 (es) 2001-07-23 2010-02-11 Koninklijke Philips Electronics N.V. Aparato y procedimiento de procesamiento de imagenes estereoscopicas.
JP4154569B2 (ja) * 2002-07-10 2008-09-24 日本電気株式会社 画像圧縮伸長装置
CA2496353C (en) 2002-08-20 2011-10-18 Kazunari Era Method and apparatus for generating a stereographic image
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
US20040190023A1 (en) * 2003-03-24 2004-09-30 Tatsuya Aoyama Image processing method, apparatus and program
US20040252756A1 (en) * 2003-06-10 2004-12-16 David Smith Video signal frame rate modifier and method for 3D video applications
US20050012814A1 (en) * 2003-07-17 2005-01-20 Hsiao-Pen Shen Method for displaying multiple-view stereoscopic images
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
US7262767B2 (en) * 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
JP2006115964A (ja) * 2004-10-20 2006-05-11 Fujinon Corp 電子内視鏡装置
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
CN102164238B (zh) * 2006-01-10 2013-09-18 松下电器产业株式会社 颜色校正处理装置、动态摄像机颜色校正装置以及使用其的影像检索装置
JP5507797B2 (ja) * 2007-03-12 2014-05-28 キヤノン株式会社 頭部装着型撮像表示装置及び画像生成装置
JP4458125B2 (ja) * 2007-07-25 2010-04-28 船井電機株式会社 インジケータ装置およびテレビジョン装置
JP4999763B2 (ja) * 2007-07-31 2012-08-15 パナソニック株式会社 撮像装置、撮像方法、プログラム、記録媒体、および集積回路
US8363100B2 (en) * 2008-11-19 2013-01-29 Honeywell International Inc. Three dimensional display systems and methods for producing three dimensional images
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240479B2 (en) 2017-08-30 2022-02-01 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
US11785197B2 (en) 2017-08-30 2023-10-10 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display

Also Published As

Publication number Publication date
US10313660B2 (en) 2019-06-04
US20170078642A1 (en) 2017-03-16
JP2011120210A (ja) 2011-06-16
CN102055998A (zh) 2011-05-11
US20110096147A1 (en) 2011-04-28
CN102055998B (zh) 2015-04-01

Similar Documents

Publication Publication Date Title
JP5521913B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5347717B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5387377B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2012120057A (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR20070040645A (ko) 3d 입체 영상 처리 장치 및 방법
TW201242335A (en) Image processing device, image processing method, and program
KR20130137000A (ko) 화상 처리 장치 및 화상 처리 방법, 및 프로그램
KR20140041489A (ko) 스테레오스코픽 이미지의 동시적인 스테레오스코픽 및 모노스코픽 디스플레이를 가능하게 하기 위한 스테레오스코픽 이미지의 자동 컨버전
JP5521608B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
JP5794335B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5569635B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR100372177B1 (ko) 2차원 영상을 3차원 영상으로 변환하는 방법
EP2547109A1 (en) Automatic conversion in a 2D/3D compatible mode
JP2012142800A (ja) 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
US8947507B2 (en) Method of processing 3D images, and corresponding system including the formulation of missing pixels using windows of details from first and second views
US9185381B2 (en) Backward-compatible stereo image processing system and method of generating a backward-compatible stereo image
Lee et al. View extrapolation method using depth map for 3D video systems
Koreshev et al. Hybrid view-synthesizing approach for multiview applications
TWI489860B (zh) 三維影像處理方法與應用其之三維影像顯示裝置
JP2012213116A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011009972A (ja) 立体映像表示装置および立体映像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R151 Written notification of patent or utility model registration

Ref document number: 5521913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees