JP5387377B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP5387377B2
JP5387377B2 JP2009283080A JP2009283080A JP5387377B2 JP 5387377 B2 JP5387377 B2 JP 5387377B2 JP 2009283080 A JP2009283080 A JP 2009283080A JP 2009283080 A JP2009283080 A JP 2009283080A JP 5387377 B2 JP5387377 B2 JP 5387377B2
Authority
JP
Japan
Prior art keywords
image
signal
eye
unit
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009283080A
Other languages
English (en)
Other versions
JP2011124935A5 (ja
JP2011124935A (ja
Inventor
厚史 伊藤
寿夫 山崎
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009283080A priority Critical patent/JP5387377B2/ja
Priority to US12/960,066 priority patent/US8866884B2/en
Priority to CN201010586284.9A priority patent/CN102104786B/zh
Publication of JP2011124935A publication Critical patent/JP2011124935A/ja
Publication of JP2011124935A5 publication Critical patent/JP2011124935A5/ja
Application granted granted Critical
Publication of JP5387377B2 publication Critical patent/JP5387377B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Description

本発明は、画像処理装置、および画像処理方法、並びにプログラムに関し、特に2次元画像に対する画像変換を実行してステレオ視(立体視)に対応した両眼視差画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
2次元画像をステレオ視(立体視)に対応した両眼視差画像に変換する装置および方法について従来から様々な提案がなされている。2次元画像に基づいて生成された両眼視差画像は、左眼で観察する左眼用画像と右眼で観察する右眼用画像のペアによって構成される。これらの左眼用画像と右眼用画像のペアによって構成される両眼視差画像を、左眼用画像と右眼用画像をそれぞれ分離して観察者の左眼と右眼に提示することを可能とした表示装置に表示することで、観察者は画像を立体画像として知覚することができる。
このような画像の生成や表示処理に関して開示した従来技術には以下のようなものがある。
例えば、特許文献1は、静止画像や動きの少ない画像に対して、左眼用画像と右眼用画像を所定量だけ水平方向にずらすことにより、画像が浮き上がったように知覚させる装置を提案している。
また、特許文献2は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
さらに、特許文献3は、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法を提案している。
ところで、上記の従来技術には以下に示すような問題がある。
特許文献1に記載の画像変換装置では、静止画や動きの少ない画像に対しては、画面全体をずらすのみであり、画像中の物体の前後関係を表現することは出来ない。
特許文献2に記載の画像変換装置では、画像の特徴量から擬似的な奥行きを推定するが、推定は画面前方にある物体の先鋭度が高い、輝度が高い、彩度が高いなどの仮定に基づいており、必ずしも正しい推定が行われるとは限らない。このため、奥行き推定を誤った物体に対しては誤った網膜像差が与えられるため、誤った位置に配置されてしまう。
特許文献3に記載の画像変換装置は、画像の構造を比較的単純な有限の構造に当てはめる構成であり、不自然な奥行きが発生することは抑制される。しかしながら、上記の全ての従来手法に共通する問題であるが、生成された両眼視差画像には、比較的大きな網膜像差が発生する。この両眼視差画像は、立体表示装置を利用して立体表示されるが、一般的には偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式、または液晶シャッタにより時間的に左右分離するアクティブ眼鏡方式など、立体視用の特殊な眼鏡を装着して画像を観察する立体表示装置が利用される。
大きな網膜像差を与えられた両眼視差画像を見る場合、このような立体視用の眼鏡をかけた状態では網膜像差に従った立体感を知覚することが出来る。しかし、眼鏡をはずした状態で、画面をみると左右の画像が大きく重なった2重の画像が見えてしまい、通常の2次元画像として観察することはできない。つまり、これら従来の画像変換装置により変換された画像は、眼鏡をかけた状態でしか鑑賞することができなかった。
また、大きな網膜像差は、観察者の疲れにも影響すると考えられる。例えば特許文献4には、左眼と右眼の画像が大きくずれている場合には、現実世界での見え方に対して、輻輳角の制御と水晶体の調整に矛盾が生じ、この矛盾が両眼視差を用いた立体視における疲労に繋がっているとの記述がある。
また、上記の全ての従来手法に共通する要素として、ステレオ視に対応した両眼視差画像の生成方法に、最も広く使用されている画素ずらし(シフト)手段を用いている点が挙げられる。しかしながら、画素ずらしによる両眼視差画像の生成は、画素情報の存在しない領域、いわゆるオクルージョン領域が発生する場合がある。
図1を参照して画素ずらし(シフト)手段を用いて左眼用画像と、右眼用画像を生成した場合に発生するオクルージョン領域の発生について説明する。図1には、
(a)入力画像
(b)奥行き情報(距離画像)
(c)右眼用画像
(d)左眼用画像
これらの各画像を示している。
(b)奥行き情報(距離画像)は、(a)入力画像の距離情報を輝度で示した画像であり、高輝度領域がカメラに近い被写体、低輝度領域がカメラから遠い被写体に対応する画素部分となる。
(c)右眼用画像は、(b)奥行き情報(距離画像)に基づいて、(a)入力画像中の近い距離の画素部分(人物領域)を左にずらすシフト処理を実行して生成されている。
(d)左眼用画像は、(b)奥行き情報(距離画像)に基づいて、(a)入力画像中の近い距離の画素部分(人物領域)を右にずらすシフト処理を実行して生成されている。
図1に示すように、この画素ずらし(シフト)処理によって生成される(c)右眼用画像、(d)左眼用画像には、画素情報の存在しない領域、いわゆるオクルージョン領域が発生する。
両眼視差画像の両方またはいずれかに発生するオクルージョン領域には、入力画像にその画素情報が存在しないため、(空間的に)周辺の領域に存在する画素を用いた充填処理が必要となる。特許文献3は入力画像の対応部分の画素情報を利用した補間処理例を示している。また、非特許文献1にも補間処理例について記載している。しかし、これらの補間処理を用いても、少なくとも両眼いずれかの画像において画像を引き伸ばしたような不自然さなどが発生するという問題がある。
また、特許文献2および特許文献3に記載の画像変換装置では、画像から擬似的な奥行きを推定しているが、1枚の画像から詳細な奥行きを検出することは難しく、たとえば、樹木の枝や電線、髪の毛のような微細な構造に対する奥行きの推定を行うことは容易ではない。
このような奥行き情報を用いて画素ずらしによる両眼視差画像の生成した場合、これらの微細な被写体は(空間的に)周辺の領域と同等の視差が生成される。従ってこれらの微細な被写体と背景の間を異なる奥行き感に設定することができず、実際の被写体距離に応じた立体感を持たせることはできなかった。
特開平8−30806号公報 特開平10−51812号公報 特開2005−151534号公報 特開平6−194602号公報
山田邦男、望月研二、相澤清晴、齋藤隆弘:"領域競合法により分割された画像のテクスチャの統計量に基づくオクルージョン補償"、映像情報学会誌、Vol.56,No.5,pp.863〜866(2002.5))
本発明は、例えば上記の問題を解決し、奥行き推定の誤りにより誤った立体感の発生を抑制した視差画像を生成可能とする。また、左眼用画像と右眼用画像を合成して表示する場合、3次元画像としても2次元画像としても鑑賞できる画像を提供する。すなわち、立体視対応の眼鏡をはずした状態では通常の2次元画像として鑑賞することが可能であり、かつ観察者の疲労の少ない両眼視差画像の生成、提示を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
また、画素ずらしによる両眼視差画像の生成において、回避が困難であったオクルージョン領域を発生させず画素値の充填処理を必要としない両眼視差画像の生成を実現する。画素ずらしによる両眼視差画像は奥行き情報の解像度不足により不自然な立体感が知覚されやすいという傾向があるが、このような欠点を解消し不自然な立体感の知覚されにくい画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
2次元画像信号を入力する画像入力部と、
前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力部と、
前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成である画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、前記微分信号に対して、画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を生成して、入力画像信号に対して前記補正微分信号を加算した変換信号、または減算した変換信号のいずれかの変換信号を左眼用画像または右眼用画像として生成し、入力画像信号に処理を加えない非変換信号を前記変換信号と異なる眼用の画像として出力する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を前記特徴量として設定し、記微分信号に対して、画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を生成して、入力画像信号に対して前記補正微分信号を加算した信号と減算した信号を生成し、これらの2つの信号の組を左眼用画像と右眼用画像の組として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記奥行き情報出力部の出力する奥行き情報が大きい画像領域に対しては大きいゲインによる前記輝度微分信号の補正処理を行い、奥行き情報が小さい画像領域に対しては小さいゲインによる前記輝度微分信号の補正処理を行い、前記補正微分信号を生成する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、前記補正微分信号を非線形変換して生成した信号を、入力画像信号に対して加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像として生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対する非線形変換処理を実行する非線形変換部、
(c)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(c)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスを有し、前記奥行き情報出力部の出力する奥行き情報に応じて、前記処理パスを構成する各画像変換単位の出力を選択し合成して左眼用画像または右眼用画像を生成する処理を行う。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数によるゲイン制御を実行して補正微分信号を生成するゲイン制御部、
(c)前記ゲイン制御部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数を乗算して補正微分信号を生成する乗算処理部、
(c)前記乗算処理部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を入力画像フレームレートの2倍速で交互に出力する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、生成する左眼用画像と右眼用画像の加算信号が入力信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画像変換部の生成した画像を表示する画像表示部を有する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である。
さらに、本発明の画像処理装置の一実施態様において、前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である。
さらに、本発明の第2の側面は、
画像処理装置において実行する画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
奥行き情報出力部が、前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力ステップと、
画像変換部が、前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行うステップである画像処理方法にある。
さらに、本発明の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
奥行き情報出力部に、前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
画像変換部に、前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせるステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、簡易な信号処理により被写体距離を反映した立体視可能な画像信号を生成することが可能となる。本発明の一実施例の画像処理装置は、入力画像信号の空間的な特徴量に対して被写体距離情報としての奥行き情報を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には入力信号の微分信号に、奥行き情報に応じたゲイン制御により補正微分信号を生成する。この補正微分信号またはその非線形変換信号を入力画像信号に加算および減算し、これらの信号の組を左眼用画像と右眼用画像とする。本構成により、被写体距離に応じた視差の設定された視差画像生成が可能となる。また、左/右眼用画像の加算信号は入力信号に等しくなり立体視メガネなしで画像を観察した場合には通常の2次元画像として観察可能となる。
オクルージョンについて説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置のゲイン制御部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置のゲイン制御部のゲイン制御処理について説明する図である。 本発明の一実施例に係る画像処理装置の処理に適用する信号について説明する図である。 本発明の一実施例に係る画像処理装置の非線形変換部の非線形変換処理について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 右眼および左眼用の信号と入力信号と微分信号の対応関係と網膜像差について説明する図である。 右眼および左眼用の信号と入力信号と微分信号の対応関係と網膜像差について説明する図である。 右眼および左眼用の信号と入力信号と微分信号の対応関係と網膜像差について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の生成する右眼および左眼用の信号と入力信号と微分信号の対応関係と網膜像差について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する入力画像からの右眼および左眼用の画像信号生成処理例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の画像変換部の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る画像処理装置の画像変換部の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。以下の呼応目に従って順次説明する。
1.画像処理装置の構成例について
2.奥行き情報出力部の処理について
3.画像変換部の処理について
4.ゲイン制御部の処理について
5.非線形変換部の処理について
6.画像合成部の処理について
7.網膜像差(視差)による立体感について
8.被写体距離に応じたゲインを設定した補正微分信号および画像生成構成例について
9.画像変換部の処理シーケンスについて
10.2次元(2D)表示処理時の効果について
11.画像表示部を持つ実施例について
[1.画像処理装置の構成例について]
図2は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部120が対応していればどのような色空間でも構わない。
奥行き情報出力部115は、画像入力部110の入力画像信号に対応した奥行き情報を外部から入力、または内部で生成して画像変換部130に出力する。奥行き情報は、例えば図1(b)に示すような被写体距離に応じた輝度分布データ等からなる距離画像などである。ただしデータ形式は特定するものでない。
奥行き情報出力部115が入力あるいは生成する奥行き情報は、入力画像信号と相対的な位置関係が対応し、各画素がどの程度の奥行きを有しているかを決めることが可能な情報であればよい。入力画像信号と画素数において1対1の関係になくても構わず、また、動画像の場合は入力画像信号とフレーム数において1対1の関係になくてもよい。すなわち複数フレーム、例えば2フレームや4フレーム単位で1つの共通の奥行き情報を利用する構成としてもよい。
画像入力部110から出力されたビデオデータは、色空間変換部120に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータがY,Cb,Cr色空間に従う場合には、色空間変換部120は、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部120は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部120から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部120から出力されたビデオデータは、画像変換部130に入力される。
一方、奥行き情報出力部115からは、奥行き情報が画像変換部130に入力される。
画像変換部130は、後述する処理によって例えば左眼用画像(L:Left)と右眼用画像(R:Right)からなる両眼視差画像を生成し、立体表示装置の形式に従ってこれらの画像を合成して出力する。すなわち画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
画像変換部130から出力されたビデオデータは、色空間逆変換部140に入力され、Y,Cb,Cr色空間から出力画像フォーマットに従った色空間へ変換される。このとき、出力画像フォーマットがY,Cb,Cr色空間に従う場合には、色空間逆変換部140は、色空間の変換を行わずに出力する。このように図2には、色空間変換部120、色空間逆変換部140を有する構成を示しているが、これらの構成は、必須構成ではなく、省略した構成も可能である。
色空間逆変換部140から出力されたビデオデータは、画像出力部150に入力される。画像出力部150は、画像変換部130で変換された両眼視差画像を表示して立体視を実現することが可能な外部接続した立体表示装置において受信可能なビデオデータに変換して出力する。
なお、本実施例においては、静止画像を入力した場合、画像入力部110においてビデオデータに変換する方法を記載しているが、この方法に限らず、1枚の静止画像から2枚の左眼用画像と右眼用画像に変換し、2枚の静止画像として例えばメモリカードなどにファイル出力する構成にしても構わない。
[2.奥行き情報出力部の処理について]
次に、奥行き情報出力部115の処理例について説明する。奥行き情報出力部115は、外部から奥行き情報を入力して出力するか、あるいは内部で生成して出力する処理を行う。
外部から奥行き情報を入力する場合の奥行き情報の取得方法は特定するものではない。例えば、市販のレンジスキャナを用いて奥行き情報を取得する方法や、画像取得時に画像信号を撮像するカメラをもう1台(計2台)を用いて撮像し、ステレオ法を用いて奥行き情報を取得する方法などが利用できる。
また、奥行き情報出力部115は、奥行き情報を画像処理装置100の外部から入力するのではなく2次元画像としての入力画像信号を用いて内部で生成してもよい。
2次元画像から距離情報を得る方法としては、A.Saxenaらが"Make3D:Learning 3−D Scene Structure from a Single Still Image"(IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2008.)で発表した方法や、特開2005−151534号公報で公知されている方法などがある。
これらの文献に記載した方法を用いることで、奥行き情報出力部115は、2次元画像としての入力画像信号を用いて奥行き情報を生成して画像変換部130に出力することができる。このような構成とする場合、画像処理装置100は図3に示すように、奥行き情報出力部115は、画像入力部110を介して画像を入力し、入力画像に基づいて奥行き情報を生成し、生成した奥行き情報を画像変換部130に出力する構成となる。
[3.画像変換部の処理について]
次に、画像変換部130の処理例について説明する。図4は、画像変換部130の一実施例の構成を示すブロック図である。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。画像変換部130は、微分器131、ゲイン制御部132、非線形変換部133、および画像合成部134から構成される。
微分器131は、画像変換部130に入力されたビデオデータから輝度信号を取り出し、輝度信号に対する微分信号(H)を生成する。具体的には、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
ゲイン制御部132は、微分器131から出力される微分信号(H)に、予め設定した規則に則った係数(ゲイン係数)を乗じることで、微分信号の振幅値を制御するし、微分信号の補正信号である補正微分信号(H')を生成する。
非線形変換部133は、ゲイン制御部132から出力される補正微分信号(H')を非線形的に変換し、視差強調信号(E')として画像合成部134に出力する。
画像合成部134は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の補正微分信号(H')、または、この補正微分信号を非線形変換して生成した視差強調信号(E')を適用して左眼用画像と、右眼用画像を生成する処理を行う。
なお、図4に点線で示すように、非線形変換部133の変換処理を省略し、ゲイン制御部132で補正処理した補正微分信号(H')を画像合成部134に直接入力して、画像合成部134が、補正微分信号を適用して左眼用画像(L)と、右眼用画像(R)を生成する構成としてもよい。
[4.ゲイン制御部の処理について]
次に、ゲイン制御部132の実行する処理について説明する。
図5は、ゲイン制御部132の一実施例の構成を示すブロック図である。ゲイン制御部132では、入力された微分信号の振幅値を、同じく入力した奥行き情報を基に、その振幅値を制御する。なお、以下に説明する実施例では、奥行き情報は入力微分信号の1画素ごとに、1つの深さの値を有する、所謂デプスマップの形状で入力されるものとして説明していく。
ゲイン係数算出部201は、入力された各画素に対する奥行き情報を利用して、対応する画素に対するゲイン係数を出力する。
乗算処理部202は、入力された微分信号の各画素について、ゲイン係数算出部201から出力された各画素に対するゲイン係数を、微分信号(H)の振幅値に乗じる乗算処理を行い、結果として振幅値がゲイン制御された補正微分信号(H')を出力する。
図6は、ゲイン係数算出部201において実行する、ゲイン係数の決定方法の一例を示すものである。横軸が、入力信号であり奥行き情報である。縦軸が、ゲイン係数算出部201におけるゲイン係数の出力を示している。
ゲイン係数算出部201は、入力された奥行き情報(In)を、予め設定した関数f(x)により変換して、ゲイン係数(Out)を出力する。
このとき、関数f(x)は、様々な設定が利用可能である。
関数f(x)の一例としては、例えば、
f(x)=A×x
(ただしAは定数)
上記式に示されるような線形一次関数を用いる。Aは予め設定した定数であり、様々な値に設定可能である。
また、ゲイン係数算出部201における変換関数は、線形一次関数に限定するものではなく、また非線形的な変換を施しても構わない。
奥行き情報は、微分信号の各画素に応じた値を入力し、各画素に応じたゲイン係数を出力するものとする。
図6は、ゲイン係数算出部の入力値(奥行き情報)と、出力値(ゲイン係数)の対応例を示す図である。図6には3つの入力値(奥行き情報)とそれに対応する3つの出力値(ゲイン係数)の例を示している。
入力値(奥行き情報)の例は、D1、D2、D3であり、ある3つの画素に対応した奥行きの値を想定する。なお、奥行きとは観察者(ユーザ)あるいはカメラから被写体までの距離に対応する値である。
奥行き(=被写体距離)はD1<D2<D3の順に、手前から奥へと深く(ユーザまたはカメラから遠く)なっていくものとする。
このとき出力値(ゲイン係数)の例は、G1、G2、G3であり、各々は図6中の関数f(x)に、D1、D2、D3の値を入力することで得られる値である。
この例のように、ゲイン係数算出部201は、微分信号の各画素に応じたゲイン係数を出力する。
図7は、ゲイン制御部132における微分信号の振幅値を制御する処理の一例を示している。
図7には、
(a)入力信号
(b)微分信号
(c)奥行き情報
(d)補正後の微分信号
これらの例を示している。
図7(a)は、入力画像信号の一例である。
図7(b)は、図7(a)の入力画像信号を微分処理した画像である。
図7(c)は、図7(a)の入力画像信号に対応した奥行き情報であり、画像を3分割した各領域に奥行きの値を与えた簡易なものである。
ここで、図7(c)の奥行き情報を示す画像信号には、上部から順に図6において定義した奥行き情報:D3、D2、D1(D1<D2<D3)の値が与えられているものとしている。
このとき、図6において説明した奥行きとゲイン値の関係の通り、図7(b)の微分信号の各画素に乗じるゲイン値は、画像の上部から順に、
G3、G2、G1(G1<G2<G3)
となる。
図7(d)補正後の微分信号は、図7(c)の奥行き情報に基づいたゲイン値を、図7(b)の微分信号の各画素に乗じた処理結果の一例である。
図7(d)補正後の微分信号においては、画面上部ほど(遠い領域ほど)、大きなゲイン値が乗じられ、画面下部ほど(近い領域ほど)小さなゲイン値が乗じられる。
この結果、画面上部ほど(遠い領域ほど)微分信号の振幅値が大きくなり、画面下部ほど(近い領域ほど)微分信号の振幅は小さくなる。
本発明の画像処理装置は、このように距離に応じた振幅の異なる微分信号を用いて左眼用画像と右眼用画像を生成して出力する。この結果、距離に応じた異なる視差を持つ画像を生成して出力する。具体的な処理例については後段で詳細に説明する。
[5.非線形変換部の処理について]
次に、非線形変換部133の実行する処理について説明する。非線形変換部133は、ゲイン制御部132から出力される距離に応じてゲイン制御のなされた補正微分信号(H')を非線形的に変換した視差強調信号(E')を生成して画像合成部134に出力する。
図8は、非線形変換部133において実行する非線形変換処理の一例を示している。横軸が、ゲイン制御部132から出力される距離に応じてゲイン制御(補正)のなされた微分信号であり(輝度)補正微分信号である。縦軸が、非線形変換部133における非線形変換処理後の出力を示している。非線形変換部133は、入力された補正微分信号(In)を、予め規定した関数f(x)により変換して、視差強調信号(Out)を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
f(x)=xγ
上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部133における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部134は、非線形変換部133から出力される視差強調信号と、画像変換部130に入力されたビデオデータを受け取り、ビデオデータを構成する各フレーム画像と視差強調信号を合成して、左眼用画像と、右眼用画像を生成する処理を行う。
なお、図4に点線で示すように、非線形変換部133の変換処理を省略し、微分器131の生成した微分信号に対してゲイン制御部132が距離に応じたゲイン制御を行った補正微分信号(H')を画像合成部134に直接入力する構成としてもよい。この場合は、画像合成部134は、奥行き(被写体距離)に応じてゲイン制御の施された補正微分信号(H')を適用して左眼用画像と、右眼用画像を生成する処理を行う。
[6.画像合成部の処理について]
次に画像合成部134の処理について説明する。
画像合成部134は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して左眼用画像と、右眼用画像を生成する処理を行う。
図9と図10は、画像合成部134において実行する画像合成処理の概念を示している。
図9は、距離が大の画像領域(奥行きが大きい画像領域)
図10は、距離が小の画像領域(奥行きが小さい画像領域)
これらの各画像領域について、上から順に、
(a)入力信号(S)
(b)微分信号(H)
(c)補正(ゲイン制御)後の補正微分信号(H')
(d)右眼用画像信号(R)
(e)左眼用画像信号(L)
これらの各信号を示している。
図7の(c)奥行き情報に対応付けて説明すると、例えば、図9は図7(c)の画像上部の距離が大(=D3)の画像領域(奥行きが大きい画像領域)に対応する処理例である。一方、図10は図7(c)の画像下部の距離が小(=D1)の画像領域(奥行きが小さい画像領域)に対する処理例である。
まず、図9に示す距離が大の画像領域(奥行きが大きい画像領域)における処理例について説明する。
(a)入力信号(S)は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
(b)微分信号(H)は、(a)入力信号の微分結果である。この微分信号は、図4に示す画像変換部130の微分器131において生成される信号である。
微分器131の生成する微分信号(H)は、図9に示すとおり、(a)入力信号(S)の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)補正(ゲイン制御)後の微分信号(H')は、図4に示す画像変換部130のゲイン制御部132において生成する信号であり、図9(b)微分信号を、奥行き情報に基づいて補正(ゲイン制御)した信号である。なお、図9に示す例は、距離が大(例えば図6、図7(c)のD3)の画像領域(奥行きが大きい画像領域)における処理例であり、図6、図7を参照して説明したようにより大きなゲイン(G3)による補正処理が施され、微分信号の振幅はより大きな振幅に補正される。
図9(c)に示す点線が補正前の信号(=(b)微分信号(H))であり、図9(c)に示す実線が距離に応じた補正後の補正微分信号(H')である。このように、補正微分信号(H')は距離に応じたゲイン制御により、振幅がより大きく補正される。
(d)右眼用画像信号、(e)左眼用画像信号は、図4に示す画像変換部130の画像合成部134において生成する信号である。画像合成部134は、(a)入力信号(S)と、(c)補正(ゲイン制御)後の補正微分信号(H')を非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号(E')とを合成して(d)右眼用画像信号と、(e)左眼用画像信号を生成する。
次に、図10に示す距離が小の画像領域(奥行きが小さい画像領域)における処理例について説明する。図10は図7(c)の画像下部の距離が小(=D1)の画像領域(奥行きが小さい画像領域)に対する処理例である。
(a)入力信号と、(b)微分信号は、図9に示す(a)入力信号と、(b)微分信号と同様の信号である。(b)微分信号(H)は、(a)入力信号(S)の微分結果である。この微分信号は、図4に示す画像変換部130の微分器131において生成される信号である。微分器131の生成する微分信号は、図10に示すとおり、(a)入力信号の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
(c)補正(ゲイン制御)後の補正微分信号(H')は、図4に示す画像変換部130のゲイン制御部132において生成する信号であり、図10(b)微分信号を、奥行き情報に基づいて補正(ゲイン制御)した信号である。
図10に示す例は、距離が小(例えば図6、図7(c)のD1)の画像領域(奥行きが大きい画像領域)における処理例であり、図6、図7を参照して説明したように小さなゲイン(G1)により微分信号の振幅は小さな振幅に補正される。
図10(c)に示す点線が補正前の信号(=(b)微分信号)であり、図10(c)に示す実線が距離に応じた補正後の信号である。このように、距離に応じたゲイン制御により、振幅がより小さく補正される。
(d)右眼用画像信号、(e)左眼用画像信号は、図4に示す画像変換部130の画像合成部134において生成する信号である。画像合成部134は、(a)入力信号(S)と、(c)補正(ゲイン制御)後の補正微分信号(H')を非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号(E')とを合成して(d)右眼用画像信号と、(e)左眼用画像信号を生成する。
このように、本発明の画像処理装置では、
距離=大の場合は、振幅の大きい補正微分信号
距離=小の場合は、振幅の小さい補正微分信号、
これらの補正微分信号(図9、図10の(c))を生成し、これらの補正微分信号(またはその非線形変換結果である視差強調信号)と(a)入力信号との合成処理により、(d)右眼用画像信号と、(e)左眼用画像信号を生成する。
このような(d)右眼用画像信号と、(e)左眼用画像信号の生成処理の生成処理について、数式を用いて説明する。
図9、図10の(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図9、図10の(b)に示す微分信号の信号レベルを(H)とする。
また、ゲイン制御部132において行われる微分信号の補正結果としての補正微分信号の信号レベルを(H')てとする。
なお、補正微分信号(H')の生成の際、(b)微分信号(H)に乗じるゲイン値(G)は、奥行き情報(D)をもとに予め設定された関数などから決定される。
図9に示す距離が大の場合のゲイン値をG3、
図10に示す距離が小の場合のゲイン値をG1、
とする。
図9、図10に示す例は、G3>1>G1の関係を想定している。
図9、図10の(c)補正後の微分信号の信号レベルを(H')で表現すると、(H')は上記ゲイン値G3、G1を用いて補正された信号として、以下の式によって示すことができる。
図9に示す距離が大の場合の補正後微分信号(H')は、
H'=G3×H
図10に示す距離が小の場合の補正後微分信号(H')は、
H'=G1×H
これらの式によって算出された信号が、図9、図10の(c)補正後の微分信号の信号レベル(H')となる。
図9(c)に示す距離が大の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が大きくなっている。
一方、図10(c)に示す距離が小の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が小さくなっている。
これは、図9(c)、図10(c)に示す補正後微分信号が異なるゲイン値を乗じて生成されるためである。
すなわち、奥行き情報出力部115の出力する奥行き情報が大(カメラからの距離が遠い)画素については、(b)微分信号に対して大きなゲイン値を乗じて補正されて図9(c)に示す補正後微分信号が生成される。
一方、奥行き情報出力部115の出力する奥行き情報が小(カメラからの距離が近い)画素については、(b)微分信号に対して小さなゲイン値を乗じて補正されて図10(c)に示す補正後微分信号が生成される。
図9(c)、図10(c)に示す補正後の微分信号は、非線形変換部133において、例えば先に図8を参照して説明した設定で非線形変換処理が施され、視差強調信号(E')が生成される。
画像合成部133は、(a)入力信号に相当するビデオデータ(S)と、(c)補正後の微分信号(H')を非線形変換した視差強調信号(E')を入力して、例えば以下の式により右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。
Right=S−E'
Left=S+E'
これにより得られる信号が、図9(d)、図10(d)に実線で示す右眼用画像信号、および、図9(e)、図10(e)に示す左眼用画像信号である。
一方、図9(d),(e)と図10(d),(e)に点線で示す信号は、(c)補正後の微分信号ではなく、補正前の微分信号、すなわち(b)微分信号(H)を適用して非線形変換した視差強調信号(E)を利用して生成した右眼用画像信号、および左眼用画像信号に相当する。すなわち、
Right=S−E
Left=S+E
である。
図9、図10の(d)右眼用画像信号、および、(e)左眼用画像信号に示す実線と点線を比較すると、
図9に示す距離が大の場合は、(d)右眼用画像信号、(e)左眼用画像信号の両者とも、実線(補正後微分信号)の振幅が、点線(補正前微分信号)の振幅より大きくなっている。
一方、図10に示す距離が小の場合は、(d)右眼用画像信号、(e)左眼用画像信号の両者とも、実線(補正後微分信号)の振幅が、点線(補正前微分信号)の振幅より小さくなっている。
つまり、距離が大の場合は、(d)右眼用画像信号、(e)左眼用画像信号の差分が拡大され、距離が小の場合は、(d)右眼用画像信号、(e)左眼用画像信号の差分が縮小される。
このような(d)右眼用画像信号、(e)左眼用画像信号を表示することで、距離が大の場合は、(d)右眼用画像信号と(e)左眼用画像信号の網膜視差が大きくなり、より遠くに感じられ、距離が小の場合は、(d)右眼用画像信号と(e)左眼用画像信号の網膜視差が小さくなり近くに感じられることになる。
なお、上述した説明では、画像合成部134は、非線形変換部133における視差強調処理としての非線形変換処理(図8参照)を(c)補正後の微分信号(H’)に対して実行した結果として得られる視差強調信号(E’)と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を下式に従って生成する例を説明した。
Right=S−E’
Left=S+E’
しかし、前述したように、非線形変換部133における視差強調処理は必須ではない。すなわち、画像合成部134は、図4に示す点線のラインの入力を用いて(c)補正後の微分信号(H’)と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する構成としてもよい。この場合、画像合成部134は、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を下式に従って生成する。
Right=S−H’
Left=S+H’
[7.網膜像差(視差)による立体感について]
図9、図10を参照して説明した右眼用画像信号と、左眼用画像信号を生成して、これらの画像を観察者の右眼と左眼で観察することにより視差が発生し、奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。以下、本発明の画像処理装置100において生成する右眼用画像(R:Right)と左眼用画像(L:Left)の網膜像差について説明する。
上述したように、本願発明の画像処理装置では、図9、図10の(b)に示す微分信号(H)に対して、距離に応じたゲイン値を乗じて(c)補正微分信号(H')を生成し、この(c)補正微分信号(H')と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
Right=S−H'
Left=S+H'
あるいは、(c)補正後の微分信号(H')に対する非線形変換により得られる視差強調信号(E')と、入力信号(S)を利用して、
Right=S−E'
Left=S+E'
上記処理により、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
距離に応じたゲイン値を利用して(c)補正微分信号(H')を生成する理由は、距離が大きい被写体に対しては視差をより大きくするための処理である。
本出願人は、本出願の前の先行出願として特願2008−203614を出願している。この先行出願では、被写体距離に依存することのない処理により右眼用画像と左眼用画像の視差を設定する構成を開示している。まず、この先行出願の処理について説明する。
先行出願(特願2008−203614)の処理は、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号(S)と、入力信号の微分信号(H)を適用して生成する構成である。すなわち被写体距離情報は利用していない。
なお、以下の説明では、非線形変換処理を省略し、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号(S)と、微分信号(H)の加減算により生成する例として説明する。
先行出願(特願2008−203614)において、右眼用画像信号(Right)と、左眼用画像信号(Left)は、入力信号(S)と、入力信号の微分信号(H)を適用して以下の式に従って生成する。
Right=S−H
Left=S+H
この右眼用画像信号(Right)と、左眼用画像信号(Left)は、図9、図10の(d),(e)に示す点線の信号に相当する。図9、図10とも点線の信号レベルは同じである。すなわち被写体距離に応じた補正がなされていない信号である。
図11は、被写体距離に応じた補正がなされていない微分信号(図9(b)=図10(b))を入力信号に対して加減算することで生成した図9、図10の(d),(e)に示す点線の右眼用画像信号(Right)と、左眼用画像信号(Left)に発生する網膜像差を説明する図である。ここでは、説明を簡単にするために、入力信号(S)として、1次元の正弦波信号が入力された場合を示している。
右眼用画像信号(Right)と、左眼用画像信号(Left)は、入力信号(S)と、入力信号の微分信号(H)を適用して以下の式に従って生成する。
Right=S−H
Left=S+H
図11の水平軸は、画像の水平方向の画素位置を表しており、垂直軸は、画素の輝度レベルを表している。
入力信号Sを正弦波信号、すなわち以下の式で表す。
S=sinωx
このとき、微分信号Hは、余弦波信号、すなわち、以下の式で表される。
H=cosωx
このとき、左眼用画像信号Lと、右眼用画像信号Rは、以下のように表される。
上記式から、左眼用画像信号Lは、入力信号Sに対してπ/4だけ位相が進み、右眼用画像信号Rは、入力信号Sに対してπ/4だけ位相が遅れている。つまり、左眼用画像信号Lは、入力信号よりも振幅が√2倍で、角周波数ωで決まる周期の1/8だけ水平左方向にずれた信号であり、右眼用画像信号Rは、同様に、振幅が√2倍で、周期の1/8だけ水平右方向にずれた信号となっている。このように、左眼用画像信号Lと右眼用画像信号Rの間ではπ/2だけの位相差が発生し、この位相差が網膜像差として知覚され、奥行きを感じることが出来る。
なお、網膜像差は、角周波数ωに依存して変化する。図12は、図11と比較して、入力信号の角周波数が1/2になった場合の波形を示している。図からわかる通り、網膜像差は図11の場合の2倍になっており、両眼立体視した場合には、図11の入力信号に比較して奥に知覚される。
また、図13は、図11と比較して、入力信号の角周波数が2倍になった場合の波形を示している。図からわかる通り、網膜像差は図11の場合の1/2になっており、両眼立体視した場合には、図11の入力信号に比較して手前に知覚される。
このように網膜像差は、角周波数ωに依存して変化する。しかし、この手法では、左眼用画像信号(L)と右眼用画像信号(R)との位相差は、被写体の距離には依存しないものとなってしまう。左眼用画像信号Lと右眼用画像信号Rの間の位相差(網膜像差に相当)は最大でも入力信号の空間周波数の1/2波長の幅に限定される。これは、被写体の距離には依存しない。このように、本手法では、被写体の距離に関係なく同じ視差のみが設定されるという問題がある。
本発明はこの問題を解決するものである。すなわち、本発明の画像処理装置は、図9、図10の(b)に示す微分信号(H)に対して、距離に応じたゲイン値を乗じて補正微分信号(H')(図9、図10の(c)の実線データ)を生成する。
この距離に応じた補正微分信号(H’)(図9、図10の(c)の実線データ)を利用して、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。すなわち、画像合成部134は、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を、入力信号と、距離に応じたゲイン値を乗じた補正微分信号(H’)との加減算処理を行う下式に従って生成する。
Right=S−H’
Left=S+H’
なお、上記式は、非線形変換処理(図8参照)を省略した処理例である。非線形変換処理を実行する場合は、以下の処理を実行する。
画像合成部134は、非線形変換部133における視差強調処理としての非線形変換処理(図8参照)を(c)補正後の微分信号(H')に対して実行した結果として得られる視差強調信号(E')と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を下式に従って生成する。
Right=S−E'
Left=S+E'
本発明の構成では、距離に応じたゲイン値を乗じた補正微分信号(H')、あるいはその非線形変換によって生成した視差強調信号(E')を入力信号(S)に対して加減算して右眼用画像信号(Right)と、左眼用画像信号(Left)を生成する。この処理により、距離が大きい被写体に対する視差を、距離が小さい被写体より大きくすることを可能としている。
図14を参照して本発明の処理、すなわち被写体距離に応じた視差調整の原理について説明する。説明を単純化するために図1と同様、入力信号(S)として1次元の正弦波信号が入力された場合を示している。
図14には、
入力信号(S)
第1左眼用信号(L1)(=被写体距離(奥行き)が小さい場合)
第2左眼用信号(L2)(=被写体距離(奥行き)が大きい場合)
第1右眼用信号(R1)(=被写体距離(奥行き)が小さい場合)
第2右眼用信号(R2)(=被写体距離(奥行き)が大きい場合)
これらの5つの信号を示している。
第1左眼用信号(L1)(=被写体距離(奥行き)が小さい場合)、
第1右眼用信号(R1)(=被写体距離(奥行き)が小さい場合)、
これらは例えば図10に示す設定に対応し、
第2左眼用信号(L2)(=被写体距離(奥行き)が大きい場合)、
第2右眼用信号(R2)(=被写体距離(奥行き)が大きい場合)、
これらは図9に示す設定で生成した左右の眼用の信号に対応する。
具体的には、距離に応じたゲイン(G1<G3)とした場合、
第1右眼用信号(R1)=S−H'=S−(G1×H)
第1左眼用信号(L1)=S+H'=S+(G1×H)
第2右眼用信号(R2)=S−H'=S−(G3×H)
第2左眼用信号(L2)=S+H'=S+(G3×H)
このように、微分信号(H)に対被写体距離に応じたゲインを乗じて生成した補正微分信号(H')を入力信号(S)に加減算して各眼用の信号を生成している。
この結果、
第1右眼用信号(R1)=S−H'=S−(G1×H)は、入力信号に対して一定量αだけ位相が進む。
第1左眼用信号(L1)=S+H'=S+(G1×H)は、入力信号に対して一定量αだけ位相が遅れる。
また、
第2右眼用信号(R2)=S−H'=S−(G3×H)は、入力信号に対してさらにβを追加した(α+β)の位相が進んだ信号となる。
第2左眼用信号(L2)=S+H'=S+(G3×H)は、入力信号に対してさらにβを追加した(α+β)の位相が遅れた信号となる。
この結果、
被写体距離が小さい場合に左右の眼で観察される画像は、
第1右眼用信号(R1)=S−H'=S−(G1×H)
第1左眼用信号(L1)=S+H'=S+(G1×H)
これらの信号の組み合わせとなり、この時の網膜像差は2αとなる。
一方、被写体距離が大きい場合に左右の眼で観察される画像は、
第2右眼用信号(R2)=S−H'=S−(G3×H)
第2左眼用信号(L2)=S+H'=S+(G3×H)
これらの信号の組み合わせとなり、この時の網膜像差は2(α+β)となる。
すなわち、
被写体距離が小さい場合に左右の眼で観察される画像の視差=2α、
被写体距離が大きい場合に左右の眼で観察される画像の視差=2(α+β)、
このように、左右の眼で観察される画像の視差は被写体距離が小さい場合は小さく設定され、被写体距離が大きい場合は大きく設定される。すなわち被写体距離に応じた視差が設定される。
結果として、画像の観察者(ユーザ)に、被写体距離が小さいオブジェクトは手前に、被写体距離が大きいオブジェクトはより遠くに見える感覚を与えることが可能となる。
このように、本発明の画像処理装置100は、入力画像信号(S)の空間的な特徴量としての輝度微分信号(H)に対して奥行き、すなわち被写体距離(D)に応じたゲイン(G)を乗じて生成した補正微分信号(H')、あるいはその非線形変換処理によって生成する視差強調信号(E')を抽出して入力画像信号に対してこれらの特徴量を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
なお、図9、図10(d)に示す右眼用画像信号(Right)は、以下のような信号特性(d1)〜(d3)を持つ信号として生成される。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号(または(c)補正微分信号)が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号(または(c)補正微分信号)が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d3)(b)微分信号(または(c)補正微分信号)が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
また、図9、図10(e)に示す左眼用画像信号(Left)は、以下のような信号特性(e1)〜(e3)を持つ信号として生成される。
(信号特性)
(e1)(a)入力信号の輝度変化が正、(b)微分信号(または(c)補正微分信号)が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(e2)(a)入力信号の輝度変化が負、(b)微分信号(または(c)補正微分信号)が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(e3)(b)微分信号(または(c)補正微分信号)が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
図4に示す画像合成部134は、上述したように、(a)入力信号(S)と、距離に応じて補正された(c)補正微分信号(H')、あるいはさらに非線形変換部133において非線形変換した結果(非線形変換部133の出力)である視差強調信号(E')とを合成(加減算)して(d)右眼用画像信号(R)と、(e)左眼用画像信号(L)を生成する。
なお、画像合成部134は、例えば、変換対象となる入力信号が静止画であれば、静止画を構成する1フレーム画像について、上記式、すなわち、
右眼用画像信号R=S−H’
左眼用画像信号L=S+H’
または、
右眼用画像信号R=S−E’
左眼用画像信号L=S+E’
上記式に従った信号合成処理によって、(d)右眼用画像信号(R)と、(e)左眼用画像信号(L)を生成する。
また、変換対象となる入力信号が動画であれば、動画を構成する各フレーム画像について、
R=S−H'
L=S+H'
または、
R=S−E'
L=S+E'
上記式に従った信号合成処理によって、(d)右眼用画像信号(R)と、(e)左眼用画像信号(L)を生成する。
ただし、動画像の場合は、最終的に画像表示を実行する画像出力部150(図2参照)や表示装置の制御方式に従って、右眼用画像信号と左眼用画像信号の生成態様を変更する設定としてもよい。以下、図15以下を参照して変換対象となる入力信号が動画像(ビデオデータ)である場合の画像合成部134の実行する複数の処理例について説明する。
まず、変換対象となる入力信号が動画像(ビデオデータ)の場合の画像合成部134の実行する基本的な処理例について図15を参照して説明する。図15に示す処理例は、画像合成部134(図4参照)が、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)のすべてについて、左眼用画像(Left)と右眼用画像(Right)の両画像を生成して出力する処理例である。
図15には、
(a)入力画像フレーム(S)
(p)奥行き情報(D)
(c)補正微分信号(H')
(d)右眼用信号(R)
(e)左眼用信号(L)
これらの具体的な画像例を示している。なお、(p)奥行き情報(D)は、明るい部分が被写体距離が小さく(近い)、暗い部分が被写体距離が大きい(遠い)ことを示す輝度による奥行き情報データである。
画像合成部134は、図15に示す(a)入力画像フレームのすべてのフレームについて、
(a)入力画像フレームの輝度信号(S)と、
(c)補正微分信号(H')[=(p)奥行き情報に基づいて微分画像信号のゲインを制御した補正微分信号(H')]
これらの信号を入力し、
右眼用画像信号R=S−H'
左眼用画像信号L=S+H'
上記算出処理に従って図15に示す(d)右眼用画像信号と、(e)左眼用画像信号を生成して出力する。この場合、画像合成部134は、2系統のビデオ信号を出力する。
なお、補正微分信号(H')に対する非線形変換(図8参照)結果を用いて、
右眼用画像信号R=S−E'
左眼用画像信号L=S+E'
上記算出処理に従って図15に示す(d)右眼用画像信号と、(e)左眼用画像信号を生成して出力する構成としてもよい。
図15に示す基本処理例では、画像合成部134は、全てのフレームに対応する右眼用画像と、左眼用画像の2系統のビデオ信号を出力する。これらの2系統の信号を受領した画像出力部150(図1参照)は、立体視を実現する表示装置にこれらのデータを出力する。表示装置は、立体視を実現する各種の表示方式に従って出力制御を行う。表示装置の表示方式とは、例えば、偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式、あるいは、液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式などである。表示装置は、画像合成部134の生成した2系統のビデオ信号を利用して上記いずれかの表示方式に従った画像を表示する。
図15に示す基本処理例は、各フレーム毎に奥行き情報を個別に生成または入力して処理を実行する例であるが、複数フレーム単位で1つのフレームから作成した奥行き情報、または代表1フレームに対応する入力された奥行き情報を利用する構成も可能である。
図16は、2つのフレーム単位で1つのフレームから生成した奥行き情報を利用する例、図17は、4つのフレーム単位で1つのフレームから生成した奥行き情報を利用する例である。
このような処理構成とすることで、奥行き情報の精製負荷が軽減され、装置の処理能力が低い場合でも処理の遅れなどを発生させることのないデータ処理が可能となる。
なお、画像表示方式が予め決定されている場合は、画像合成部134が、各画像出力方式に応じた出力画像信号を生成して出力する設定とすることができる。以下、図18〜図20を参照して、3つの異なる表示方式に応じた画像合成部134の処理例について説明する。
最終的に画像表示を実行する表示装置の表示方式としては、例えば以下の種類がある。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図18)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速としたアクティブ眼鏡方式に対応する方式(図19)
これは、図18と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図20)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
まず、図18を参照して、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部134の処理例について説明する。
この画像表示方式の場合、画像合成部134は、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)について、左眼用画像(Left)と右眼用画像(Right)を各フレーム毎に切り替えて生成して出力する。
入力するビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像および右眼用画像(または、右眼用画像および左眼用画像)として設定して出力する。出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
画像合成部134は、このような時間分割方式の立体表示装置に出力するため、入力ビデオデータの各フレーム(フレームn,n+1,n+2,n+3・・・)に対する画像合成処理をフレーム単位で左眼用画像と右眼用画像を切り替えて実行する。すなわち、図18(d),(e)に示すように、左眼用画像(Left)の合成と、右眼用画像(Right)の合成をフレーム単位で交互に実施して出力する。
図18に示す例では、フレームnでは、右眼用画像を先に説明した式(式1)に従って生成する。すなわち、図18(a)入力信号のフレームnのビデオデータの輝度レベルを(S)とし、図18(c)に示すフレームnの補正微分信号の信号レベルを(H')としたとき、
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
これらの加減算処理により、図18(d),(e)に示す右眼用画像信号と左眼用画像信号を生成する。
なお、補正微分信号(H')を非線形変換した視差強調信号の信号レベルを(E')とし、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
これらの加減算処理により、図18(d),(e)に示す右眼用画像信号と左眼用画像信号を生成する構成としてもよい。
この方式では、画像合成部134は、各フレームに対応して右眼用画像または左眼用画像の1画像を生成して出力することになる。すなわち1系統のビデオデータを出力する。
出力された画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。各画像の出力タイミングは、画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉と同期するように制御される。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるように制御される。
図19は、図18と同様、最終的に画像表示を実行する表示装置の表示方式が、左眼用画像と右眼用画像を時間分割に交互出力する方式である場合の画像合成部134の処理例である。ただし、この処理例は、図18に示す処理と異なり、入力ビデオデータの各フレームに対して、左眼用画像(Left)と右眼用画像(Right)の両画像を前述の式、すなわち、
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従った合成処理により合成して出力する。
画像出力を行う表示装置においては、入力ビデオデータの2倍のフレームレートで、左眼用画像と右眼用画像を時間分割に交互出力する。
この処理では、画像合成部134は、図19に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(c)補正微分信号画像(または視差強調信号)から、前述の式、すなわち、
R=S−H',L=S+H'、または、
R=S−E',L=S+E'、
上記式を適用して、(d)右眼用画像(R)と、(e)左眼用画像(L)を生成する。さらに、次のフレーム、すなわち、(a)入力画像のフレームn+1とその(c)補正微分信号画像(または視差強調信号)から、前述の式を適用して、(d)右眼用画像と、(e)左眼用画像を生成する。
このようにして1つのフレームから左眼用画像と右眼用画像を生成する。1フレームから生成した2枚の画像、すなわち、右眼用画像と左眼用画像は、画像出力部150を介して画像表示装置において左眼用画像と右眼用画像が時間分割に交互出力される。
画像出力部150は、表示装置において、図19(a)に示す入力画像のフレームレートの2倍のフレームレートで表示されるように出力する。なお、この表示タイミングに併せて画像を観察するユーザの装着する例えば液晶シャッタ方式によるメガネのシャッタ開閉も同期して制御する。すなわち、左眼には左眼用画像、右眼には右眼用画像が時間的に交互に観察されるようにする。この方式では、画像合成部134は、1系統の入力ビデオデータの2倍のフレームレートのビデオデータを出力する。
図20は、空間分割方式の立体表示装置に対して出力する場合の画像合成部134の処理例を示している。空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示される方式である。すなわち、メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図20(d)に示す右眼用画像のみが観察され、左眼には図20(e)に示す左眼用画像のみが観察される。
この処理では、画像合成部134は、図20に示すように、1つのフレーム、例えば、(a)入力画像のフレームnとその(c)補正微分信号画像(または視差強調信号)から、前述の式、すなわち、
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従った合成処理により合成して(d)右眼用画像と、(e)左眼用画像を生成する。
さらに、画像合成部134は、図20に示す(f)両眼視差画像を(d)右眼用画像と(e)左眼用画像から生成する。すなわち、(d)右眼用画像と(e)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する。画像合成部134は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(f)両眼視差画像を生成して出力する。
図20に示す(f)両眼視差画像は、(d)右眼用画像と(e)左眼用画像の有効領域(黒ライン以外の画像表示部)を連結して生成した画像である。すなわち、(f)両眼視差画像は、(d)右眼用画像と(e)左眼用画像の各ラインデータを交互に含む画像である。画像合成部134は、このようにして(f)両眼視差画像を生成して出力する。この方式では、画像合成部134は、入力画像と同一フレームレートの1系統のビデオデータを出力する。
画像出力部150は、空間分割方式の立体表示装置に対して、図20に示す(f)両眼視差画像を出力表示する。空間分割方式の立体表示装置は前述したように、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタが設定されている。ユーザは偏光フィルタ方式によるメガネで観察する。メガネの左右の偏光フィルタも偏光方向が異なるように設定したフィルタであり、右眼には、図20(d)に示す右眼用画像のみが観察され、左眼には図20(e)に示す左眼用画像のみが観察される。
図18〜図20を参照して説明した右眼用画像信号(Right)と、左眼用画像信号(Left)は、先に説明した式、すなわち、
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従って生成される画像である。
ただし、
Sは入力信号、
H'は、入力信号Sの微分信号Hを距離に応じたゲインGを乗じて生成した補正微分信号、
E'は、補正微分信号H'を非線形変換した視差強調信号である。
なお、視差強調信号E'は、入力信号Sの補正微分信号H'の非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
このような右眼用画像信号(Right)と、左眼用画像信号(Left)を生成して、これらの画像を観察者の右眼と左眼で観察することにより奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。
[8.被写体距離に応じたゲインを設定した補正微分信号および画像生成構成例について]
次に、被写体距離に応じたゲインを設定した補正微分信号および画像生成を行う画像変換部の具体的構成例について説明する。
画像変換部130の構成例については、先に図4を参照して説明した。図4に示す画像変換部130の構成は画像変換部の一つの構成例である。図4と異なる画像変換部130の構成例を図21に示す、
図21に示す画像変換部130は、
第1パス画像変換部300−1、
第2〜第nパス画像変換部L,300−L2〜Ln、
第2〜第nパス画像変換部R,300−R2〜Rn、
出力選択部L,301L、
出力選択部R,301R、
これらを有する。
第1パス画像変換部300−1と、第2〜第nパス画像変換部L,300−L2〜Lnと、第2〜第nパス画像変換部R300−R2〜Rnは、図22を参照して説明するように同じ構成を有する。従って、例えば各画像変換部300は1つのハードウェアを繰り返し利用する構成とすることが可能である。
出力選択部L,301Lは、第1パス画像変換部300−1と、第2〜第nパス画像変換部L,300−L2〜Lnの各出力を入力し、画素または画素ブロック単位の距離情報に応じて第1パス画像変換部300−1、および第2〜第nパス画像変換部L,300−L2〜Lnのいずれかの出力を、画素または画素ブロック単位で選択出力する。出力画像は左眼用画像(L)である。
出力選択部R,301Rは、第1パス画像変換部300−1と、第2〜第nパス画像変換部R,300−R2〜Rnの各出力を入力し、画素または画素ブロック単位の距離情報に応じて第1パス画像変換部300−1、および第2〜第nパス画像変換部R,300−R2〜Rnのいずれかの出力を、画素または画素ブロック単位で選択出力する。出力画像は右眼用画像(R)である。
なお、図21に示す画像変換部130の処理データは入力信号を輝度信号(Y)とし、輝度信号に基づく輝度画像を生成しているが、これらの輝度を色信号(RGB等)に画素値として反映させて出力することでL画像信号、R画像信号を生成して出力することができる。
第1パス画像変換部300−1と、第2パス画像変換部L,300−L2と、第2パス画像変換部R,300−R2の詳細構成例と処理について図22を参照して説明する。
第1パス画像変換部300−1は、第1パス位相制御信号生成部311と、第1パス非線形変換部312と、第1パス画像合成部313から構成される。
第1パス位相制御信号生成部311は、入力信号(S)に対する処理を行う。なお、以下では入力信号の輝度(Y)に対する処理であることを明示するため入力信号(Y)として示す。第1パス位相制御信号生成部311は、入力信号(Y)に対して微分処理を行い、微分信号(h(Y))を生成する。
第1パス非線形変換部312は、微分信号(h(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(Y))を生成する。
第1パス画像合成部313は、入力輝度信号(Y)に非線形変換された微分信号である視差強調信号(e(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e(Y)
右眼用信号R1=Y−e(Y)
第2パス画像変換部L,300−L2は、第1パス画像変換部300−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼信号L2を生成する。
第2パス画像変換部R,300−R2は、第1パス画像変換部300−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
第2パス画像変換部L,300−L2も、第2パス画像変換部R,300−R2も、第1パス画像変換部300−1と同様の構成を有する。
すなわち、第2パス画像変換部L,300−L2は、第2パス位相制御信号生成部321と、第2パス非線形変換部322と、第2パス画像合成部323から構成される。
第2パス画像変換部R,300−R2は、第2パス位相制御信号生成部331と、第2パス非線形変換部332と、第2パス画像合成部333から構成される。
第2パス画像変換部L,300−L2は、第1パス画像変換部300−1により生成された左眼用信号L1を入力として、以下の処理を実行して、さらに大きな視差を発生させる左眼用信号L2を生成する。
第2パス位相制御信号生成部321は、入力信号(左眼用信号L1)に対して微分処理を行い、微分信号(h(L1))を生成する。
第2パス非線形変換部322は、微分信号(h(L1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(L1))を生成する。
第2パス画像合成部323は、入力信号(左眼用信号L1)に非線形変換された微分信号である視差強調信号(e(L1))を加算することにより、以下の信号を生成する。
左眼用信号L2=L1+e(L1)
このように、第2パス画像変換部L,300−L2は、第1パス画像変換部300−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼用信号L2を生成する。
また、第2パス画像変換部R,300−R2は、第1パス画像変換部300−1により生成された右眼用信号R1を入力として、以下の処理を実行して、さらに大きな視差を発生させる右眼用信号R2を生成する。
第2パス位相制御信号生成部331は、入力信号(右眼用信号R1)に対して微分処理を行い、微分信号(h(R1))を生成する。
第2パス非線形変換部332は、微分信号(h(R1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(R1))を生成する。
第2パス画像合成部333は、入力信号(R1)に非線形変換された微分信号である視差強調信号(e(R1))を減算することにより、以下の信号を生成する。
右眼用信号R2=R1−e(R1)
このように、第2パス画像変換部R,300−R2は、第1パス画像変換部300−1により生成された右眼用信号Rを入力として、さらに大きな視差を発生させる右眼用信号R2を生成する。
図22には、第1パス画像変換部300−1と、第2パス画像変換部L,300−L2と、第2パス画像変換部R,300−R2の構成を示しているが、第3〜第nパス画像変換部L/Rはすべて同様の構成を有し、第kパス画像変換部L/Rは、それぞれ前段の第k−1パス画像変換部L/Rの出力(L(k−1)/R(k−1))を入力して、さらに視差を発生させた左眼用信号Lkと、右眼用信号Rkを生成する。
出力選択部L,301Lは、第1パス画像変換部300−1と、第2〜第nパス画像変換部L,300−L2〜Lnの各出力を入力し、画素または画素ブロック単位の距離情報に応じて第1パス画像変換部300−1、および第2〜第nパス画像変換部L,300−L2〜Lnのいずれかの出力を、画素または画素ブロック単位で選択出力する。出力画像は左眼用画像(L)である。
被写体距離が小さい画素領域については、第1パス画像変換部300−1の出力(L1)をその画素領域の出力として選択し、被写体距離が大きい画素領域については、第nパス画像変換部L300−Lnの出力(Ln)をその画素領域の出力として選択する。すなわち、距離情報が小〜大に応じて、第1パス画像変換部300−1から第nパス画像変換部L,300−L2〜Lnの各出力を選択して各画素領域の左眼用画像(L)を生成して出力する。
一方、出力選択部R,301Rは、第1パス画像変換部300−1と、第2〜第nパス画像変換部R,300−R2〜Rnの各出力を入力し、画素または画素ブロック単位の距離情報に応じて第1パス画像変換部300−1、および第2〜第nパス画像変換部R,300−R2〜Rnのいずれかの出力を、画素または画素ブロック単位で選択出力する。出力画像は右眼用画像(R)である。
被写体距離が小さい画素領域については、第1パス画像変換部300−1の出力(R1)をその画素領域の出力として選択し、被写体距離が大きい画素領域については、第nパス画像変換部R300−Rnの出力(Rn)をその画素領域の出力として選択する。すなわち、距離情報が小〜大に応じて、第1パス画像変換部300−1から第nパス画像変換部R,300−R2〜Rnの各出力を選択して各画素領域の右眼用画像(R)を生成して出力する。
これらの処理により、被写体距離が小さい画素領域は左眼用画像と右眼用画像の視差が小さく設定され、被写体距離が大きい画素領域は左眼用画像と右眼用画像の視差が大きく設定された各眼用の画像が生成されて出力されることになる。
例えば、第1パス画像変換部300−1の出力として得られる画像信号が、図14に示す第1左眼用信号L1と、第1右眼用信号R1であり、
第2パス画像変換部L300−L2の出力が図14に示す第2左眼用信号L2、第2パス画像変換部R300−R2の出力が図14に示す第2右眼用信号R2に対応する。
被写体距離の小さい画素領域では、第1パス画像変換部300−1の出力として得られる図14に示す第1左眼用信号L1と、第1右眼用信号R1が利用され、その視差は2αとなる。
また、被写体距離の大きい画素領域では、第2パス画像変換部L300−L2の出力と、第2パス画像変換部R300−R2の出力が利用され、その視差は、2(α+β)となる。
このように、本発明による画像処理装置では、被写体距離に応じた視差を生成することが可能となる。
次に、画像変換部130の別の構成例について図23を参照して説明する。
図23に示す画像変換部130は、
第1パス画像変換部400−1、
第2〜第nパス画像変換部L,400−L2〜Ln、
第2〜第nパス画像変換部R,400−R2〜Rn、
画像合成重み値算出部405、
画像合成処理部L,410L、
画像合成処理部R,410R、
これらを有する。
第1パス画像変換部400−1と、第2〜第nパス画像変換部L,400−L2〜Lnと、第2〜第nパス画像変換部R400−R2〜Rnは、図24、図25を参照して説明するように同じ構成を有する。従って、例えば各画像変換部400は1つのハードウェアを繰り返し利用する構成とすることが可能である。
画像合成重み値算出部405は、奥行き情報出力部115(図2、図3参照)から奥行き情報を入力し、予め設定した情報に応じて、各画素の奥行きに応じた重み(W)情報を、画像合成処理部L,410Lと画像合成処理部R,410Rに出力する。重みは、第1〜第nパス画像変換部の各々の出力値に対する重み情報である。
画像合成処理部L,410Lは、第1パス画像変換部と、第2〜第nパス画像変換部Lの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して左眼用画像(L)を生成する。
画像合成処理部R,410Rは、第1パス画像変換部と、第2〜第nパス画像変換部Rの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して右眼用画像(R)を生成する。
第1パス画像変換部400−1と、第2パス画像変換部L,400−L2と、第2パス画像変換部R,400−R2の詳細構成例と処理について図24を参照して説明する。
第1パス画像変換部400−1は、第1パス位相制御信号生成部411と、第1パスゲイン制御部412と、第1パス非線形変換部413と、第1パス画像合成部414から構成される。
第1パス位相制御信号生成部411は、入力輝度信号(Y)に対して微分処理を行い、微分信号(h(Y))を生成する。
第1パスゲイン制御部412は、微分信号(h(Y))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h'(Y))を生成する。
第1パス非線形変換部413は、補正微分信号(h'(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(Y))を生成する。
第1パス画像合成部414は、入力輝度信号(Y)に非線形変換された補正微分信号である視差強調信号(e'(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e'(Y)
右眼用信号R1=Y−e'(Y)
第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼信号L2を生成する。
第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
第2パス画像変換部L,400−L2も、第2パス画像変換部R,400−R2も、第1パス画像変換部400−1と同様の構成を有する。
すなわち、第2パス画像変換部L,400−L2は、第2パス位相制御信号生成部421と、第2パスゲイン制御部422と、第2パス非線形変換部423と、第2パス画像合成部424から構成される。
第2パス画像変換部R,400−R2は、第2パス位相制御信号生成部431と、第2パスゲイン制御部432と、第2パス非線形変換部433と、第2パス画像合成部434から構成される。
第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、以下の処理を実行して、さらに大きな視差を発生させる左眼用信号L2を生成する。
第2パス位相制御信号生成部421は、入力信号(左眼用信号L1)に対して微分処理を行い、微分信号(h(L1))を生成する。
第2パスゲイン制御部422は、微分信号(h(L1))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h'(L1))を生成する。
第2パス非線形変換部423は、補正微分信号(h'(L1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(L1))を生成する。
第2パス画像合成部424は、入力信号(左眼用信号L1)に非線形変換された補正微分信号である視差強調信号(e'(L1))を加算することにより、以下の信号を生成する。
左眼用信号L2=L1+e'(L1)
このように、第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼用信号L2を生成する。
また、第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、以下の処理を実行して、さらに大きな視差を発生させる右眼用信号R2を生成する。
第2パス位相制御信号生成部431は、入力信号(右眼用信号R1)に対して微分処理を行い、微分信号(h(R1))を生成する。
第2パスゲイン制御部432は、微分信号(h(R1))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h’(R1))を生成する。
第2パス非線形変換部433は、補正微分信号(h’(R1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e’(R1))を生成する。
第2パス画像合成部434は、入力信号(R1)に非線形変換された補正微分信号である視差強調信号(e’(R1))を減算することにより、以下の信号を生成する。
右眼用信号R2=R1−e’(R1)
このように、第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼用信号R2を生成する。
図24には、第1パス画像変換部400−1と、第2パス画像変換部L,400−L2と、第2パス画像変換部R,400−R2の構成を示しているが、第3〜第nパス画像変換部L/Rはすべて同様の構成を有し、第kパス画像変換部L/Rは、それぞれ前段の第k−1パス画像変換部L/Rの出力(L(k−1)/R(k−1))を入力して、さらに視差を発生させた左眼用信号Lkと、右眼用信号Rkを生成する。
第1パス画像変換部400−1と第2〜第nパス画像変換部L,400−L2〜Lnの生成した複数の左眼用信号(L1〜Ln)は、画像合成処理部L,410Lに入力される。
また、第1パス画像変換部400−1と第2〜第nパス画像変換部R,400−R2〜Rnの生成した複数の右眼用信号(R1〜Rn)は、画像合成処理部R,410Rに入力される。
画像合成処理部L,410Lと、画像合成処理部R,410Rの各々には、前述したように、さらに、画像合成重み値算出部405から奥行きに応じて各パス画像変換部の加算重みを設定した重み情報を入力する。
画像合成処理部L,410Lは、第1パス画像変換部と、第2〜第nパス画像変換部Lの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して左眼用画像(L)を生成する。
画像合成処理部R,410Rは、第1パス画像変換部と、第2〜第nパス画像変換部Rの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して右眼用画像(R)を生成する。
画像合成重み値算出部405には、入力画像に対応する奥行き情報が入力される。画像中のある領域(もしくは画素)についての奥行き情報が入力したとき、予めの設定に基づいて、当該領域に対応するn個の重み値W1〜Wnが決定される(nは画像変換のパス数に対応)。これは、各パスの出力結果に乗じる重み値である。
画像合成処理部L,410L、および画像合成処理部R,410Rでは、重み値に基づいた、画像の領域適応的な重み付け加算が行われる。
ここで、ある画素[座標は(x,y)]について、第kパス出力画像における画素値をPk(x,y)とし、重みがWk(x,y)に設定されたとすると、出力画像内の当該画素値Pout(x,y)は、下記の式で算出される。
上記算出式は、左眼用画像(L)、右眼用画像(R)とも同じ処理である。
重みW1〜Wnの設定については、合計が1となるような実数を割り当てればよく、特に方法を限定しないが、パス数が多い画像ほど視差が大きく、すなわち、奥に知覚されるような画像が生成されていることを鑑みると、奥行き情報により、当該領域が"手前"と示されている場合には、パス数が少ない出力画像への重みを大きく(wkのkが小さい方の値を大きく)、当該領域が"奥"と示されている場合には、パス数が多い出力画像への重みを大きく(wkのkが大きい方の値を大きく)、設定すべきである。
なお、各パス画像変換部に構成されるゲイン制御部では、予め設定済みの奥行き情報に応じたゲイン係数が算出される。奥行き情報に応じたゲイン係数の設定方法としては様々な手法が適用可能である。例えば被写体の距離が小さい、すなわち奥行きが"手前"である程、パス数が少ない段階で乗じるゲイン係数を大きく、パス数が多い段階で乗じるゲイン係数を小さくする。また被写体距離が大きく、奥行きが"奥"である程、パス数が少ない段階で乗じるゲイン係数を小さく、パス数が多い段階で乗じるゲイン係数を大きくする。
図23に示す画像変換部130を構成する第1パス画像変換部400−1と、第2パス画像変換部L,400−L2と、第2パス画像変換部R,400−R2の別の構成例について図25を参照して説明する。
図25に示す構成は、図24を参照して説明した構成と異なり、奥行き情報がゲイン係数算出部480に入力される。ゲイン係数算出部480は、入力した画素領域単位の奥行き情報に対応するゲイン係数を予め設定されたアルゴリズム(奥行きとゲイン係数との対応データ)に基づいて算出し、算出結果としてのゲイン係数を各パス画像変換部へと出力する。
第1パス画像変換部400−1は、第1パス位相制御信号生成部451と、第1パス乗算処理部452と、第1パス非線形変換部453と、第1パス画像合成部454から構成される。
第1パス位相制御信号生成部451は、入力輝度信号(Y)に対して微分処理を行い、微分信号(h(Y))を生成する。
第1パス乗算処理部452は、微分信号(h(Y))に対して、ゲイン係数算出部480から入力するゲイン係数を乗算して補正微分信号(h'(Y))を生成する。ゲイン係数算出部480から入力するゲイン係数は、各画素の距離情報に応じたゲイン係数である。
第1パス非線形変換部453は、補正微分信号(h'(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(Y))を生成する。
第1パス画像合成部454は、入力輝度信号(Y)に非線形変換された補正微分信号である視差強調信号(e'(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e'(Y)
右眼用信号R1=Y−e'(Y)
第2パス画像変換部L,400−L2は、第2パス位相制御信号生成部461と、第2パス乗算処理部462と、第2パス非線形変換部463と、第2パス画像合成部464から構成される。
第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼信号L2を生成する。
第2パス画像変換部R,400−R2は、第2パス位相制御信号生成部471と、第2パス乗算処理部472と、第2パス非線形変換部473と、第2パス画像合成部474から構成される。
第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
図24を参照して説明した構成との差異は、各パス画像変換部ないでゲイン係数を算出するのではなく、ゲイン係数算出部480の生成したゲイン係数を入力して、各パス位相制御信号生成部の生成した微分信号(h)に対する乗算を実行して補正微分信号(h')を生成する点である。
なお、ゲイン係数算出部480は、予め設定済みの奥行き情報に応じたゲイン係数を算出して、各パス画像変換部に出力する。奥行き情報に応じたゲイン係数の設定方法としては様々な手法が適用可能である。例えば被写体の距離が小さい、すなわち奥行きが"手前"である程、パス数が少ない段階で乗じるゲイン係数を大きく、パス数が多い段階で乗じるゲイン係数を小さくする。また被写体距離が大きく、奥行きが"奥"である程、パス数が少ない段階で乗じるゲイン係数を小さく、パス数が多い段階で乗じるゲイン係数を大きくする。
なお、上述した説明では、図21に示す画像変換部を構成するパス画像変換部の構成例として図22に示す構成を説明し、図23に示す画像変換部を構成するパス画像変換部の構成例として図24、図25示す構成を説明した。
しかし、図22、図24、図25に示すパス画像変換部の構成は、いずれも図21に示す画像変換部、または図23に示す画像変換部を構成するパス画像変換部の構成として利用可能である。
[9.画像変換部の処理シーケンスについて]
次に、図26に示すフローチャートを参照して、本発明の一実施例に係る画像処理装置100の画像変換部130の実行する処理のシーケンスについて説明する。なお、図26に示すフローチャートは入力画像が動画像(ビデオデータ)である場合の処理である。
ステップS101において、微分器131(図4参照)は、画像変換部130に入力されるビデオデータのうち輝度信号に対して微分処理を行う。すなわち、例えば図9および図10に示す(a)入力信号の微分処理により図9、図10に示す(b)微分信号(H)を生成する。
ステップS102では、奥行き情報の更新の要否を判定する。奥行き情報の更新は、例えば1フレーム単位、あるいは2フレーム単位、4フレーム単位等、予め設定した情報に従って行なう。1フレーム単位の奥行き情報の更新は、例えば先に図15を参照して説明した処理に対応し、2フレーム単位の更新は図16、4フレーム単位の更新は図17に示す処理に対応する。これらの設定に従って更新タイミングであるか否かを判定する。
更新タイミングである場合は、ステップS102の判定はYesとなり、ステップS103に進み、奥行き情報を更新する。すなわち最新の入力フレームに対応する奥行き情報を取得する。
次に、ステップS104において、ゲイン係数の算出処理を行う。このゲイン係数は、奥行き情報に対応して算出されるゲイン係数である。ただし、ゲイン係数の内容は、画像変換部の構成によって異なるものとなる。ここでは、図4に示す画像変換部130の構成を利用した場合について説明する。この場合、図4に示すゲイン制御部132においてゲイン係数が算出される。ここで算出されるゲイン係数は、被写体距離が大きい場合は大きいゲイン係数、被写体距離が小さい場合は小さいゲイン係数の設定となる。
次に、ステップS105において、微分信号補正処理を実行する。図4に示すゲイン制御部132において算出されたゲイン係数を適用して微分信号の補正が実行される。具体的には、図5を参照して説明したように、ゲイン制御部132内の乗算処理部202において、微分信号と、奥行き情報に基づいて算出されたゲイン(G)との乗算処理が行われる。この補正処理により、例えば図9、図10に示す(c)補正微分信号(H')が生成される。
次に、ステップS106において、補正微分信号(H')に対する非線形変換処理を実行する。非線形変換部133(図4参照)が、ゲイン制御部132から出力される補正微分信号(H')に対して非線形変換処理を行う。この非線形変換処理は、例えば図8に示すようなグラフに対応した非線形変換処理である。
ステップS107以下の処理は画像合成部134の処理である。画像合成部134内の制御部は、ステップS107において、現在の入力フレームに対する左眼用画像の合成を行うかどうかを判断する。この判断処理は、画像処理装置100の出力する画像表示装置の表示方式と、画像合成部134内に設けられたフレームカウンタの値に従って判断する。フレームカウンタは、入力画像フレームのフレーム番号に対応する値を保持するカウンタである。
画像表示装置の出力方式が例えば、図18に示す時間分割出力方式の場合には、画像合成部134はフレームカウンタの値に従って左眼用画像を出力するかどうかを判断する。すなわち図18に示す時間分割出力方式の場合には、偶数フレームまたは奇数フレームのいずれかのみにおいて左眼用画像を出力するように制御を行う。フレームカウンタの値に従って左眼用画像を出力すると判断した場合は、ステップS108に進む。一方、フレームカウンタの値により右眼用画像出力のフレームであると判断した場合にはステップS110に進む。
また、画像表示装置の出力方式が図18に示すような時間分割出力方式以外の場合、すなわち、図19に示す2倍のフレームレートによる時間分割出力方式、または、図20に示す空間分割出力方式、あるいは、画像表示装置側で左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部134は、全ての入力フレームに対して左眼用画像を合成すると判断してステップS108に進む。
ステップS108では、画像合成部134は、先に説明した式、すなわち、
左眼用画像信号:Left=S+E'
上記式に従って左眼用画像(Left)を生成する。
なお、(a)入力信号に相当するビデオデータの輝度レベルを(S)、
微分信号(H)を被写体距離(奥行き情報)に応じたゲインGを適用して補正した補正微分信号(H')の非線形変換した信号である視差強調信号の信号レベルを(E')としている。
一方、ステップS107において、現在の入力フレームに対する左眼用画像の合成を行わないと判定した場合は、ステップS110に進み、現在の入力フレームに対する右眼用画像を生成する。画像合成部134は、先に説明した式、すなわち、
右眼用画像信号:Right=S−E'
上記式に従って右眼用画像(Right)を生成する。
なお、(a)入力信号に相当するビデオデータの輝度レベルを(S)、
微分信号(H)を被写体距離(奥行き情報)に応じたゲインGを適用して補正した補正微分信号(H')の非線形変換した信号である視差強調信号の信号レベルを(E')としている。
ステップS108において左眼用画像の生成を終了すると、ステップS109において、左眼用画像の生成フレームと同一フレームに対して右眼用画像も生成するか否かを判定する。画像表示装置の出力方式が例えば図18に示す時間分割出力方式の場合には、各フレームにおいては左眼、右眼のいずれかの画像のみを合成するため、右眼用画像の生成は行わないと判断してステップS111に進む。
また、画像表示装置の出力方式時間分割出力方式以外の場合、すなわち、図19に示す2倍のフレームレートによる時間分割出力方式、または、図20に示す空間分割出力方式、あるいは、画像表示装置側で、左眼用画像、右眼用画像を入力して表示制御を行う場合は、画像合成部134は、全ての入力フレームに対して右眼用画像を合成すると判断してステップS110に進む。ステップS110の処理はすでに説明した通り、前述した式に従った右眼用画像の生成処理である。
ステップS111では、画像合成部134の制御部は、画像の縮小処理を行うかどうかを判断する。画像表示装置の出力形式が図20に示す空間分割出力方式の場合、画像縮小処理を行うと判断し、ステップS112に進む。画像表示装置の出力形式が図20に示す空間分割出力方式以外の場合、すなわち、図15〜図17に示す左眼用画像、右眼用画像の同時出力方式、図18に示す時間分割出力方式、または、図19に示す2倍のフレームレートによる時間分割出力方式のいずれかである場合には、画像縮小処理は不要であるため、ステップS114に進む。
ステップS112〜S113において、画像合成部134は、先に図20を参照して説明したように図20に示す(f)両眼視差画像を(d)右眼用画像と(e)左眼用画像から生成する。すなわち、(d)右眼用画像と(e)左眼用画像の各画像をそれぞれ位相を1ラインずらして垂直方向に1/2に縮小処理する(S112)。さらに、画像合成部134は、このようにして得られた左眼用画像と右眼用画像を水平ライン単位で交互に合成して1枚の(f)両眼視差画像を生成する(S113)。
ステップS114では、画像出力部150における画像出力処理が終了しているかどうかを判断する。画像出力処理が終了している場合、画像変換処理を終了する。画像出力処理が終了していない場合には、ステップS115に進む。
ステップS115では、フレームカウントをインクリメントし、ステップS101に進み、以降、ステップS101〜ステップS114の処理を繰り返す。
なお、図26に示すフローは、図4に示す構成を持つ画像変換部の処理に対応するフローである。
図21〜図25を参照して説明した複数のパス画像変換部を連結して、次第に大きな視差を発生させる画像を生成する構成を持つ画像変換部を利用する場合、例えば図26に示すフローのステップS104〜S106の処理が異なる設定となる。
図21を参照して説明した画像変換部の構成では、図21に示す出力選択部301において、各画素に対応する出力をどのパス画像変換部の出力とするかを選択する処理を実行する。この選択情報を奥行き情報に基づいて決定する処理が行われることになる。従って、この図21の構成では図26に示すフローのステップS104〜S106の処理が奥行き情報に基づくパス選択処理に置き換えられることになる。
また、図23を参照して説明した構成を持つ画像変換部の構成においては、ステップS104のゲイン係数算出処理の内容が異なる。図23を参照して説明した画像変換部の構成では、各パス画像変換部400において利用するゲイン係数を算出する。このゲイン係数算出処理は、前述したように、例えば被写体の距離が小さい、すなわち奥行きが"手前"である程、パス数が少ない段階で乗じるゲイン係数を大きく、パス数が多い段階で乗じるゲイン係数を小さくする。また被写体距離が大きく、奥行きが"奥"である程、パス数が少ない段階で乗じるゲイン係数を小さく、パス数が多い段階で乗じるゲイン係数を大きくするという設定でゲイン係数を算出する。
また、図23を参照して説明した構成を持つ画像変換部の構成においては、第1〜第nパス画像変換部の各々の出力値に対する重み情報の算出も行う必要がある。
なお、画像変換部の構成は、例えば図27に示すような構成としてもよい。図27に示す画像変換部130の構成は、図4に示す画像変換部内のゲイン制御部132と非線形変換部133の位置を入れ替えた構成を持つ。
図27に示す構成では、微分器131の生成した微分信号に対して、まず非線形変換部133において非線形変換(図8参照)を実行し、その非線形変換結果をゲイン制御部132に入力して被写体距離(奥行き情報)に基づくゲイン係数を乗算して補正微分&非線形処理信号(E')を生成するものである。この場合、図4に示す構成と処理手順が異なるが結果としてはほぼ同様の結果が得られる。
以上、説明の通り、本発明の一実施例の画像処理装置によれば、2次元画像データを入力とし、画像の特徴量、すなわち輝度変化部分であるエッジ部を抽出して、エッジ部の画像態様を変更することで右眼用画像と左眼用画像を生成する。この構成より、立体表示装置において好適な両眼視差画像を生成することが可能となる。
また、被写体のカメラからの距離に相当する奥行き情報を取得して奥行き情報に応じて入力信号(S)に対する微分信号(H)のゲイン制御を実行して補正微分信号(H')を生成して、補正微分信号(H')または補正微分信号を非線形変換した視差強調信号(E')を入力信号から加減算して左眼用信号(L)と右眼用信号(R)を生成する構成としたので、被写体距離(奥行き)に応じた視差が設定された両眼視差画像を生成することが可能となる。
また、従来型の画素シフトによる視差画像の生成に伴うオクルージョンの問題(図1参照)が発生せず、すべて有効画素値によって埋められた視差画像を生成することができる。
[10.2次元(2D)表示処理時の効果について]
さらに、本発明の画像処理装置は、右眼用画像(Right)と左眼用画像(Left)を以下のように生成している。
すなわち、例えば図9、図10の(a)入力信号(S)に対する(b)微分信号(H)に対して、距離に応じたゲイン値を乗じて(c)補正微分信号(H')を生成し、この(c)補正微分信号(H')と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
Right=S−H'
Left=S+H'
あるいは、(c)補正後の微分信号(H')に対する非線形変換により得られる視差強調信号(E')と、入力信号(S)を利用して、
Right=S−E'
Left=S+E'
上記処理により、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
これらの式から理解されるように、右眼用画像信号と左眼用画像信号を加算して生成される加算信号は、以下のようになる。
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
結果として加算信号は、入力画像と等価になる。
従って、例えば、図18、または図19を参照して説明したように時間分割方式の立体表示装置で表示する場合において、観察者であるユーザが液晶シャッタ方式のメガネを外して画像を観察すると、人間の視覚系における時間的な積分機能により左眼用画像(Left)と右眼用画像(Right)が積分された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
また、図20に示したように空間分割方式の立体表示装置で表示する場合には、偏光メガネを外した場合には、垂直方向の1画素を知覚できなくなる程度の距離から観察する場合には垂直方向の2画素が加算された画像を知覚する。この画像は、上記の加算信号、すなわち、
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
このように、本発明の画像処理装置によって生成される画像は、立体表示装置を用いて表示を行うことにより、立体視用のメガネを装着した場合には立体知覚が可能であり、立体視用のメガネを非装着の場合には、変換を施していない元の2次元画像として知覚することが可能となる。
このように、加算信号は、入力信号に等しくなる、またはほぼ等しくなる設定である。従って、立体表示装置に表示した画像をユーザが見る場合に、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となる。すなわち、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像変換装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
[11.画像表示部を持つ実施例について]
図2、図3を参照して説明した画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図28は、画像表示部を持つ画像処理装置の一実施例を示す図である。
画像表示装置500は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部120が対応していればどのような色空間でも構わない。
奥行き情報出力部115は、画像入力部110の入力画像信号に対応した奥行き情報を外部から入力、または内部で生成して画像変換部130に出力する。奥行き情報は、例えば図1(b)に示すような距離画像などであり、データ形式は特定するものでない。
画像入力部110から出力されたビデオデータは、色空間変換部120に入力され、輝度信号と色差信号に変換される。このとき、入力ビデオデータがY,Cb,Cr色空間に従う場合には、色空間変換部120、色空間の変換を行わずに出力する。入力ビデオデータがR,G,B色空間、または他の色空間に従う場合には、色空間変換部120は、輝度(Y)、色差(Cb,Cr)信号への変換を行い出力する。
ここで、色空間変換部120から出力するビデオデータの色空間は、Y,Cb,Cr空間に限るものではなく、輝度成分と色成分が分離された色空間であれば、どのような空間でも構わない。
色空間変換部120から出力されたビデオデータは、画像変換部130に入力される。画像変換部130は、先に説明した処理によって左眼用と右眼用の両眼視差画像を生成し、画像表示部550の形式に従ってこれらの画像を合成して出力する。
画像変換部130から出力されたビデオデータは、色空間逆変換部140に入力され、Y,Cb,Cr色空間からR,G,B色空間へ変換される。
色空間逆変換部140から出力されたビデオデータは、画像表示部550に入力される。画像表示部550は、画像出力部と表示部とを兼ね備えた構成であり、以下に示す立体表示方式(時間分割方式または空間分割方式)のいずれかの方式よって画像表示を行う。
(時間分割方式)
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部550は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
(空間分割方式)
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
以上、説明の通り、本発明による画像処理装置によれば、2次元画像データを入力とし、画像の特徴量から擬似的に右眼用画像と左眼用画像を生成することにより、両眼視差を利用した立体表示を行うことが可能である。さらに、本発明による画像処理装置によれば、左眼用画像と右眼用画像を加算したときに入力画像と等価となるように画像変換を行うことにより、立体視用のメガネを装着した場合には立体表現を知覚することが可能であり、立体視用のメガネを装着しない場合には通常の2次元画像として知覚することが可能となり、メガネの装着の有無によらず画像を鑑賞することが可能となる。また、本発明による画像表示装置によれば、左眼用画像と右眼用画像の視差は非常に小さく、立体視用メガネを装着した場合の疲労度を低減することが可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、簡易な信号処理により被写体距離を反映した立体視可能な画像信号を生成することが可能となる。本発明の一実施例の画像処理装置は、入力画像信号の空間的な特徴量に対して被写体距離情報としての奥行き情報を適用した異なる強調処理を施すことで左眼用画像と右眼用画像を生成する。具体的には入力信号の微分信号に、奥行き情報に応じたゲイン制御により補正微分信号を生成する。この補正微分信号またはその非線形変換信号を入力画像信号に加算および減算し、これらの信号の組を左眼用画像と右眼用画像とする。本構成により、被写体距離に応じた視差の設定された視差画像生成が可能となる。また、左/右眼用画像の加算信号は入力信号に等しくなり立体視メガネなしで画像を観察した場合には通常の2次元画像として観察可能となる。
100 画像処理装置
110 画像入力部
115 奥行き情報出力部
120 色空間変換部
130 画像変換部
131 微分器
132 ゲイン制御部
133 非線形変換部
134 画像合成部
140 色空間逆変換部
150 画像出力部
201 ゲイン係数算出部
202 乗算処理部
300 画像変換部
301 出力選択部
311 第1パス位相制御信号生成部
312 第1パス非線形変換部
313 第1パス画像合成部
321 第2パス位相制御信号生成部
322 第2パス非線形変換部
323 第2パス画像合成部
331 第2パス位相制御信号生成部
332 第2パス非線形変換部
333 第2パス画像合成部
400 画像変換部
405 画像合成重み値算出部
410 画像合成処理部
411 第1パス位相制御信号生成部
412 第1パスゲイン制御部
413 第1パス非線形変換部
414 第1パス画像合成部
421 第2パス位相制御信号生成部
422 第2パスゲイン制御部
423 第2パス非線形変換部
424 第2パス画像合成部
431 第2パス位相制御信号生成部
432 第2パスゲイン制御部
433 第2パス非線形変換部
434 第2パス画像合成部
451 第1パス位相制御信号生成部
452 第1パス乗算処理部
453 第1パス非線形変換部
454 第1パス画像合成部
461 第2パス位相制御信号生成部
462 第2パス乗算処理部
463 第2パス非線形変換部
464 第2パス画像合成部
471 第2パス位相制御信号生成部
472 第2パス乗算処理部
473 第2パス非線形変換部
474 第2パス画像合成部
550 画像表示部

Claims (18)

  1. 2次元画像を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力部と、
    前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
    を具備する画像処理装置。
  2. 前記画像変換部は、
    前記奥行き情報出力部の出力する奥行き情報が大きい画像領域に対しては大きいゲインによる前記輝度微分信号の補正処理を行い、
    奥行き情報が小さい画像領域に対しては小さいゲインによる前記輝度微分信号の補正処理を行い、前記補正微分信号を生成する請求項1に記載の画像処理装置。
  3. 前記画像変換部は、
    前記補正微分信号を非線形変換して生成した信号を、前記輝度信号に対して加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像の輝度信号として生成する処理を行う構成である請求項1に記載の画像処理装置。
  4. 前記画像変換部は、
    (a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
    (b)前記位相制御信号生成部の生成する輝度微分信号に対する非線形変換処理を実行する非線形変換部、
    (c)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
    上記(a)〜(c)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスを有し、
    前記奥行き情報出力部の出力する奥行き情報に応じて、前記処理パスを構成する各画像変換単位の出力を選択し合成して左眼用画像または右眼用画像を生成する処理を行う請求項1に記載の画像処理装置。
  5. 前記画像変換部は、
    (a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
    (b)前記位相制御信号生成部の生成する輝度微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数によるゲイン制御を実行して補正微分信号を生成するゲイン制御部、
    (c)前記ゲイン制御部の出力に対して非線形変換処理を実行する非線形変換部、
    (d)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
    上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、
    前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、
    前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する請求項1に記載の画像処理装置。
  6. 前記画像変換部は、
    (a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
    (b)前記位相制御信号生成部の生成する輝度微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数を乗算して補正微分信号を生成する乗算処理部、
    (c)前記乗算処理部の出力に対して非線形変換処理を実行する非線形変換部、
    (d)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
    上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、
    前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、
    前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する請求項1に記載の画像処理装置。
  7. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。
  8. 前記画像処理装置は、さらに、
    前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、
    前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を前記2次元画像のフレームレートの2倍速で交互に出力する処理を行う構成である請求項7に記載の画像処理装置。
  9. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。
  10. 前記画像変換部は、
    動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、
    生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。
  11. 前記画像変換部は、
    生成する左眼用画像と右眼用画像の輝度信号の加算信号が前記2次元画像の輝度信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である請求項1〜10いずれかに記載の画像処理装置。
  12. 前記画像処理装置は、さらに、
    前記画像変換部の生成した画像を表示する画像表示部を有する構成である請求項1〜11いずれかに記載の画像処理装置。
  13. 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である請求項12に記載の画像処理装置。
  14. 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である請求項13に記載の画像処理装置。
  15. 前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である請求項12に記載の画像処理装置。
  16. 画像処理装置において実行する画像処理方法であり、
    行き情報出力部が、2次元画像を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力ステップと、
    画像変換部が、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを有する画像処理方法。
  17. 画像処理装置において画像処理を実行させるプログラムであり、
    行き情報出力部に、2次元画像を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
    画像変換部に、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを実行させるプログラム。
  18. 画像処理装置において画像処理を実行させるプログラムを記録した記録媒体であり、
    前記プログラムは、
    奥行き情報出力部に、2次元画像を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
    画像変換部に、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを実行させるプログラムである記録媒体。
JP2009283080A 2009-12-14 2009-12-14 画像処理装置、および画像処理方法、並びにプログラム Expired - Fee Related JP5387377B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009283080A JP5387377B2 (ja) 2009-12-14 2009-12-14 画像処理装置、および画像処理方法、並びにプログラム
US12/960,066 US8866884B2 (en) 2009-12-14 2010-12-03 Image processing apparatus, image processing method and program
CN201010586284.9A CN102104786B (zh) 2009-12-14 2010-12-07 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009283080A JP5387377B2 (ja) 2009-12-14 2009-12-14 画像処理装置、および画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011124935A JP2011124935A (ja) 2011-06-23
JP2011124935A5 JP2011124935A5 (ja) 2012-12-20
JP5387377B2 true JP5387377B2 (ja) 2014-01-15

Family

ID=44157253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009283080A Expired - Fee Related JP5387377B2 (ja) 2009-12-14 2009-12-14 画像処理装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8866884B2 (ja)
JP (1) JP5387377B2 (ja)
CN (1) CN102104786B (ja)

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5397190B2 (ja) * 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
SG185500A1 (en) 2010-05-12 2012-12-28 Pelican Imaging Corp Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US8964012B2 (en) 2011-02-14 2015-02-24 Samsung Electronics Co., Ltd. Display panel having a polarizing layer and display apparatus having the same
US8848141B2 (en) 2011-02-14 2014-09-30 Samsung Electronics Co., Ltd. Display panel and display apparatus having the same
KR101282138B1 (ko) * 2011-02-14 2013-07-04 삼성전자주식회사 디스플레이패널 및 이를 포함하는 디스플레이장치
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
TWI484816B (zh) * 2011-07-04 2015-05-11 Mstar Semiconductor Inc 被動式立體影像系統及其影像處理方法
JP5831024B2 (ja) * 2011-08-04 2015-12-09 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
JP5691966B2 (ja) * 2011-09-22 2015-04-01 株式会社Jvcケンウッド 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP5691965B2 (ja) * 2011-09-22 2015-04-01 株式会社Jvcケンウッド 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
JP2013115668A (ja) 2011-11-29 2013-06-10 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9113059B2 (en) 2011-11-30 2015-08-18 Canon Kabushiki Kaisha Image pickup apparatus and image region discrimination method
DE112011105951T5 (de) 2011-12-16 2014-09-11 Intel Corporation Auflösungsverlustminderung für 3D-Anzeigen
US9571810B2 (en) 2011-12-23 2017-02-14 Mediatek Inc. Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing
US20130162763A1 (en) * 2011-12-23 2013-06-27 Chao-Chung Cheng Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map
JP5692051B2 (ja) * 2011-12-27 2015-04-01 株式会社Jvcケンウッド 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
WO2013125139A1 (ja) * 2012-02-22 2013-08-29 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2013190814A1 (ja) * 2012-06-22 2013-12-27 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
JP5949314B2 (ja) 2012-08-20 2016-07-06 株式会社日本自動車部品総合研究所 視差マップ生成装置および視差マップ生成装置用のプログラム
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
WO2014030390A1 (ja) * 2012-08-23 2014-02-27 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
JP5746795B2 (ja) * 2012-09-27 2015-07-08 富士フイルム株式会社 撮像装置及び画像処理方法
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015050016A1 (ja) * 2013-10-02 2015-04-09 オリンパスメディカルシステムズ株式会社 3次元画像システム
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9779508B2 (en) * 2014-03-26 2017-10-03 Microsoft Technology Licensing, Llc Real-time three-dimensional reconstruction of a scene from a single camera
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN104104940A (zh) * 2014-07-29 2014-10-15 冠捷显示科技(厦门)有限公司 一种裸眼3d深度图像传送方法
JP6428024B2 (ja) * 2014-07-31 2018-11-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
JP2016053849A (ja) * 2014-09-03 2016-04-14 ソニー株式会社 画像処理装置および画像処理方法、並びに固体撮像装置
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6931268B2 (ja) 2015-06-08 2021-09-01 キヤノン株式会社 画像処理装置および画像処理方法
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
JP6611576B2 (ja) * 2015-11-30 2019-11-27 キヤノン株式会社 画像処理装置および画像処理方法
EP3518532B1 (en) * 2016-09-23 2021-08-25 Nippon Telegraph and Telephone Corporation Image generating device, image generating method, data structure, and program
JP6615824B2 (ja) * 2016-09-23 2019-12-04 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP2019053644A (ja) * 2017-09-19 2019-04-04 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US10929958B1 (en) * 2019-11-15 2021-02-23 Novatek Microelectronics Corp. Method and image processing device for image blurring
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
CN113542712A (zh) * 2020-04-16 2021-10-22 钰立微电子股份有限公司 多深度信息的处理方法与处理系统
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
KR20220151420A (ko) * 2021-05-06 2022-11-15 삼성전자주식회사 웨어러블 전자 장치 및 3d 이미지 출력 방법
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
WO2023032209A1 (ja) * 2021-09-06 2023-03-09 日本電信電話株式会社 映像処理装置、映像処理方法、およびプログラム
US20230401687A1 (en) * 2022-06-13 2023-12-14 National Technology & Engineering Solutions Of Sandia, Llc Thermographic Phosphor Digital Image Correlation
CN115190286B (zh) * 2022-07-06 2024-02-27 敏捷医疗科技(苏州)有限公司 一种2d图像转换方法及装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62293381A (ja) * 1986-06-11 1987-12-19 Toshiba Corp 立体画像表示装置
JP3182009B2 (ja) 1992-12-24 2001-07-03 日本電信電話株式会社 両眼立体視装置
JP2983844B2 (ja) 1994-07-14 1999-11-29 三洋電機株式会社 3次元画像変換方法
US6553184B1 (en) 1994-03-14 2003-04-22 Sanyo Electric Co., Ltd. Method of converting two dimensional images into three-dimensional images
JP3091644B2 (ja) * 1994-08-26 2000-09-25 三洋電機株式会社 2次元画像の3次元化方法
KR0146105B1 (ko) * 1995-04-25 1998-09-15 구자홍 패턴인식형 윤곽보정장치
JP3096625B2 (ja) * 1995-10-20 2000-10-10 三洋電機株式会社 2次元映像を3次元映像に変換する方法
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3005474B2 (ja) 1996-08-07 2000-01-31 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
WO1998004087A1 (fr) 1996-07-18 1998-01-29 Sanyo Electric Co., Ltd. Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JPH1198534A (ja) * 1997-09-24 1999-04-09 Sanyo Electric Co Ltd 3次元映像生成方法
JP3540626B2 (ja) * 1998-09-17 2004-07-07 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
JP4051196B2 (ja) * 2001-11-08 2008-02-20 オリンパス株式会社 ノイズリダクションシステム、ノイズリダクション方法、ノイズリダクションプログラム、及び電子カメラ
CN101246251A (zh) * 2003-09-10 2008-08-20 夏普株式会社 摄影透镜位置控制装置
EP1665815A2 (de) * 2003-09-15 2006-06-07 Armin Grasnick Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit rumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
JP4214976B2 (ja) 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
DE10353417A1 (de) * 2003-11-11 2005-06-09 X3D Technologies Gmbh Anordnung zur zwei- oder dreidimensionalen Darstellung
US7262767B2 (en) 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
JP4687320B2 (ja) * 2005-08-11 2011-05-25 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
JP2007166277A (ja) * 2005-12-14 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> 3次元画像情報の伝送方法、送信側装置および受信側装置
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
KR100859694B1 (ko) * 2007-04-12 2008-09-23 삼성에스디아이 주식회사 평면/입체 액정 표시장치 및 그 구동방법
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US8029139B2 (en) * 2008-01-29 2011-10-04 Eastman Kodak Company 2D/3D switchable color display apparatus with narrow band emitters
US8029193B2 (en) * 2008-03-07 2011-10-04 Pacific Bearing Company Guide rail and method for manufacturing same
JP5347717B2 (ja) * 2008-08-06 2013-11-20 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5280450B2 (ja) * 2008-08-07 2013-09-04 株式会社日立メディコ X線ct画像形成方法及びそれを用いたx線ct装置
KR20120089440A (ko) * 2009-08-05 2012-08-10 톰슨 라이센싱 입체영상 디스플레이들에서 고스트에 대한 광학적인 보상

Also Published As

Publication number Publication date
JP2011124935A (ja) 2011-06-23
CN102104786A (zh) 2011-06-22
US8866884B2 (en) 2014-10-21
US20110273531A1 (en) 2011-11-10
CN102104786B (zh) 2014-04-02

Similar Documents

Publication Publication Date Title
JP5387377B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5347717B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5521913B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP2259601B1 (en) Image processing method, image processing device, and recording medium
JP5879713B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2011124935A5 (ja)
TW201242335A (en) Image processing device, image processing method, and program
JP5402483B2 (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2012120057A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9088774B2 (en) Image processing apparatus, image processing method and program
JP5304758B2 (ja) 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム
US9064338B2 (en) Stereoscopic image generation method and stereoscopic image generation system
JP5794335B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5569635B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6028427B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R151 Written notification of patent or utility model registration

Ref document number: 5387377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees