JP5496276B2 - 映像処理方法及び立体映像表示装置 - Google Patents

映像処理方法及び立体映像表示装置 Download PDF

Info

Publication number
JP5496276B2
JP5496276B2 JP2012157286A JP2012157286A JP5496276B2 JP 5496276 B2 JP5496276 B2 JP 5496276B2 JP 2012157286 A JP2012157286 A JP 2012157286A JP 2012157286 A JP2012157286 A JP 2012157286A JP 5496276 B2 JP5496276 B2 JP 5496276B2
Authority
JP
Japan
Prior art keywords
eye
data
coordinates
video
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012157286A
Other languages
English (en)
Other versions
JP2013027041A (ja
Inventor
明 秀 朴
再 雨 李
漢 錫 金
泰 旭 金
Original Assignee
エルジー ディスプレイ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルジー ディスプレイ カンパニー リミテッド filed Critical エルジー ディスプレイ カンパニー リミテッド
Publication of JP2013027041A publication Critical patent/JP2013027041A/ja
Application granted granted Critical
Publication of JP5496276B2 publication Critical patent/JP5496276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明はテキスト領域の文字可読性を高めることができる映像処理方法及びこれを利用した立体映像表示装置に関する。
立体映像表示装置は両眼視差方式(stereoscopic technique)と複合視差知覚方式(autostereoscopic technique)に分けられる。
両眼視差方式は、立体効果が大きい左右目の視差映像を利用し、眼鏡方式と無眼鏡方式があり、二つの方式とも実用化されている。眼鏡方式は、直視形表示素子やプロジェクタに左右視差映像の偏光方向を変えて表示し偏光メガネを用いて立体映像を実現するパターンドリターダ方式がある。また、眼鏡方式は直視型表示素子やプロジェクタに左右視差映像を時分割して表示し液晶シャッタメガネを用いて立体映像を実現するシャッタメガネ方式がある。無眼鏡方式は一般的にパララックスバリヤ、レンチキュラーレンズなどの光学板を用いて左右視差映像の光軸を分離し立体映像を実現する。
図1は従来パターンドリターダ方式の立体映像表示装置を示した図である。図1を参照すると、パターンドリターダ方式の立体映像表示装置は表示パネル(DIS)上に配置されたパターンドリターダ(Patterned Retarder)(PR)の偏光特性と、使用者が着用した偏光メガネ(PG)の偏光特性を利用して立体映像を実現する。パターンドリターダ方式の立体映像表示装置は表示パネル(DIS)の奇数ラインには左目イメージを表示し、偶数ラインには右目イメージを表示する。表示パネル(DIS)の左目イメージはパターンドリターダ(PR)をパスすると左目偏光に変換され、右目イメージはパターンドリターダ(PR)をパスすると右目偏光に変換される。偏光メガネ(PG)の左目偏光フィルタは左目偏光のみを通過させ、右目偏光フィルタは右目偏光のみを通過させる。したがって、使用者は左目を通じて左目イメージのみを見るようになり、右目を通じて右目イメージのみを見るようになる。
図1のようなパターンドリターダ方式の立体映像表示装置は2Dモードで2D映像を表示し、3Dモードで立体映像(3D映像)を表示する。2D映像または3D映像にテキスト領域が含まれている場合、テキスト領域の文字可読性の落ちる問題がある。
特に、パターンドリターダ方式の立体映像表示装置は3Dモードで奇数ラインに左目映像を表示し偶数ラインに右目映像を表示するので、映像の境界部が滑らかでなく階段のように見えるギザギザ(jagging)現象によってテキスト領域の文字可読性がさらに落ちる問題がある。
そこで、本発明は、前記問題に鑑みてなされたものであり、本発明の目的は、2D及び3Dモードでテキスト領域の文字可読性を高めることができる映像処理方法とこれを利用した立体映像表示装置を提供することにある。
前記目的を果たすために、本発明に係る映像処理方法は左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換する段階と、前記左目エッジデータと前記右目エッジデータを分析して左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出する段階と、前記左目座標のそれぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換して左目変換データを生成し、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれに隣接する右目映像データの平均値に変換して右目変換データを生成する段階と、前記左目変換データと前記右目変換データを3Dフォーマット方法によって変換して変換された3D映像データを生成する段階を含む。
また、本発明に係る映像処理部は左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換するエッジ変換部と、前記左目エッジデータと前記右目エッジデータを分析して左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出するテキスト領域検出部と、前記左目座標のそれぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換して左目変換データを生成し、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれに隣接する右目映像データの平均値に変換して右目変換データを生成するデータ変換部と、前記左目変換データと前記右目変換データを3Dフォーマット方法によって変換して変換された3D映像データを生成する3Dフォーマットを含む。
また、本発明に係る立体映像表示装置はデータラインとゲートラインが交差される表示パネルと入力される映像データのテキスト領域を検出して前記テキスト領域の文字可読性を改善する映像処理部と前記映像処理部から出力された映像データをデータ電圧に変換して前記データラインに出力するデータ駆動部と、前記データ電圧に同期されるゲートパルスを前記ゲートラインに順次に出力するゲート駆動部を備え、前記映像処理部は、左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換するエッジ変換部と前記左目エッジデータと前記右目エッジデータを分析して左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出するテキスト領域検出部と前記左目座標のそれぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換し、左目変換データを生成して、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれに隣接する右目映像データの平均値に変換して右目変換データを生成するデータ変換部と、前記左目変換データと前記右目変換データを3Dフォーマット方法によって変換して変換された3D映像データを生成する3Dフォーマットを含むことを特徴とする。
以上のように、本発明の実施の形態に係る3Dモードで映像処理部140と映像処理方法はテキスト領域で検出された左目映像データ(RGBL)にそれと隣接したラインの左目映像データ(RGBL)を適用し、右目座標(CR)それぞれに対応する右目映像データ(RGBR)にそれと隣接したラインの右目映像データ(RGBR)を適用する。これにより、本発明は奇数ラインまたは偶数ラインに配列されない左目映像データまたは右目映像データを補うことができる。その結果、本発明はテキスト領域の文字可読性を高めることができる。
また、本発明の実施の形態に係る2Dモードで映像処理部140と映像処理方法はテキスト領域に検出された座標(C2D)それぞれに対応する原2D映像データ(RGB2D)にシャープネスフィルタを利用して鮮明度を改善する。その結果、本発明はテキスト領域の文字可読性を高めることができる。
パターンドリターダ方式の立体映像表示装置を示す図である。 本発明の実施の形態に係る立体映像表示装置を概略的に示すブロック図である。 表示パネル、パターンドリターダ及び偏光メガネを示す分解斜視図である。 図2の映像処理部を詳しく示すブロック図である。 本発明の実施の形態に係る3Dモードで映像処理部の映像処理方法を示す流れ図である。 入力3D映像を示す例示図である。 左目映像を示す例示図である。 左目グレースケール映像を示す例示図である。 左目エッジ映像を示す例示図である。 左目量子化映像を示す例示図である。 第1マスクを示す例示図である。 第2及び第3マスクを示す例示図である。 左目量子化映像を示す例示図である。 左目テキスト領域拡張映像を示す例示図である。 左目テキスト領域検出映像を示す例示図である。 単純な映像を示す例示図である。 複雑な映像を示す例示図である。 本発明の第1実施の形態に係る3Dフォーマットの3Dフォーマット方法を示す図である。 本発明の第2実施の形態に係る3Dフォーマットの3Dフォーマット方法を示す図である。 本発明の実施の形態に係る2Dモードで映像処理部の映像処理方法を示す流れ図である。 従来技術を適用したテキスト領域を含む3D映像を示す例示図である。 本発明の実施の形態に係る映像処理方法を適用したテキスト領域を含む3D映像を示す図である。
以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。
図3は本発明の実施の形態に係る立体映像表示装置を概略的に示すブロック図である。図4は表示パネル、パターンドリターダ、及び偏光メガネを示す分解斜視図である。本発明の立体映像表示装置は液晶表示素子(Liquid Crystal Display LCD)、電界放出表示素子(Field Emission Display、FED)、プラズマディスプレイパネル(Plasma Display Panel、PDP)、有機発光ダイオード素子(Organic Light Emitting Diode、OLED) などの平板表示素子で実現される。本発明は以下の実施の形態では液晶表示素子を中心に例示するが、液晶表示素子に限定されないことに注意しなければならない。
図3及び図4を参照すると、本発明の立体映像表示装置は表示パネル10、偏光メガネ20、ゲート駆動部110、データ駆動部120、フレームメモリ130、タイミングコントローラ140、及びホストシステム150などを含む。
表示パネル10は二枚のガラス基板の間に液晶層が形成される。表示パネル10の下部ガラス基板上にはデータライン(D)とゲートライン(G)によって定義されたセル領域に画素がマトリクス形態に配置されたTFTアレイが形成される。表示パネル10の画素のそれぞれは薄膜トランジスタに接続され画素電極と共通電極の間の電界によって駆動される。
表示パネル10の上部ガラス基板上にはブラックマットリックス、カラーフィルタ、共通電極などを含むカラーフィルタアレイが形成される。共通電極はTN(Twisted Nematic)モードとVA(Vertical Alignment)モードのような垂直電界駆動方式で上部ガラス基板上に形成され、IPS(In Plane Switching)モードとFFS(Fringe Field Switching)モードのような水平電界駆動方式で画素電極とともに下部ガラス基板上に形成される。表示パネル10の液晶モードは前述のTNモード、VAモード、IPSモード、FFSモードだけでなくあらゆる液晶モードでも実現される。
表示パネル10は代表的にバックライトユニットからの光を変調する透過型液晶表示パネルが選択されることができる。バックライトユニットはバックライトユニット駆動部から供給される駆動電流によって点灯する光源、導光板(または拡散板)、複数の光学シートなどを含む。バックライトユニットは直下型バックライトユニット、またはエッジ型バックライトユニットに実現される。バックライトユニット30の光源はHCFL(Hot Cathode Fluorescent Lamp)、CCFL(Cold Cathode Fluorescent Lamp)、EEFL(External Electrode Fluorescent Lamp)、LED(Light Emitting Diode)のうちのいずれか一または二種類以上の光源を含むことができる。
図4を参照すると、表示パネル10の上部ガラス基板には上部偏光板11Aが接触して配置され、下部ガラス基板には下部偏光板11Bが接触して配置される。また、上部ガラス基板と下部ガラス基板には液晶のプレチルト角を設定するための配向膜が形成される。表示パネル10の上部ガラス基板と下部ガラス基板の間には液晶層のセルギャップを維持するためのスペーサーが形成される。
2Dモードで表示パネル10の奇数ラインの画素と偶数ラインの画素は2D映像を表示する。3Dモードで表示パネル10の奇数ラインの画素は左目イメージ(または右目イメージ)を表示し偶数ラインの画素は右目イメージ(または左目イメージ)を表示する。表示パネル10の画素に表示された映像の光は上部偏光フィルムを通じて表示パネル10上に配置されたパターンドリターダ(Patterned Retarder)30に入射される。
パターンドリターダ30の奇数ラインには第1リターダ31が形成され、偶数ラインには第2リターダ32が形成される。したがって、表示パネル10の奇数ラインの画素はパターンドリターダ30の奇数ラインに形成される第1リターダ31と対向され、表示パネル10の偶数ラインの画素はパターンドリターダ30の偶数ラインに形成される第2リターダ32と対向される。パターンドリターダ30の第1リターダ31は第1円偏光(左円編光)だけを通過させるように実現される。第2リターダ32は第2円編光(右円偏光)だけを通過させるように実現される。
一方、パターンドリターダ30は垂直視野角を広げるためにブラックストライプ(black stripe)を含むことができる。
偏光メガネ20は第1リターダ31から変換された第1円偏光を通過させる左目偏光フィルタ(FL)と第2リターダ32から変換された第2円編光を通過させる右目偏光フィルタ(FR)を含む。例えば、左目偏光フィルタ(FL)は左円編光を通過させることができ、右目偏光フィルタ(FR)は右円偏光を通過させることができる。
結局、パターンドリターダ方式の立体映像表示装置で、表示パネル10の奇数ラインに表示される左目イメージは第1リターダ31をパスして左円編光に変換され、偶数ラインの画素に表示される右目イメージは第2リターダ32をパスして右円偏光に変換される。左円編光は偏光メガネ20の左目偏光フィルタ(FL)をパスして使用者の左目に到逹するようになり、右円偏光は偏光メガネ20の右目偏光フィルタ(FR)をパスして使用者の右目に到逹するようになる。したがって、使用者は左目を通じて左目イメージのみを見るようになり、右目を通じて右目イメージのみを見るようになる。
データ駆動部120は複数のソースドライブICを含む。ソースドライブICはタイミングコントローラ130から入力される2D/3D映像データ(RGB2D/RGB3D‘)を正極性/負極性ガンマ補償電圧に変換する。ソースドライブICから出力される正極性/負極性アナログデータ電圧は表示パネル10のデータライン(D)に供給される。
ゲート駆動部110はタイミングコントローラ130の制御の下にデータ電圧に同期されるゲートパルスを表示パネル10のゲートライン(G)に順次供給する。ゲート駆動部110はシフトレジスタ、シフトレジスタの出力信号を液晶セルのTFT駆動に適合するスイング幅に変換するためのレベルシフト、及び出力バッファーなどをそれぞれ含む複数のゲートドライブ集積回路で構成されることができる。
タイミングコントローラ130は映像処理部140から2D映像データ/変調された3D映像データ(RGB2D/RGB3D‘)、タイミング信号、及びモード信号の入力を受ける。タイミングコントローラ130は映像処理部140から出力された2D映像データ/変調された3D映像データ(RGB2D/RGB3D’)とタイミング信号とモード信号(MODE)に基礎しゲート駆動部110を制御するためのゲート駆動部制御信号(GCS)を生成し、データ駆動部120を制御するためのデータ駆動部制御信号(DCS)を生成する。タイミング信号は垂直同期信号、水平同期信号、データイネーブル信号及びドットクロックなどを含む。タイミングコントローラ130はゲート駆動部制御信号(GCS)をゲート駆動部110に出力する。タイミングコントローラ130は2D映像データ/変調された3D映像データ(RGB2D/RGB3D‘)とデータ駆動部制御信号(DCS)をデータ駆動部120に出力する。
ホストシステム150はLVDS(Low Voltage Differential Signaling) インターフェース、TMDS(Transition Minimized Differential Signaling) インターフェースなどのインターフェースを通じて2D/3D映像データ(RGB2D/RGB3D)を 映像処理部140に供給する。また、ホストシステム150はタイミング信号とモード信号(MODE)などを映像処理部140に供給する。
映像処理部140は2Dモードと3Dモードによって区分されるモード信号(MODE)の入力を受ける。映像処理部140はモード信号によって2Dモードでホストシステム150から入力された2D映像データ(RGB2D)をそのままタイミングコントローラ130に出力する。また映像処理部140はモード信号(MODE)によって3Dモードでホストシステム150から入力されたタイミング信号(Vsync、Hsync、DE、CLK)は映像処理部140で映像処理された3D映像データ(RGB3D‘)のタイミングに同期されて出力される。映像処理部140で映像処理された3D映像データ(RGB3D’)とタイミング信号(Vsync、Hsync、DE、CLK)はタイミングコントローラ130に入力される。
3Dモードで本発明の映像処理部140と映像処理方法に対する詳しい説明は図4及び図5を参照して後述する。
図4は図2の映像処理部を詳しく示すブロック図である。図5は本発明の実施の形態に係る映像処理部の映像処理方法を示す流れ図である。図4を参照すると、映像処理部140はテキスト処理部141と3Dフォーマット142を含む。また、テキスト処理部141はデータ拡張部141A、グレースケール変換部141B、エッジ検出部141C、テキスト領域検出部141D、データ変換部141Eを含む。テキスト処理部141は3D映像データ(RGB3D)を分析しテキスト領域を検出した後、テキスト領域の可読性を向上させる。3Dフォーマット142はテキスト処理部141からテキスト領域の可読性が改善した映像データを時分割3Dフォーマット方法によって変換する。以下で、図4及び図5を参照して映像処理部140の映像処理方法について詳しく説明する。
データ拡張部141Aは3Dモードでホストシステム150から原左目映像データ(ORGBL)と原右目映像データ(ORGBR)を含む原3D映像データ(RGB3D)の入力を受ける。データ拡張部141Aは1フレーム単位で原3D映像データ(RGB3D)の入力を受けることができる。また、データ拡張部141Aはホストシステム150からモード信号(MODE)とタイミング信号の入力を受ける。データ拡張部141Aはモード信号(MODE)を通じて2Dモードと3Dモードを区分することができる。
原3D映像データ(RGB3D)は並列して(side by side)入力される原左目映像データ(ORGBL)と原右目映像データ(ORGBR)を含む。図6Aは入力3D映像を示す例示図である。例えば、原3D映像データ(RGB3D)は図6Aのように左半部に入力される原左目映像データ(ORGBL)と右半部に入力される原右目映像データ(ORGBR)を含むことができる。または原3D映像データ(RGB3D)は上半部に入力される原左目映像データ(ORGBL)と下半部に入力される原右目映像データ(ORGBR)を含むことができる。データ拡張部141Aは3Dモードで原左目映像データ(ORGBL)を確張して1フレームの左目映像データ(RGBL)を生成し、原右目映像データ(ORGBR)を確張して1フレームの右目映像データ(RGBR)を生成する(S101)。
グレースケール変換部141Bは3Dモードで左目映像データ(RGBL)と右目映像データ(RGBR)のそれぞれを左目グレースケール映像データ(GRGBL)と右目グレースケール映像データ(GRGBR)に変換する。グレースケール変換部141Bは変換のために数1のような数式を利用することができる。
数1で、G(RGB)はグレースケール映像データと、RLは左目赤色データ、GLは左目緑データ、BLは左目青色データを意味する。RRは右目赤色データ、GRは右目緑データ、BRは右目青色データを意味する。左目映像データ(RGBL)は左目赤色データ(RL)、左目緑データ(GL)、左目青色データ(BL)を含み、左目映像データ(RGBL)は左目赤色データ(RL)、左目緑データ(GL)、左目青色データ(BL)を含む。
図6Bは左目映像を示すスクリーンショットの一例であり、図6Cは左目グレースケール映像を示すスクリーンショットの一例である。左目映像は左目映像データ(RGBL)から得られた映像であり、左目グレースケール映像は左目グレースケールデータ(GRGBL)から得られた映像である。また、グレースケール変換部141Bはミディアンフィルタのようなノイズ除去フィルタを左目グレースケールデータ(GRGBL)と右目グレースケールデータ(GRGBR)に適用することでグレースケール映像のノイズを除去することができる(S102)。
エッジ変換部141Cは左目グレースケールデータ(GRGBL)を左目エッジデータ(EDL)に変換し、右目グレースケールデータ(GRGBR)を右目エッジデータ(EDR)に変換する。エッジ変換部141Cは左目グレースケールデータ(GRGBL)を左目エッジデータ(EDL)に変換し右目グレースケールデータ(GRGBR)を右目エッジデータ(EDR)に変換するため、ゾーベルマスク(sobel mask)方法などのエッジ変換アルゴリズムなどを利用することができる(S103)。
テキスト領域検出部141Dは左目エッジデータ(EDL)と右目エッジデータ(EDR)それぞれを分析してテキスト領域を検出する。テキスト領域検出部141Dは量子化処理部201、テキスト領域拡張部202、テキスト領域処理部203、及び座標抽出部204を含む。
先ず、量子化処理部201は左目エッジデータ(EDL)と右目映像データ(EDR)それぞれを量子化する。量子化処理部201は第1しきい値より大きい値を有する左目エッジデータ(EDL)と右目エッジデータ(EDR)を最大階調値に変換し第1しきい値より小さな値を有する左目エッジデータ(EDL)と右目エッジデータ(EDR)を最小階調値に変換するによって左目量子化データ(QL)と右目量子化データ(QR)を生成することができる。量子化処理部201は量子化方法を遂行した後、左目量子化データ(QL)と右目量子化データ(QR)をテキスト領域拡張部202に出力する。
図6Dは左目エッジ映像を示す図であり、図6Eは左目量子化映像を示す図である。図6Dと図6Eを参照すると、左目エッジ映像は左目エッジデータ(EDL)から得られた映像であり、左目量子化映像は左目量子化データ(QL)から得られた映像である。左目エッジ映像と左目量子化映像は階調値で表現されることができる。例えば、入力される映像データが8ビートの場合、左目エッジ映像と左目量子化映像は G0ないしG255の階調値で表現されることができる。この場合、最高階調値は G255階調、最低階調値はG0階調になる。図8D及び図8E示されたように量子化によって左目量子化映像と右目量子化映像は左目エッジ映像と右目エッジ映像に比べてエッジ領域が鮮やかに現われる(S107)。
テキスト領域拡張部202は量子化処理部201から左目量子化データ(QL)と右目量子化データ(QR)の入力を受ける。量子化データ拡張部202は第1マスク(M1)をマスク単位にシフトしながら左目量子化データ(QL)と右目量子化データ(QR)を拡張左目量子化データ(EQL)と拡張右目量子化データ(EQR)に変換する。
具体的に、テキスト領域拡張部202は左目量子化データ(QL)と右目量子化データ(QR)それぞれに第1マスク(M1)を設定し、第1マスク(M1)に含まれたすべての左目量子化データ(QL)または右目量子化データ(QR)を第1マスク(M1)内の量子化データの最大値に変換する。第1マスク(M1)は1×t(tは2以上の自然数) 水平マスクに設定されることができる。
図7Aは第1マスクを示す例示図である。例えば、図7Aのように第1マスク(M1)は1×5水平マスクに設定されることができる。テキスト領域拡張部202は第1マスク(M1)内のすべての量子化データ(QD(i−2、j)、QD(i−1、j)、QD(i、j)、QD(i+1、j)、QD(i+2、j))を第1マスク(M1)内の量子化データ(QD(i−2、j)n、QD(i−1、j)、QD(i、j)、QD(i+1、j)、QD(i+2、j))の中最大値に変換する。QD(i、j)は(i、j)(iは 1≦i≦mを満足する自然数、mは表示パネル10の水平解像度)(jは1≦j≦nを満足する自然数、nは表示パネル10の垂直解像度) 座標の左目量子化データを意味する。左目量子化データ(QL)と右目量子化データ(QR)は最大階調値または最小階調値を有する。そうするので、テキスト領域拡張部202は第1マスク(M1)内の量子化データ(QD(i−2、j)、QD(i−1、j)、QD(i、j)、QD(i+1、j)、QD(i+2、j))の中いずれか一つが最大階調値(G255)を有する場合、第1マスク(M1)内のすべての量子化データ(QD(i−2、j)、QD(i−1、j)、QD(i、j)、QD(i+1、j)、QD(i+2、j))を最大階調値(G255)に変換する。また、テキスト領域拡張部202は第1マスク(M1)内の量子化データ(QD(i−2、j)、QD(i−1、j)、QD(i+2、j))の中いずれか一つが最小階調値(G0)を有する場合、第1マスク(M1)内のすべての量子化データ(QD(i−2、j)、QD(i−1、j)、QD(i、j)、QD(i+1、j)、QD(i+2、j))を最小階調値(G0)に変換する。
図8Aは左目量子化映像を示す例示図であり、図8Bは左目量子化拡張映像を示す例示図である。図8A及び図8Bを参照すると、左目量子化映像は左目量子化データ(QL)から得られた映像であり、左目量子化拡張映像は拡張左目量子化データ(EQL)から得られた映像である。特に、図8A及び図8Bにはテキスト領域が拡がって示されている。左目量子化映像と左目量子化拡張映像のそれぞれのテキスト領域はホワイト階調に表現される。左目量子化映像のテキスト領域にはテキストがホワイト階調に表現され、テキストの間空白はブラック階調に表現されている。左目量子化拡張映像のテキスト領域にはテキストとテキストの間空白全てがホワイト階調に表現されている。これはテキスト領域はテキスト領域拡張部202によって拡張されたからである。ホワイト階調は最大階調値から得られた階調であり、ブラック階調は最小階調値から得られた階調である。
テキスト領域処理部203はテキスト領域拡張部202から拡張左目量子化データ(EQL)と拡張右目量子化データ(EQR)の入力を受ける。テキスト領域処理部203は第2マスク(M2)と第3マスク(M3)をマスク単位にシフトしながら拡張左目量子化データ(EQL)と拡張右目量子化データ(EQR)を左目検出データ(DL)と右目検出データ(DR)))に変換する。
テキスト領域処理部203は左目量子化拡張データ(EQL)と右目量子化拡張データ(EQR)のそれぞれに第2マスク(M2)を設定する。テキスト領域処理部203は第2マスク(M2)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)が最大階調値を有するかを判断する。テキスト領域処理部203は第2マスク(M1)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)が最大階調値を有する場合、第2マスク(M1)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)をそのまま維持する。テキスト領域処理部203は第2マスク(M2)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)の中いずれか一つでも最大階調値を有さない場合、第2マスク(M2)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)を最小階調値に変換する。第2マスク(M2)は1×u(uは2以上の自然数)水平マスクに設定されることができる。
テキスト領域処理部203は左目量子化拡張データ(EQL)と右目量子化拡張データ(EQR)のそれぞれに第3マスク(M3)を設定する。テキスト領域処理部203は第3マスク(M3)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)が最大階調値を有するかを判断する。テキスト領域処理部203は第3マスク(M3)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)が最大階調値を有する場合、第3マスク(M3)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)をそのまま維持する。テキスト領域処理部203は第3マスク(M3)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)の中いずれか一つでも最大階調値を有さない場合、第3マスク(M3)に含まれたすべての左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)を最小階調値に変換する。テキスト領域処理部203は第3マスク(M3)をマスク単位にシフトしながら変換を遂行する。第3マスク(M3)はv×1(vは2以上の自然数) 垂直マスクに設定されることができる。
また、テキスト候補領域処理部203はテキスト領域のエラーを補うため、後処理を遂行することができる。テキスト候補領域処理部203は第2マスク(M2)または第3マスク(M3)に隣接した左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)を最大階調値に変換することができる。例えば、テキスト候補領域処理部203は第2マスク(M2)から第2マスク(M2)の1/2大きさ内にいる左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)を最大階調値に変換することができる。また、テキスト候補領域処理部203は第3マスク(M3)から第3マスク(M3)の1/2大きさ内にいる左目量子化拡張データ(EQL)または右目量子化拡張データ(EQR)を最大階調値に変換することができる。第2マスク(M2)は水平マスクであるので、テキスト領域のエラーを水平方向に補う役割をし、第3マスク(M3)は垂直マスクであるので、最終テキスト領域のエラーを垂直方向に補う役割を持つ。
図7Bは第2及び第3マスクを示す例示図である。例えば、図7Bのように第2マスク(M2)は1×50水平マスクに設定されることができ、第3マスク(M3)は3×1垂直マスクに設定されることができる。テキスト領域処理部203は水平マスクである第2マスク(M2)をシフトし、テキスト領域をスキャンした後に、垂直マスクである第3マスク(M3)をマスク単位にシフトし、テキスト領域をスキャンしてテキスト領域を検出する。
図8Cは左目検出映像を示す例示図である。図8Cを参照すると、左目検出映像は左目検出データ(DL)から得られた映像である。特に、図8Cでは左目検出映像のテキスト領域が拡がっている。左目検出映像のテキスト領域はホワイト階調に表現されている。ホワイト階調は最大階調値から得られる。
一方、テキスト領域処理部203は映像の複雑度によって第2マスク(M2)の大きさと第3マスク(M3)の大きさを変更することができる。映像の複雑度が高いほど、テキスト領域処理部203は第2マスク(M2)の大きさと第3マスク(M3)の大きさを増大させる。
図9Aは単純な映像を示す例示図である。図9Bは複雑な映像を示す例示図である。図9A及び図9Bを参照すると、複雑なラインであればあるほどエッジが多くなり、複雑な映像であればあるほど複雑なラインが多くなる。ここで、テキスト領域処理部203は映像の複雑度を算出するための複雑度の算出部203Aを含むことができる。
複雑度の算出部203Aはローラインのそれぞれで左目エッジまたは右目エッジの個数が第3しきい値以上のローラインをカウントし複雑なラインの個数を算出することができる。複雑度の算出部203Aは複雑なラインの個数が第4しきい値以上の場合第1論理レベルの複雑度信号を出力し、複雑なラインの個数が第4しきい値より小さな場合第2論理レベルの複雑度信号を出力することができる。
テキスト領域処理部203は第1論理レベルの複雑度信号に応答し第1サイズの第2マスク(M2)と第1サイズの第3マスク(M3)を選択することができる。テキスト領域処理部203は第2論理レベルの複雑度信号に応答して第2サイズの第2マスク(M2)と第2サイズの第3マスク(M3)を選択することができる。第1サイズの第2マスク(M2)は第2サイズの第2マスク(M2)より大きいサイズであり、第1サイズの第3マスク(M3)は第2サイズの第3マスク(M3)より大きいサイズである。
座標抽出部204はテキスト領域処理部203から左目検出データ(DL)と右目検出データ(DR))の入力を受ける。座標抽出部204は最大階調値を有する左目検出データ(DL)の左目座標(CL)を抽出し、最大階調値を有する右目検出データ(DR))の右目座標(CR)を抽出する。座標抽出部204は左目座標(CL)と右目座標(CR)をデータ変換部141Eに出力する。左目座標(CL)は左目映像のテキスト領域に対応する左目映像データ(RGBL)の座標であり、右目座標(CR)は右目映像のテキスト領域に対応する右目映像データ(RGBR)の座標である(S104)。
データ変換部141Eは3Dモードでテキスト領域検出部141Dから左目座標(CL)と右目座標(CR)の入力を受け、データ拡張部141Aから左目映像データ(RGBL)と右目映像データ(RGBR)の入力を受ける。データ変換部141Eはホストシステム150からモード信号(MODE)の入力を受ける。データ変換部141Eはモード信号(MODE)を通じて2Dモードであるか3Dモードであるか判断することができる。データ変換部141Eは3Dモードで左目座標(CL)に対応する左目映像データ(RGBL)と右目座標(CR)に対応する右目映像データ(RGBR)を本発明の第1及び第2実施の形態によって変換し左目変換データ(RGBCL)と右目変換データ(RGBCR)を生成する。具体的には、本発明の第1及び第2実施の形態に係るデータ変換部141Eは左目座標(CL)のそれぞれに対応する左目映像データ(RGBL)を左目座標(CL)のそれぞれに対応する左目映像データ(RGBL)とそれに隣接する左目映像データ(RGBL)の平均値に変換し左目変換データ(CRGBL)を生成し、右目座標(CR)のそれぞれに対応する右目映像データ(RGBR)を右目座標(CR)のそれぞれに対応する右目映像データ(RGBR)とそれに隣接する右目映像データ(RGBR)の平均値に変換し右目変換データ(RGBR)を生成する。
まず、本発明の第1実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された左目座標が(a、b)座標である場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)座標の左目映像データの平均値に変換する。また、本発明の第1実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された右目座標が(c、d)座標である場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標の右目映像データの平均値に変換する。
また、本発明の第1実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された左目座標が(a、b)座標である場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a+1、b)座標の左目映像データの平均値に変換する。また、本発明の第1実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された右目座標が(c、d)座標である場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c+1、d)座標の右目映像データの平均値に変換する。
次に、本発明の第2実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された左目座標が(a、b)座標である場合、(a、b)座標の左目映像データが奇数ラインに位置する場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a+1、b)座標の左目映像データの平均値に変換する。また、本発明の第2実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された右目座標が(c、d)座標であるとする時、(c、d)座標の右目映像データが奇数ラインに位置する場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c+1、d)座標の右目映像データの平均値に変換する。
または、本発明の第2実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された左目座標が(a、b)座標であるとする時、(a、b)座標の左目映像データが偶数ラインに位置する場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)座標の左目映像データの平均値に変換する。また、本発明の第2実施の形態に係るデータ変換部141Eはテキスト領域検出部141Dから入力された右目座標が(c、d)座標であるとする時、(c、d)座標の右目映像データが偶数ラインに位置する場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標の右目映像データの平均値に変換する。
データ変換部141Eは左目変換データ(RGBCL)と右目変換データ(RGBCR)を3Dフォーマット142に出力する。一方、データ変換部141Eは3Dモードで左目座標(CL)に対応する左目映像データ(RGBL)と右目座標(CR)に対応する右目映像データ(RGBR)にシャープネスフィルタ(Sharpness filter)などの既に知られた公知のフィルタを適用しテキスト領域の鮮明度を高めた後、本発明の第1及び第2実施の形態によって変換することができる(S105)。
3Dフォーマット142はデータ変換部141Eから左目変換データ(RGBCL)と右目変換データ(RGBCR)の入力を受け、ホストシステム150からモード信号(MODE)の入力を受ける。3Dフォーマット142はモード信号(MODE)を通じて2Dモードであるか3Dモードであるか判断することができる。3Dフォーマット142は3Dモードで第1及び第2実施の形態によってデータ変換部141Eから入力を受けた左目映像データ(RGBL)と右目映像データ(RGBR)を変換し変換された3D映像データ(RGB3D‘)を生成する。
図10に、本発明の第1実施の形態に係る3Dフォーマット142のフォーマット方法を示す。図10を参照すると、3Dフォーマット142は奇数ラインに左目映像データ(RGBL)を配列し、偶数ラインに右目映像データ(RGBR)を配列し変換された3D映像データ(RGB3D‘)を出力する。または、3Dフォーマット142は奇数ラインに右目映像データ(RGBR)を配列し、偶数ラインには左目映像データ(RGBL)を配列し変換された3D映像データ(RGB3D’)を出力することができる。3Dフォーマット142は変換された3D映像データを生成する。
図11に、本発明の第2実施の形態に係る3Dフォーマット142のフォーマット方法を示す。図11を参照すると、3Dフォーマット142は第N(Nは自然数)フレームでは奇数ラインに左目映像データ(RGBL)を配列し、偶数ラインに右目映像データ(RGBR)を配列し第Nフレームの変換された3D映像データ(RGB3D‘)を生成する。また、3Dフォーマット142は第N+1フレームには左目映像データ(RGBL)の奇数ラインに配列し、右目映像データ(RGBR)の偶数ラインに配列し第N+1フレームの変換された3D映像データ(RGB3D’)を生成する。3Dフォーマット142は変換された3D映像データ(RGB3D‘)をタイミングコントローラ130に供給する(S106)。
以上のように、本発明の実施の形態に係る3Dモードで映像処理部140と映像処理方法はテキスト領域で検出された左目映像データ(RGBLにそれと隣接したラインの左目映像データ(RGBL)を適用し、右目座標(CR)のそれぞれに対応する右目映像データ(RGBR)にそれと隣接したラインの右目映像データ(RGBR)を適用する。このように、本発明は奇数ラインまたは偶数ラインに配列されない左目映像データまたは右目映像データを補うことができる。その結果、本発明はテキスト領域の文字可読性を高めることができる。
2Dモードで本発明の映像処理部140と映像処理方法に対する詳しい説明は図4及び図12を参照して後述する。
図4は図2の映像処理部を詳しく示すブロック図である。図12は本発明の実施の形態に係る2Dモードで映像処理部の映像処理方法を示す流れ図である。図4を参照すると、映像処理部140はテキスト処理部141と3Dフォーマット142を含む。また、テキスト処理部141はデータ拡張部141A、グレースケール変換部141B、エッジ検出部141C、テキスト領域検出部141D、データ変換部141Eを含む。テキスト処理部141は2Dモードで2D映像データ(RGB2D)を分析してテキスト領域を検出した後、テキスト領域の可読性を向上させる。3Dフォーマット142は2Dモードでテキスト処理部141から入力される映像データを変換しないでそのままタイミングコントローラ130に出力する。
データ拡張部141Aはホストシステム150から原2D映像データ(RGB2D)とモード信号(MODE)の入力を受ける。データ拡張部141Aはモード信号(MODE)を通じて2Dモードと3Dモードを区分することができる。データ拡張部141Aは2Dモードで原2D映像データ(RGB2D)をグレースケール変換部141Bに出力する(S201)。
グレースケール変換部141Bは原2D映像データ(RGB2D)をグレースケールデータ(GRGB2D)に変換する。グレースケール変換部141Bの変換方法はS102段階で説明したようである(S202)。
エッジ変換部141Cはグレースケールデータ(GRGB2D)をエッジデータ(E2D)に変換する。エッジ変換部141Cの変換方法はS103段階で説明したようである(S203)。
テキスト領域検出部141Dは量子化部201、テキスト領域拡張部202、テキスト領域処理部203、及び座標抽出部204を含む。量子化部201はエッジデータ(E2D)を量子化する量子化方法を通じて量子化データ(Q2Dを生成する。量子化部201の変換方法はS104段階で説明した通りである。テキスト領域拡張部202は第1マスク(M1)を利用し量子化データ(Q2D)を量子化拡張データ(EQ2D)に変換する。テキスト領域拡張部202の変換方法はS104段階で説明したようである。テキスト領域処理部203は第2及び第3マスク(M2、M3)を利用し量子化拡張データ(EQ2D)を検出データ(D2D)に変換する。テキスト領域処理部203の変換方法はS104段階で説明したようである。座標抽出部204は検出データ(D2D)から2D座標(C2D)を抽出する。座標抽出部204の座標抽出方法はS104段階で説明したようである(S204)。
データ変換部141Eはデータ拡張部141Aから原2D映像データ(RGB2D)の入力を受けて、テキスト領域検出部141Dから2D座標(C2D)の入力を受ける。データ変換部141Eはホストシステム150からモード信号(MODE)の入力を受ける。データ変換部141Eはモード信号(MODE)を通じて2Dモードと3Dモードを区分することができる。データ変換部141Eは2Dモードで2D座標(C2D)に対応する原2D映像データ(RGB2D)にシャープネスフィルタなどの既に知られた公知のフィルタを適用して変換された2D映像データ(RGB2D‘)を生成する(S205)。
3Dフォーマット142はデータ変換部141Eから変換された2D映像データ(RGB2D’)の入力を受ける。3Dフォーマット142はホストシステム150からモード信号(MODE)の入力を受ける。3Dフォーマット142はモード信号(MODE)を通じて2Dモードか3Dモードかを判断することができる。3Dフォーマット142は2Dモードでデータ変換部141Eから入力された変換された2D映像データ(RGB2D‘)を変換しないでそのままタイミングコントローラ130に出力する(S206)。
以上のように、本発明の実施の形態に係る2Dモードで映像処理部140と映像処理方法はテキスト領域に検出された座標(C2D)のそれぞれに対応する原2D映像データ(RGB2D)にシャープネスフィルタを利用し鮮明度を改善する。その結果、本発明はテキスト領域の文字可読性を高めることができる。
図13A及び図13Bは従来技術の映像と本発明の実施の形態に係る映像処理方法を適用した映像を示す実験結果図である。図13A及び図13Bには3Dモードで使用者が観察したテキスト領域の文字が拡がって現われている。
図13Aのように従来技術の映像はテキスト領域の文字がどのような文字か確認することができないほどに文字可読性が大幅に落ちる。これに比べて、図13Bのように本発明の実施の形態に係る映像処理方法を適用した映像はテキスト領域の文字がどのような文字か易しく分かるので、文字可読性が大幅に高くなったことが分かる。すなわち、本発明の実施の形態に係る映像処理方法はテキスト領域を検出した後、テキスト領域の画素データにシャープネスフィルタを適用するか、テキスト領域の画素データにその画素データと隣接する画素データの平均値を適用することで、テキスト領域の文字可読性を大幅に高めることができる。

Claims (19)

  1. パターンドリターダ方式の立体映像装置のための映像処理方法であって、
    (A)左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換する段階と、
    (B)前記左目エッジデータと前記右目エッジデータを分析し左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出する段階と、
    (C)前記左目座標のそれぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換して左目変換データを生成し、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれに隣接する右目映像データの平均値に変換して右目変換データを生成する段階と、
    (D)前記左目変換データと前記右目変換データ、および前記テキスト領域以外の領域を3Dフォーマット方法によって変換して3D映像データを生成する段階を含む映像処理方法。
  2. 前記段階(B)は、
    (B−1)第1しきい値より大きい前記左目エッジデータと前記右目エッジデータを最高階調値に変換し、前記第1しきい値以下の前記左目エッジデータと前記右目エッジデータを最低階調値に変換し左目量子化データ右目量子化データを生成する段階と、
    (B−2)第1マスクをマスク単位でシフトさせ、前記左目量子化データと前記右目量子化データを左目量子化拡張データと右目量子化拡張データに変換する段階と、
    (B−3)第2マスクと第3マスクをマスク単位でシフトさせ、前記左目量子化拡張データと前記右目量子化拡張データを左目検出データと右目検出データに変換する段階と、
    (B−4)前記最大階調値を有する前記左目検出データの座標を前記左目座標で抽出し、前記最大階調値を有する前記右目検出データの前記右目座標を前記右目座標で抽出する段階とを含むことを特徴とする請求項1記載の映像処理方法。
  3. 前記段階(B−2)は、
    前記左目量子化データと前記右目量子化データそれぞれに前記第1マスクを設定する段階と、
    前記第1マスクに含まれた前記左目量子化データまたは前記右目量子化データを前記第1マスクに含まれた前記左目量子化データまたは前記右目量子化データの最大値に変換して前記左目量子化拡張データと前記右目量子化拡張データを生成する段階を含むことを特徴とする請求項記載の映像処理方法。
  4. 前記段階(B−3)は、
    前記左目量子化拡張データと前記右目量子化拡張データのそれぞれに前記第2マスクを設定する段階と、
    前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データ全てが最大階調値を有する場合、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データをそのまま維持する段階と、
    前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データの中でいずれか一つでも最大階調値を有さない場合、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データを最小階調値に変換する段階と、
    前記左目量子化拡張データと前記右目量子化拡張データのそれぞれに前記第3マスクを設定する段階と、
    前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データ全てが最大階調値を有する場合、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データをそのまま維持する段階と、
    前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データの中でいずれか一つでも最大階調値を有さない場合、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データを最小階調値に変換する段階を含むことを特徴とする請求項記載の映像処理方法。
  5. 映像の複雑度が高いほど、前記第2マスクの大きさと前記第3マスクの大きさはさらに増大されることを特徴とする請求項記載の映像処理方法。
  6. 前記段階(C)は、
    左目座標が(a、b)座標である場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)座標または(a+1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標または(c+1、d)座標の右目映像データの平均に変換する段階を含むことを特徴とする請求項1記載の映像処理方法。
  7. 前記段階(C)は、
    左目座標が(a、b)座標である場合、(a、b)座標が奇数ラインにある場合には、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a+1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、 (c、d)座標が奇数ラインにある場合には、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c+1、d)座標の右目映像データの平均に変換する段階と、
    左目座標が(a、b) 座標である場合、(a、b)座標が偶数ラインにある場合には、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、(c、d)座標が偶数ラインにある場合には、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標の右目映像データの平均に変換する段階を含むことを特徴とする請求項1記載の映像処理方法。
  8. 前記段階(D)は、
    奇数ラインに前記奇数ラインの左目変換データを配列し、偶数ラインに前記偶数ラインの右目変換データを配列し、変換された3D映像データを生成する段階、または
    前記偶数ラインに前記奇数ラインの左目変換データを配列し、前記奇数ラインに前記偶数ラインの右目変換データを配列し、変換された3D映像データを生成する段階であることを特徴とする請求項1記載の映像処理方法。
  9. 前記段階(D)は、
    第N(Nは自然数)フレームの奇数ラインに前記奇数ラインの左目変換データを配列し、前記第Nフレームの偶数ラインに前記偶数ラインの右目変換データを配列し、第N+1フレームの奇数ラインに前記奇数ラインの前記左目変換データの偶数ラインを配列し、前記第N+1フレームの偶数ラインに前記奇数ラインの前記右目変換データの奇数ラインを配列し、変換された3D映像データを生成する段階をさらに含むことを特徴とする請求項1記載の映像処理方法。
  10. 左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換するエッジ変換部と、
    前記左目エッジデータと前記右目エッジデータを分析して左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出するテキスト領域検出部と、
    前記左目座標のそれぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換して左目変換データを生成し、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれに隣接する右目映像データの平均値に変換し右目変換データを生成するデータ変換部と、
    前記左目変換データと前記右目変換データ、および前記テキスト領域以外の領域を3Dフォーマット方法によって変換して3D映像データを生成する3Dフォーマットと、を含むパターンドリターダ方式の映像処理部。
  11. 前記テキスト領域検出部は、
    第1しきい値より大きい前記左目エッジデータと前記右目エッジデータを最高階調値に変換して前記第1しきい値以下の前記左目エッジデータと前記右目エッジデータを最低階調値に変換して前記左目量子化データと前記右目量子化データを生成する量子化処理部と、
    第1マスクをマスク単位でシフトさせて前記左目量子化データと前記右目量子化データを左目量子化拡張データと右目量子化拡張データに変換するテキスト領域拡張部と、
    第2マスクと第3マスクをマスク単位でシフトさせて前記左目量子化拡張データと前記右目量子化拡張データを左目検出データと右目検出データに変換するテキスト領域処理部と、を含み、
    前記テキスト領域検出部は、
    前記最大階調値を有する前記左目検出データの座標を前記左目座標で抽出し、前記最大階調値を有する前記右目検出データの座標を前記右目座標で抽出する座標抽出部をさらに含むことを特徴とする請求項10記載の映像処理部。
  12. 前記テキスト領域拡張部は、
    前記左目量子化データと前記右目量子化データそれぞれに前記第1マスクを設定し、前記第1マスクに含まれた前記左目量子化データまたは前記右目量子化データを前記第1マスクに含まれた前記左目量子化データまたは前記右目量子化データの最大値に変換して前記左目量子化拡張データと前記右目量子化拡張データを生成することを特徴とする請求項11記載の映像処理部。
  13. 前記テキスト領域処理部は、
    前記左目量子化拡張データと前記右目量子化拡張データのそれぞれに前記第2マスクを設定し、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データ全てが最大階調値を有する場合、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データをそのまま維持し、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データの中でいずれか一つでも最大階調値を有さない場合、前記第2マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データを最小階調値に変換し、
    前記左目量子化拡張データと前記右目量子化拡張データのそれぞれに前記第3マスクを設定し、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データ全てが最大階調値を有する場合、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データをそのまま維持し、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データの中でいずれか一つでも最大階調値を有さない場合、前記第3マスクに含まれた前記左目量子化拡張データまたは前記右目量子化拡張データを最小階調値に変換することを特徴とする請求項12記載の映像処理部。
  14. 映像の複雑度が高いほど、前記第2マスクの大きさと前記第3マスクの大きさはさらに増大されることを特徴とする請求項13記載の映像処理部。
  15. 前記データ変換部は、
    左目座標が(a、b)座標である場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)座標または(a+1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標または(c+1、d)座標の右目映像データの平均に変換することを特徴とする請求項10記載の映像処理部。
  16. 前記データ変換部は、
    左目座標が(a、b)座標である場合、(a、b)座標が奇数ラインにある場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a+1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、(c、d)座標が奇数ラインにある場合、(c、d)座標の右目映像データを (c、d)座標の右目映像データと(c+1、d)座標の右目映像データの平均に変換し、
    左目座標が(a、b)座標である場合、(a、b)座標が偶数ラインにある場合、(a、b)座標の左目映像データを(a、b)座標の左目映像データと(a−1、b)の左目映像データの平均に変換し、右目座標が(c、d)座標である場合、(c、d)座標が偶数ラインにある場合、(c、d)座標の右目映像データを(c、d)座標の右目映像データと(c−1、d)座標の右目映像データの平均に変換することを特徴とする請求項10記載の映像処理部。
  17. 前記3Dフォーマットは、
    奇数ラインに前記奇数ラインの左目変換データを配列し、偶数ラインに前記偶数ラインの右目変換データを配列し、変換された3D映像データを生成し、または
    前記偶数ラインに前記奇数ラインの左目変換データを配列し、前記奇数ラインに前記偶数ラインの右目変換データを配列し、変換された3D映像データを生成することを特徴とする請求項10記載の映像処理部。
  18. 前記3Dフォーマットは、
    第N(Nは自然数)フレームの奇数ラインに前記奇数ラインの左目変換データを配列し、前記第Nフレームの偶数ラインに前記偶数ラインの右目変換データを配列し、第N+1フレームの奇数ラインに前記奇数ラインの前記左目変換データの偶数ラインを配列し、前記第N+1フレームの偶数ラインに前記奇数ラインの前記右目変換データの奇数ラインを配列し、変換された3D映像データを生成することを特徴とする請求項10記載の映像処理部。
  19. データラインとゲートラインが交差される表示パネルと、
    入力される映像データのテキスト領域を検出して前記テキスト領域の文字可読性を改善する映像処理部と、
    前記映像処理部から出力された映像データをデータ電圧に変換して前記データラインに出力するデータ駆動部と、
    前記データ電圧に同期されるゲートパルスを前記ゲートラインに順次に出力するゲート駆動部を備え、
    前記映像処理部は、
    左目映像データを左目エッジデータに変換し、右目映像データを右目エッジデータに変換するエッジ変換部と、
    前記左目エッジデータと前記右目エッジデータを分析して左目映像のテキスト領域に対応する左目座標と右目映像のテキスト領域に対応する右目座標を抽出するテキスト領域検出部と、
    前記左目座標それぞれに対応する左目映像データを前記左目座標のそれぞれに対応する左目映像データとそれに隣接する左目映像データの平均値に変換し左目変換データを生成して、前記右目座標のそれぞれに対応する右目映像データを前記右目座標のそれぞれに対応する右目映像データとそれと隣接する右目映像データの平均値に変換して右目変換データを生成するデータ変換部と、
    前記左目変換データと前記右目変換データを3Dフォーマット方法によって変換して3D映像データを生成する3Dフォーマットを含むことを特徴とする、パターンドリターダ方式の立体映像表示装置。
JP2012157286A 2011-07-14 2012-07-13 映像処理方法及び立体映像表示装置 Active JP5496276B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110070071A KR101829459B1 (ko) 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치
KR10-2011-0070071 2011-07-14

Publications (2)

Publication Number Publication Date
JP2013027041A JP2013027041A (ja) 2013-02-04
JP5496276B2 true JP5496276B2 (ja) 2014-05-21

Family

ID=47484291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012157286A Active JP5496276B2 (ja) 2011-07-14 2012-07-13 映像処理方法及び立体映像表示装置

Country Status (4)

Country Link
US (1) US9137510B2 (ja)
JP (1) JP5496276B2 (ja)
KR (1) KR101829459B1 (ja)
CN (1) CN102883177B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
US9081195B2 (en) * 2012-08-13 2015-07-14 Innolux Corporation Three-dimensional image display apparatus and three-dimensional image processing method
CN103686141B (zh) * 2013-12-30 2016-08-17 京东方科技集团股份有限公司 3d显示方法及3d显示装置
US10459224B2 (en) 2014-09-29 2019-10-29 Honeywell International Inc. High transmittance eyewear for head-up displays
US9606355B2 (en) 2014-09-29 2017-03-28 Honeywell International Inc. Apparatus and method for suppressing double images on a combiner head-up display
KR102324867B1 (ko) * 2015-09-25 2021-11-12 엘지디스플레이 주식회사 텍스트 검출 방법 및 이를 이용한 표시장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0413370A (ja) * 1990-05-01 1992-01-17 Canon Inc 画像処理装置
JPH11102438A (ja) * 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP2002252764A (ja) * 2001-02-26 2002-09-06 Matsushita Graphic Communication Systems Inc 画像処理装置及び画像処理方法
US20030198386A1 (en) * 2002-04-19 2003-10-23 Huitao Luo System and method for identifying and extracting character strings from captured image data
JP4228646B2 (ja) * 2002-10-02 2009-02-25 株式会社セガ 立体視画像生成方法および立体視画像生成装置
JP2004208117A (ja) * 2002-12-26 2004-07-22 Nec Engineering Ltd 字幕合成時における画質劣化検知システム
JP3852934B2 (ja) * 2003-05-20 2006-12-06 株式会社バンダイナムコゲームス 画像処理システム、プログラム及び情報記憶媒体
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
KR100782811B1 (ko) 2005-02-04 2007-12-06 삼성전자주식회사 영상의 주파수 특성에 따라 포맷을 달리하는 스테레오 영상 합성 방법 및 장치와, 그 영상의 송신 및 수신 방법과, 그 영상의 재생 방법 및 장치
KR100898287B1 (ko) * 2005-07-05 2009-05-18 삼성모바일디스플레이주식회사 입체 영상 표시 장치
CN100409658C (zh) 2006-09-08 2008-08-06 南京大学 图像缩放器中抗边缘锯齿噪声的方法
JP2009049751A (ja) * 2007-08-21 2009-03-05 Toshiba Corp 立体画像表示装置
JP5225662B2 (ja) 2007-11-21 2013-07-03 三桜工業株式会社 車両配管用鋼管
KR101279120B1 (ko) * 2009-05-15 2013-06-26 엘지디스플레이 주식회사 영상표시장치
JP5257243B2 (ja) * 2009-05-28 2013-08-07 株式会社Jvcケンウッド 立体映像表示装置および立体映像表示方法

Also Published As

Publication number Publication date
US20130016095A1 (en) 2013-01-17
CN102883177B (zh) 2014-11-19
US9137510B2 (en) 2015-09-15
CN102883177A (zh) 2013-01-16
JP2013027041A (ja) 2013-02-04
KR20130009173A (ko) 2013-01-23
KR101829459B1 (ko) 2018-02-14

Similar Documents

Publication Publication Date Title
US8970582B2 (en) Stereoscopic image display device and method for driving the same
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101888672B1 (ko) 입체영상 표시장치와 그 구동방법
JP5496276B2 (ja) 映像処理方法及び立体映像表示装置
KR101840876B1 (ko) 입체영상 표시장치와 그 구동방법
KR101296902B1 (ko) 영상처리부와 이를 이용한 입체영상 표시장치, 및 영상처리방법
US9420269B2 (en) Stereoscopic image display device and method for driving the same
KR101793283B1 (ko) 재깅 개선방법과 이를 이용한 입체영상 표시장치
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
US9092871B2 (en) Image processing method and stereoscopic image display device using the same
KR101894090B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101929042B1 (ko) 디스패러티 산출부와 이를 포함한 입체영상 표시장치, 및 디스패러티 산출방법
KR101990334B1 (ko) 입체영상 표시장치와 그 구동방법
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR101843197B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101870233B1 (ko) 3d 화질개선방법과 이를 이용한 입체영상 표시장치
KR101843198B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
US8723931B2 (en) Stereoscopic image display
KR101829466B1 (ko) 입체영상 표시장치
KR101996657B1 (ko) 글로벌 뎁스 맵 생성방법과 이를 이용한 입체영상 표시장치
KR20130028345A (ko) 재깅 검출방법과 이를 이용한 입체영상 표시장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R150 Certificate of patent or registration of utility model

Ref document number: 5496276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250