JP2012249074A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2012249074A
JP2012249074A JP2011119144A JP2011119144A JP2012249074A JP 2012249074 A JP2012249074 A JP 2012249074A JP 2011119144 A JP2011119144 A JP 2011119144A JP 2011119144 A JP2011119144 A JP 2011119144A JP 2012249074 A JP2012249074 A JP 2012249074A
Authority
JP
Japan
Prior art keywords
image
pixel
information
unit
mask information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011119144A
Other languages
English (en)
Other versions
JP5701687B2 (ja
Inventor
Takeshi Tsukada
剛士 塚田
Giichi Komatsu
義一 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2011119144A priority Critical patent/JP5701687B2/ja
Priority to US13/463,727 priority patent/US9197875B2/en
Priority to EP12169169.5A priority patent/EP2528336A3/en
Priority to CN201210167849.9A priority patent/CN102802010B/zh
Priority to CN201610080693.9A priority patent/CN105704474B/zh
Publication of JP2012249074A publication Critical patent/JP2012249074A/ja
Application granted granted Critical
Publication of JP5701687B2 publication Critical patent/JP5701687B2/ja
Priority to US14/925,580 priority patent/US20160050403A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

【課題】少ないシステムリソースで立体視画像を生成できる画像処理装置、及び画像処理方法を提供すること
【解決手段】マスク情報23は、第1の画像データ21内の画素と、第2の画像データ22内の画素と、が略同数だけ略均一に分散されて表示されるように表示領域を規定している。ミキサ部10は、このマスク情報23を参照して、第1の画像データ21と、第2の画像データ22と、をミキシングし、立体視用画像である出力画像データ24を生成する。
【選択図】図1

Description

本発明は画像処理装置及び画像処理方法に関する。
近年、パーソナルコンピュータ、ゲーム機器、デジタル放送対応のテレビ受像機、及びブルーレイレコーダ等のデジタル家電機器は、3次元(3D)に対応する必要性が高い。詳細には、これらの機器は、3D画像の入力を受け付け、当該3D画像を適切に表示する必要がある。
これらの機器に入力される3D画像の入力形式は多様化してきている。さらに、これらの機器から出力される、3D画像の出力形式も多様化してきている。この多様化する3D画像の入出力形式を鑑みて、3D画像表示機能を有するテレビ機器等では、既存のデジタル放送規格に対応した表示機能とは別に、新たに様々な3D信号処理機能を備える機種が出現している。しかし、これらの機種は、3D信号処理機能等の専用機能を持つために、開発製造費や機器全体のシステム費用等のコストが高くなっていた。
特許文献1には、上述の機器の表示機能への入力となる3D立体視画像を生成する手法が開示されている。特許文献1の手法では、GPU(Graphics Processing Unit)等の画素ブレンダ(合成手段)を用いて、複数の画像(一般的には2枚の画像)とマスク情報から1つの3D立体視画像を生成している。
図15は、特許文献1に記載の3Dテレビシステムにおける3D立体視画像の生成手法を示す図である。以下の説明では、左目用の画像51と、右目用の画像52と、から3D立体視画像53を生成する方法を説明する。3D立体視画像53は、奇数ラインの各画素に左目用の画像に含まれる画素の画素値が設定され、偶数ラインの各画素に右目用の画像に含まれる画素の画素値が設定される。
特許文献1に記載の方法では、CPUまたはGPUにより動作する画素ブレンダ60及び61を用いる。画素ブレンダ61は、RAM(Random Access Memory)等の記憶装置から左目用の画像51と、マスク情報54と、を読み出す。そして、画素ブレンダ60は、Porter−DuffのAtopB規則に定められた処理を行う。詳細には、画素ブレンダ60は、マスク情報54において"1"が指定されている画素に対して、左目用の画像51の対応位置の画素の画素値を設定する。画素ブレンダ60は、マスク情報54において"0"が指定されている画素には画素値の設定を行わない。画素ブレンダ60は、このような処理を全画素に対して行うことにより、中間画像55を生成する。画素ブレンダ60は、生成した中間画像55をRAM等の記憶装置に書き込む。
画素ブレンダ61は、RAM等の記憶装置から右目用の画像52、及び中間画像55を読み出す。画素ブレンダ61は、Porter−DuffのAoverB規則に定められた処理を行う。詳細には、画素ブレンダ61は、中間画像55において"0"が設定されている画素に対して、右目用の画像52の対応位置の画素の画素値を設定する。画素ブレンダ61は、すでに左目用の画像から設定した画素値が設定されている画素に対しては処理を行わない。画素ブレンダ61は、このような処理を全画素に対して行うことにより、出力画像53を生成する。画素ブレンダ61は、生成した出力画像53をRAM等の記憶装置に書き込む。
図16は、特許文献1に記載の方法における各処理とメモリアクセス(記憶装置へのアクセス)の関係を示す図である。画素ブレンダ60は、記憶装置からの読み出し処理を3回実行する。画素ブレンダ61は、記憶装置からの読み出し処理を2回実行する。また、画素ブレンダ60及び画素ブレンダ61は、記憶装置への書き出し処理を1回実行する。さらに、他の任意の処理部が、記憶装置から出力画像53の読み出し処理を1回実行する。
なお、特許文献2及び3には、非特許文献1に記載のプレーン合成についての示唆がある。非特許文献1に記載のプレーン合成技術について図17を参照して説明する。当該プレーン合成技術は、デジタル放送にかかるプレーンの合成を規定している。
図17は、非特許文献1に記載のデジタル放送プレーンの合成技術の概略を示す図である。プレーンとは、モノメディア(映像、音声、文字、静止画等の単独の表現メディア)を表示するための表示画面である。
ミキサ70は、RAM80から静止画データ81をVideo/Still plane0(91)として読み出す。ミキサ70は、RAM80から動画データ82をVideo/Still plane1(92)として読み出す。なお、Video/Still plane0(91)及びVideo/Still plane1(92)は、動画であっても良く、静止画であっても良い。
同様に、ミキサ70は、RAM80から文字データ84を字幕plane94として読み出す。ミキサ70は、RAM80から文字図形データ85を文字図形plane95として読み出す。なお、扱うプレーンの数は、デジタル放送要件では図17に示すように5プレーンとなるが、これよりも多くても良い。詳細には、ユーザの操作メニューを表示するためのプレーンや、カーソルを表示するためのプレーンなどが追加されても良い。
ミキサ70は、RAM80からSwitching Plane83を読み出す。Switching Plane83には、2つのプレーン(本例では、Video/Still plane0(91)及びVideo/Still plane1(92))を合成する場合における、透明化処理の設定が規定されている。Switching Plane83には、1画素毎に1ビットのデータが設定されている。この1ビットのデータは、Video/Still plane0(91)の画素値を設定することを示す値("0")、またはVideo/Still plane1(92)の画素値を設定することを示す値("1")となる。
なお、ミキサ70は、Video/Still plane0(91)及びVideo/Still plane1(92)のスケーリング比率を独立して設定することができる。すなわち、ミキサ70は、Video/Still plane0(91)及びVideo/Still plane1(92)を相互に依存することなく、ここに拡大/縮小することができる。
ミキサ70は、Switching Plane83の規定する領域に応じてVideo/Still plane0(91)を縮小(図17では1/2に縮小)する。そして、ミキサ70は、Switching Plane83の各画素に設定されているビット値を調べる。ミキサ70は、ビット値として"0"が設定されている場合には、当該画素にVideo/Still plane0(91)の対象画素の画素値を設定する。ミキサ70は、ビット値として"1"が設定されている場合には、当該画素にVideo/Still plane1(92)の対象画素の画素値を設定する。これにより、ミキサ70は、Video/Still plane0(91)とVideo/Still plane1(92)を合成した中間画像(図示せず)を生成する。
ミキサ70は、この中間画像に字幕plane94及び文字図形plane95を重ね合わせて出力画像96を生成する。
なお、非特許文献1には、デジタル放送プレーンの合成技術についての示唆、教示があるが、立体視用画像の生成に関する記載は一切ない。
米国特許出願公開第2010/0302235号明細書 特開2003−324652号公報 特開2010−068399号公報
デジタル放送におけるデータ放送符号化方式と伝送方式、[平成23年4月10日検索]、インターネット<URL: http://www.arib.or.jp/english/html/overview/doc/2-STD-B24v5_1-1p3.pdf>
図16に示すように、特許文献1に記載の方法では、中間画像55及び出力画像53を生成するために、記憶装置からの複数回のメモリ読み出しを要する。さらに、中間画像55及び出力画像53を記憶装置に書き出す処理を要する。そのため、出力画像53を得るために必要となるシステムリソース、すなわちメモリ容量、メモリ帯域、処理時間が増大し、加えて装置内での消費電力が増加するという問題がある。特に、特許文献1に記載の方法では、高解像度の動画像から立体視用画像を生成する際に当該問題が顕著となる。
本発明にかかる画像処理装置の一態様は、
第1の画像内の画素と、第2の画像内の画素と、が略同数だけ略均一に分散されて表示されるように表示領域を規定した第1マスク情報に基づいて、前記第1及び第2の画像をミキシングした出力画像を生成するミキサ部、を備えるものである。
本発明にかかる画像処理方法の一態様は、
第1の画像内の画素と、第2の画像内の画素と、が略同数だけ略均一に分散されて表示されるように表示領域を規定した第1マスク情報に基づいて、前記第1及び第2の画像をミキシングした立体視に用いる出力画像を生成する、ものである。
本発明では、マスク情報は、ユーザの一方の目に対応する第1の画像の画素と、他方の目に対応する第2の画像の画素が、立体視に応用し得るように略同数だけ均一に位置するような配置を規定している。ミキサ部は、このマスク情報を用いて第1の画像と第2の画像をミキシングして立体視用画像を生成する。この際に、ミキサ部は、中間的な画像を作ることなく、立体視用画像を生成できる。
本発明によれば、少ないシステムリソースで立体視画像を生成できる画像処理装置、及び画像処理方法を提供することができる。
実施の形態1にかかる画像処理装置の構成を示すブロック図である。 実施の形態1にかかるミキサ部の詳細を示すブロック図である。 実施の形態1にかかるミキサ部の詳細を示すブロック図である。 実施の形態1にかかる画像処理装置の構成を示すブロック図である。 実施の形態1にかかる画像処理装置の構成を示すブロック図である。 実施の形態1にかかるマスク情報23を示す図である。 実施の形態1にかかるミキサ部10の動作と、メモリアクセス(記憶装置へのアクセス)の関係を示す図である。 実施の形態2にかかる画像処理装置の構成を示すブロック図である。 実施の形態2にかかるスケール処理部30の構成を示すブロック図である。 実施の形態2にかかるイネーブル信号処理部40の構成を示すブロック図である。 実施の形態2にかかるイネーブル信号処理部40に対する入力と、イネーブル信号処理部40からの出力との関係を示す図である。 実施の形態2にかかる画像処理装置が立体視用画像を生成する動作を示す図である。 実施の形態2にかかる画像処理装置がサイドバイサイドの画像データを入力とし、立体視用画像データを生成する動作を示す図である。 実施の形態2にかかる画像処理装置がサイドバイサイドの画像データを生成する動作を示す図である。 特許文献1に記載の3Dテレビシステムにおける3D立体視画像の生成手法を示す図である。 特許文献1に記載の方法における各処理とメモリアクセス(記憶装置へのアクセス)の関係を示す図である。 非特許文献1に記載のプレーン合成技術を示す図である。
<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態にかかる画像処理装置の構成を示すブロック図である。画像処理装置1は、例えば、テレビ受像機、セットトップボックス、デジタルサイネージ、電話機能やゲーム機能を有する携帯端末、プロジェクタ等が該当する。
画像処理装置1は、ミキサ部10、及び記憶装置(図示せず)を備える。記憶装置は、RAM(Random Access Memory)等のいわゆるメモリである。なお、記憶装置は、必ずしも画像処理装置1内に備えられる必要はなく、例えばフラッシュメモリ等の外付けの装置であっても良い。
ミキサ部10は、動画もしくは静止画である第1の画像データ21、動画もしくは静止画である第2の画像データ22を記憶装置(図示せず)から読み出す。第1の画像データ21は、立体視画像におけるユーザの右目に対応する画像である。第2の画像データ22は、立体視画像におけるユーザの左目に対応する画像である。さらに、ミキサ部10は、第1の画像データ10と第2の画像データ21の表示領域を規定するマスク情報23を記憶装置から読み出す。
マスク情報23は、立体視用画像を生成する際に、第1の画像データ21に含まれる各画素の画素値を使用する範囲と、第2の画像データ22に含まれる各画素の画素値を使用する範囲と、を定めた情報である。マスク情報23は、第1の画像データ21及び第2の画像データ22と同数の画素数を有する。
マスク情報23に含まれる各画素には、第1の画像データ21を表示することを示すビット値である"0"、または第2の画像データ22を表示することを示すビット値である"1"のいずれかが設定されている。マスク情報23には、ビット値"0"が設定された画素と、ビット値"1"が設定された画素と、が略同数(好適には完全に同数)だけ含まれる。
マスク情報23において、ビット値"0"が設定された画素と、ビット値"1"が設定された画素と、は略均一に分散されて配置される。例えば、図1に示すマスク情報23では、ビット値"0"が設定された画素と、ビット値"1"が設定された画素と、が1列ごとに配置される。換言すると、図1に示すマスク情報23は横縞模様(line alternative)の方式でビット値が配置される。
ミキサ部10は、第1の画像データ21、第2の画像データ22、及びマスク情報23を用いて出力画像データ24を生成する処理部である。本実施の形態では、出力画像データ24は、立体視用の画像データである。ミキサ部10は、記憶装置から第1の画像データ21、第2の画像データ22、及びマスク情報23を読み出して、出力画像データ24を出力する回路である。
図2は、ミキサ部10の詳細を示すブロック図である。ミキサ部10は、選択信号出力部11と、スイッチ部12と、を備える。
選択信号出力部11は、1画素毎にマスク情報23からビット値を読み出す。選択信号出力部11は、読み出したビット値が"0"の場合、対応座標にある第1の画像データ21(右目に対応する画像)の画素値を選択する信号をスイッチ部12に出力する。選択信号出力部11は、読み出したビット値が"1"の場合、対応座標にある第2の画像データ22(左目に対応する画像)の画素値を選択する信号をスイッチ部12に出力する。すなわち、選択信号は、座標情報と、当該座標に設定する画素値を指定する情報と、を含む信号である。
スイッチ部12は、選択信号出力部11から供給された選択信号に応じて、第1の画像データ21または第2の画像データ22の対応座標から画素値を読み出す。そして、スイッチ部12は、出力画像データ24の対応座標に読み出した画素値を設定する。
選択信号出力部11及びスイッチ部12は、マスク情報23に含まれる全ての画素に対して上述の処理を実行する。これにより、ミキサ部10は、立体視用画像24を生成する。
また、ミキサ部10は、図3に示すような構成であっても良い。図3は、ミキサ部10の他の構成を示すブロック図である。ミキサ部10は、アルファブレンド値算出部13と、乗算部14と、減算部15と、乗算部16と、加算部17と、を備える。
アルファブレンド値算出部13は、1画素毎にマスク情報23からビット値を読み出す。アルファブレンド値算出部13は、読み出したビット値が"0"の場合、対応座標のアルファブレンド値を"0"に設定する。アルファブレンド値算出部13は、読み出したビット値が"1"の場合、対応座標のアルファブレンド値を"1"に設定する。アルファブレンド値算出部13は、設定したアルファブレンド値を座標情報と共に乗算部14及び減算部15に通知する。
乗算部14は、第2の画像データ22から対応座標の画素値を読み出す。乗算部14は、読み出した画素値にアルファブレンド値を乗算する。乗算部14は、乗算結果を加算部17に供給する。
減算部15は、1から供給されたアルファブレンド値を減算し(1−α)、減算結果を乗算部16に供給する。乗算部16は、第1の画像データ21から対応座標の画素値を読み出す。そして乗算部16は、読み出した画素値に対し、減算部15から供給された減算結果であるアルファブレンド値を乗算する。乗算部16は、乗算結果を加算部17に供給する。
加算部17は、乗算部14から供給された画素値と、乗算部16から供給された画素値と、を加算し、その結果を対応座標の画素値として設定する。
ミキサ部10に含まれる各処理部(アルファブレンド値算出部13、乗算部14、減算部15、乗算部16、加算部17)は、マスク情報23に含まれる全ての画素に対して上述の画素値の設定を実行する。これにより、ミキサ部10は、立体視用画像24を生成する。
マスク情報23のビット配置(ビット値"0"が設定された画素と、ビット値"1"が設定された画素と、の配置)は図1に示す横縞模様に限られない。ビット配置は、第1の画像データ21内の画素と、第2の画像データ22内の画素と、が略同数だけ略均一に分散されて表示されるように規定されていればよい。
図4及び図5にマスク情報23の他の例を示す。図4は、マスク情報23のビット配置が縦縞模様(dot by dot)である例を示している。図5は、マスク情報23のビット配置が市松模様(checkerboard)である例を示している。
なお、ミキサ部10は、2つのマスク情報23を一定間隔毎で切り替えて使用しても良い。図6は、2つのマスク情報23を示す図である。図示するように、1ビットだけビット値の位置がずれた2つのマスク情報23を用意する。ミキサ部10は、一定間隔毎にマスク情報23を切り替えて使用する。例えば、ミキサ部10は、ミキサ部10の内部に2つのマスク情報23をキャッシュしておき、これらのマスク情報23を一定間隔毎に切り替えればよい。これにより、左目用の画素位置及び右目用の画素位置が完全に固定されず、一定間隔毎に変化する。一定間隔毎に左目用の画素位置及び右目用の画素位置が変化することにより、例えば縦縞模様の画像を表示する場合であっても、適切に立体視画像を表示することができる。
続いて、本実施の形態にかかる画像処理装置1におけるミキサ部10の動作と、メモリアクセス(記憶装置へのアクセス)の関係を説明する。図7は、ミキサ部10の動作と、メモリアクセス(記憶装置へのアクセス)の関係を示す図である。
図示するように、ミキサ部10は、第1の画像データ21、第2の画像データ22、及びマスク情報23を記憶装置から読み出す。ミキサ部10は、読み出した第1の画像データ21、第2の画像データ22、及びマスク情報23から上述の方法により出力画像データ24を生成する。ミキサ部10は、生成した出力画像データ24を任意の処理部に対して直接供給することができる。
上述のように、ミキサ部10は、記憶装置からのデータ読み出しを3回行い、そのまま表示用のデータを得る。ここで、ミキサ部10は、記憶装置へのデータ書き出しは行わない。
続いて、本実施の形態にかかる画像処理装置1の効果について説明する。本実施の形態にかかる画像処理装置1は、上述のように中間画像を生成することなく、立体視用画像24を生成している。これにより、中間画像を保存するためのメモリ容量が不要になるとともに、中間画像のためにメモリ帯域を確保する必要がなくなる。
さらに、画像処理装置1は、中間画像を生成することなく立体視用画像24を生成するため、処理に要する時間を短縮することができる。また、処理時間が短縮されることにより、本実施の形態にかかる画像処理装置1では、特許文献1に記載の方法と比べて消費電力を低減することが可能になる。
<実施の形態2>
本実施の形態にかかる画像処理装置は、立体視用画像の生成処理に加え、デジタル放送向けのプレーン合成を実現できることを特徴とする。以下、本実施の形態にかかる画像処理装置について説明する。
図8は、本実施の形態にかかる画像処理装置の構成を示すブロック図である。画像処理装置1は、スケール処理部30〜33と、ミキサ部101〜103と、イネーブル信号処理部40と、を備える。
図8は、図示した画像処理装置によりデジタル放送にかかるプレーン合成を実現する例を示している。第1の画像データ21及び第2の画像データ22は、静止画または動画である。マスク情報23は、いわゆるSwitching Planeに該当する。テキスト画像データ25は、文字図形プレーンや字幕プレーンに該当する。画像処理装置1により出力される出力画像データ24は、第1の画像データ21及び第2の画像データ22が奥に配置され、テキスト画像データ25が手前に配置されるように重ね合わせた画像となる。以下、各処理部の動作、及び出力画像データ24の生成方法について説明する。
スケール処理部30は、第1の画像データ21から必要な矩形を切り出し、所定の大きさに拡大/縮小し、拡大/縮小した第1の画像データ21をミキサ部101に供給する。さらに、スケール処理部30は、画素値選択に用いるイネーブル信号を生成してミキサ部101に供給する。図9を参照して、スケール処理部30の詳細を説明する。
スケール処理部30は、切り取り部301と、拡大/縮小部302と、を備える。切り取り部301は、記憶装置からデータ選択情報303を読み出す。データ選択情報303は、第1の画像データ21内のどの画素を切り出すかを示す情報である。データ選択情報303は、第1の画像データ21と同じ画像サイズ(縦横の画素数が同じ)であり、各画素にはビット値"0"または"1"が設定されている。ビット値"1"が設定されている画素が切り出し対象となる。すなわち、データ選択情報303は、第1の画像データ21内の表示対象範囲を定める情報である。
切り出し部301は、データ選択情報303にて指定された領域を第1の画像データ21から切り出す。切り出し部301は、切り出した画像304(以下、切り出し画像304とする)を拡大/縮小部302に供給する。
拡大/縮小部302は、記憶装置から表示位置情報305を読み出す。表示位置情報305は、スケール処理部30から出力される出力画像306において、切り出し画像304が表示される表示領域(表示位置及び表示サイズ)を示す情報である。換言すると、表示位置情報305は、切り出し画像204のスケールを規定する情報である。拡大/縮小部302は、表示位置情報305に応じて切り出し画像304を拡大または縮小し、出力画像306を生成する。すなわち、出力画像306は、加工した第1の画像データ21である。さらに、拡大/縮小部302は、出力画像306の有効範囲を示すイネーブル情報307を生成する。イネーブル情報307は、表示位置情報305と同じビットパターンを持つ情報である。ここで、イネーブル情報307に含まれる各画素のビット値("0"または"1")は、後述のミキサ部101〜103の画素値の選択に用いられる。このように、出力画像306の各画素に対応し、画素値の選択に用いられる1ビットの信号をイネーブル信号と呼称する。
なお、切り出し画像304、出力画像306、イネーブル情報307は、実際には信号として各処理部間でやり取りされる。換言すると、切り出し画像304、出力画像306、イネーブル情報307は、記憶装置に書き出される必要性はない。
図8の説明に戻る。スケール処理部31は、データ選択情報313及び表示位置情報315を用いる。スケール処理部31の内部構成は、図9に示す構成と同様である。スケール処理部32及びスケール処理部33についても同様である。なお、マスク情報23に関する表示位置情報325は、マスク情報が有効となる有効範囲と解釈されうる。
イネーブル信号処理部40は、ミキサ部102に対して供給するイネーブル信号を生成する処理部である。図10を参照して、イネーブル信号処理部40の構成について説明する。
イネーブル信号処理部40は、NANDゲート401と、ANDゲート402と、を備える。NANDゲート401には、出力画像326と、イネーブル情報327と、が入力される。マスク情報23は、Switching Planeに該当するため、各画素にはビット値が設定されている。そのため、出力画像326の各画素は、ビット値"0"または"1"を持つ。すなわち、ビット値"0"または"1"がNANDゲート401の一方の入力となる。
ANDゲート402には、NANDゲート402の出力と、イネーブル情報317と、が入力される。ANDゲートは、この2つの入力の論理和をミキサ部102に対して供給する。
図11は、イネーブル信号処理部40に対する入力と、イネーブル信号処理部40からの出力との関係を示す図である。図示するように、イネーブル情報327が"0"の場合には、出力画像326のビット値に関わらず、イネーブル情報317のビット値がイネーブル信号として出力される。
イネーブル情報327が"1"の場合には、出力画像326のビット値が"1"であり、イネーブル情報327が"1"の場合にのみイネーブル信号として出力されるビット値が"1"となる。
図8の説明に戻る。ミキサ部101〜103は、図2に示すミキサ部と同様の構成を持つ。ミキサ部101は、バックグラウンド情報26を使用する。バックグラウンド情報26は、所定の単色が指定された画像データであり、記憶装置に格納されている必要はない。
ミキサ部101は、イネーブル信号307のビット値が"0"である場合、バックグラウンド情報26の対応座標の画素値を、当該座標の画素値として出力する。ミキサ部101は、イネーブル信号307のビット値が"1"である場合、スケール処理部30から出力される出力画像326の対応座標の画素値を、当該座標の画素値として出力する。
ミキサ部102は、イネーブル信号処理部40の出力するイネーブル信号に基づいて、ミキサ部101からの画素値の出力、またはスケール処理部31からの画素値の出力、の一方を選択して出力する。イネーブル信号処理部40の出力するイネーブル信号が"0"の場合、ミキサ部102は、ミキサ部101からの画素値の出力を選択してミキサ部103に出力する。イネーブル信号処理部40の出力するイネーブル信号が"1"の場合、ミキサ部102は、スケール処理部31からの画素値の出力を選択してミキサ部103に出力する。
ミキサ部103は、イネーブル信号337のビット値が"0"である場合、ミキサ部102からの画素値の出力を選択して、出力画像データ24の対応画素の画素値として設定する。ミキサ部103は、イネーブル信号337のビット値が"1"である場合、スケール処理部33からの画素値の出力を選択して、出力画像データ24の対応画素の画素値として設定する。
なお、上述の説明では、ミキサ部101〜103の構成を図2に示す構成と同様の構成を持つことを前提に説明したが、必ずしもこれに限られない。例えば、ミキサ部101〜103の構成は、図3に示すようにアルファブレンド処理を行う構成であっても良い。
続いて、図8に示す画像処理装置1の構成により、立体視用画像データを生成する方法を図12を参照して説明する。図12では、出力画像データ24は、立体視用画像データとなる。図12は、図8に示す画像処理装置1と同様の構成を持ち、同一名称、同一符号を付した各処理部は上述した動作を行う。立体視用画像データを生成する場合、第1の画像データ21はユーザの右目に対応する画像であり、第2の画像データ22はユーザの左目に対応する画像である。
立体視用画像データを生成する場合、データ選択情報303は、第1の画像データ21の全領域を指定する。表示位置情報305は、出力画像データ24の全領域を指定する。同様に、データ選択情報313は、第2の画像データ22の全領域を指定する。表示位置情報315は、出力画像データ24の全領域を指定する。マスク情報23は、例えば図1に示したように縦縞模様のビット配列を持つ。なお、マスク情報23のビット配列は、略同数のビット値が略均一に分散されていれば良く、横縞模様であっても良く、市松模様であっても良い。データ選択情報323は、マスク情報23の全領域を指定する。表示位置情報325は、出力画像データ24の全領域を指定する。表示位置情報335は、画像領域を選択しないように設定される(すなわち全画素にビット値"0"が設定される)。
上述の入力より、ミキサ部101は、出力画像データ24と同一サイズにスケールを変更した第1の画像データ21を出力する。ミキサ部102は、出力画像データ24と同一サイズにスケールを変更した第2の画像データ22を出力する。
イネーブル信号処理部40は、図11に示すようにイネーブル信号を出力する。上述の表示位置情報305及び表示位置情報315の設定では、イネーブル信号317及び327は常に"1"となる。よって、イネーブル信号処理部40は、マスク情報23においてビット値として"1"が設定された画素の場合、イネーブル信号としてビット値"1"を出力する。イネーブル信号処理部40は、マスク情報23においてビット値として"0"が設定された画素の場合、イネーブル信号としてビット値"0"を出力する。
これにより、ミキサ部102は、立体視用画像データを生成する。なお、表示位置情報305が画像領域を選択しないように設定されているため、ミキサ部103は、ミキサ部102からの入力をそのまま出力画像データ24の画素値に設定する。
なお、上述の説明では、スケール処理部30〜33内に拡大/縮小部を備える構成を説明したが、入力データ(第1の画像データ21、第2の画像データ22、マスク情報23等)の画像サイズが出力画像データ24と同サイズであれば拡大/縮小部を省略しても良い。
上述のミキサ部102は、スケール調節をされた第1の画像データ21と、スケール調節をされた第2の画像データ22と、をマスク情報23を基に生成したイネーブル信号を利用してミキシングする。ミキサ部102は、ミキシングにより立体視用の画像データを生成する。よって、ミキサ部102は、図2に示すミキサ部10と略同一の役割を担う。
続いて、図8に示す画像処理装置1の構成により、サイドバイサイドの画像データを入力とし、立体視用画像データを生成する方法を図13を参照して説明する。
第1の画像データ21は、領域の左半分がユーザの右目に対応する画像であり、領域の右半分がユーザの左目に対応する画像である。データ選択情報303は、第1の画像データ21の右半分の領域を指定する(右半分の領域の各画素にビット値"1"を設定する)。表示位置情報305は、出力画像データ24の全領域を指定する。データ選択情報313は、第1の画像データ21の左半分の領域を指定する(左半分の領域の各画素にビット値"1"を設定する)。表示位置情報315は、出力画像データ24の全領域を指定する。マスク情報23は、例えば図1に示したように横縞模様のビット配列を持つ。データ選択情報323は、マスク情報23の全領域を指定する。表示位置情報325は、出力画像データ24の全領域を指定する。表示位置情報335は、画像領域を選択しないように設定される(すなわち全画素にビット値"0"が設定される)。
スケール処理部30は、上述の入力を基に、第1の画像データの右半分の領域を出力画像データ24のデータサイズに拡大した画像(実際には当該画像に含まれる各画素の画素値)を出力する。ミキサ部101は、スケール処理部30の出力した画像をそのまま出力する。
スケール処理部31は、上述の入力を基に、第1の画像データの左半分の領域を出力画像データ24のデータサイズに拡大した画像(実際には当該画像に含まれる各画素の画素値)を出力する。
イネーブル信号処理部40は、図12の場合と同様に、マスク情報23においてビット値として"1"が設定された画素の場合、イネーブル信号としてビット値"1"を出力する。イネーブル信号処理部40は、マスク情報23においてビット値として"0"が設定された画素の場合、イネーブル信号としてビット値"0"を出力する。
ミキサ部102及びミキサ部103の動作は、図12と同様であるため、詳細は省略する。
次に、図8に示す画像処理装置1の構成により、サイドバイサイドの画像データを生成する方法を図14を参照して説明する。
第1の画像データ21は、ユーザの右目に対応する画像である。データ選択情報303は、第1の画像データ21の全領域を指定する(全画素にビット値"1"を設定する)。表示位置情報305は、出力画像データ24の右半分の領域を指定する。第2の画像データ22は、ユーザの左目に対応する画像である。データ選択情報313は、第2の画像データ22の全領域を指定する(全画素にビット値"1"を設定する)。表示位置情報315は、出力画像データ24の左半分の領域を指定する。表示位置情報325及び表示位置情報335は、画像領域を選択しないように設定される(すなわち全画素にビット値"0"が設定される)。マスク情報23には、全画素に対してビット値"0"が設定されている。
スケール処理部30は、上述の入力を基に、第1の画像データ21を出力画像データ24のデータサイズの右半分にスケール変更し、スケール変更した画像をミキサ部101に出力する。ミキサ部101は、右半分が第1の画像データ21である画像をミキサ部101に出力する。
スケール処理部31は、上述の入力を基に、第2の画像データ22を出力画像データ24のデータサイズの左半分にスケール変更し、スケール変更した画像をミキサ部102に出力する。さらにスケール処理部31は、表示位置情報315を基にイネーブル信号317をイネーブル信号処理部40に出力する。
スケール処理部32は、表示位置情報325の全画素にビット値"0"が設定されているため、イネーブル信号327としてビット値"0"を常にイネーブル信号処理部40に出力する。さらに、スケール処理部32は、出力画像326として、全画素についてビット値"0"をイネーブル信号処理部40に出力する。
イネーブル信号処理部40は、上述の入力を基に、出力画像データ24の領域の左半分に相当する画素ではビット値"1"、右半分に相当する画素ではビット値"0"となるイネーブル信号を生成し、ミキサ部102に出力する。
ミキサ部102は、イネーブル信号に応じて、出力画像データ24の左半分の領域の各画素に第2の画像データ22の画素値を設定し、出力画像データ24の右半分の領域の各画素に第1の画像データ21の画素値を設定した画像をミキサ部103に出力する。
スケール処理部33は、表示位置情報315の全画素にビット値"0"が設定されているため、イネーブル信号337として常にビット値"0"を出力する。
ミキサ部103は、イネーブル信号337として常にビット値"0"が供給されるため、ミキサ部102の出力をそのまま出力する。上記した一連の処理により、画像処理装置1は、サイドバイサイドの画像である出力画像データ24を生成する。
続いて、本実施の形態にかかる画像処理装置の効果について説明する。上述したように、画像処理装置1は、入力データ(第1の画像データ21、第2の画像データ22、マスク情報23等)及び設定情報(データ選択情報303、表示位置情報305等)を適宜変更することにより、デジタル放送用にプレーン合成された画像(図8)、立体視用画像(図12〜図14)を生成することができる。
ミキサ部101等の各処理部は、立体視用画像の生成及びデジタル放送のプレーン合成に共有できる。これにより、立体視用画像の専用処理部やプレーン合成の専用処理部を設ける必要が無くなるため、装置が簡素化し、装置の小型化やメンテナンスコストの低減、装置の低コスト化を実現することができる。
さらに、スケール処理部30及び31が第1の画像データ21、第2の画像データ22のスケールを変更することにより、上述のようにサイドバイサイド形式の入力画像データ、サイドバイサイド形式の出力画像データに対応することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 画像処理装置
10 ミキサ部
101〜103 ミキサ部
21 第1の画像データ
22 第2の画像データ
23 マスク情報
24 出力画像データ
25 テキスト画像データ
26 バックグラウンド情報
30〜33 スケール処理部
301 切り取り部
302 拡大/縮小部
303、313、323、333 データ選択情報
305、315、325、335 表示位置情報
40 イネーブル信号処理部
401 NANDゲート
402 ANDゲート

Claims (17)

  1. 第1の画像内の画素と、第2の画像内の画素と、が略同数だけ略均一に分散されて表示されるように表示領域を規定した第1マスク情報に基づいて、前記第1及び第2の画像をミキシングした出力画像を生成するミキサ部、を備える画像処理装置。
  2. 前記ミキサ部は、前記第1マスク情報に基づいて画素毎に前記第1の画像内の画素または前記第2の画像内の画素のいずれかを指定する指定信号を出力する指定信号出力部と、
    前記指定信号に基づいて、前記出力画像内の対応画素に前記第1の画像内の画素の画素値または前記第2の画像内の画素の画素値を設定するスイッチ部と、を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記ミキサ部は、前記第1マスク情報に基づいて画素毎に前記第1の画像内の画素の画素値に乗算する第1アルファブレンド値を算出する算出部と、
    前記第1アルファブレンド値と、前記第1の画像内の画素の画素値と、を乗算した第1画素値を算出する第1乗算部と、
    前記第1アルファブレンド値に基づいて算出される第2アルファブレンド値と、前記第2の画像内の画素の画素値と、を乗算した第2画素値を算出する第2乗算部と、
    前記第1画素値と、前記第2画素値と、を加算した加算値を前記出力画像内の対応画素に設定する加算部と、を備えることを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1マスク情報は、前記第1の画像の表示を示す第1のビット値と、前記第2の画像の表示を示す第2のビット値と、を縦縞模様、横縞模様、市松模様のいずれかの形式で配置していることを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像処理装置。
  5. 前記ミキサ部は、前記第1マスク情報、及び前記第1マスク情報とビット値配置が1ビットずれている第2マスク情報、のいずれかを用いて前記出力画像を生成することを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像処理装置。
  6. 前記ミキサ部は、一定間隔毎に前記第1マスク情報と前記第2マスク情報の使用を切り替えて前記出力画像を生成することを特徴とする請求項5に記載の画像処理装置。
  7. 前記ミキサ部は、前記第1マスク情報が入力された場合には、前記第1マスク情報に基づいて前記出力画像を生成し、
    前記第1の画像内の画素と前記第2の画像内の画素との表示領域を規定した第3マスク情報が入力された場合には、前記第3マスク情報に基づいて前記出力画像を生成することを特徴とする請求項1乃至請求項6のいずれか1項に記載の画像処理装置。
  8. 前記第2の画像の表示対象範囲情報と、前記第1マスク情報と、前記第1マスク情報の有効範囲情報と、に基づいて、前記出力画像の各画素において前記第1の画像の画素値を設定するか、前記第2の画像の画素値を設定するかを指定するイネーブル信号を生成し、生成した前記イネーブル信号を前記ミキサ部に供給するイネーブル信号処理部を備えることを特徴とする請求項7に記載の画像処理装置。
  9. 前記第1の画像の表示対象範囲情報に応じて、前記第1の画像から当該範囲を切り出し、前記切り出し箇所のスケール情報に基づいて当該箇所のスケールを変更した前記第1の画像を前記ミキサ部に供給する第1スケール処理部と、
    前記第2の画像の表示範囲対象情報に応じて、前記第2の画像から当該範囲を切り出し、前記切り出し箇所のスケール情報に基づいて当該箇所のスケールを変更した前記第2の画像を前記ミキサ部に供給する第2スケール処理部と、を備えることを特徴とする請求項7または請求項8に記載の画像処理装置。
  10. 第3の画像の表示対象範囲情報に基づいて、前記出力画像に前記第3の画像を重畳した重畳画像を生成する第2ミキサ部を備えることを特徴とする請求項7乃至9のいずれか1項に記載の画像処理装置。
  11. 前記第1の画像、前記第2の画像、及び前記第1マスク情報の少なくとも一つを格納する記憶装置を備えることを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理装置。
  12. 第1の画像と、第2の画像と、の表示領域を規定したマスク情報と、前記第1の画像の表示対象範囲情報と、前記第2の画像の表示対象範囲情報と、に基づいて前記第1の画像と、前記第2の画像と、をミキシングして出力画像を生成するミキサ部を備えた、画像処理装置。
  13. 前記第2の画像の表示対象範囲情報と、前記マスク情報と、前記マスク情報の有効範囲情報と、に基づいて、前記出力画像の各画素において前記第1の画像の画素値を設定するか、前記第2の画像の画素値を設定するかを指定するイネーブル信号を生成し、生成した前記イネーブル信号を前記ミキサ部に供給するイネーブル信号処理部を備えることを特徴とする請求項12に記載の画像処理装置。
  14. 前記第1の画像の表示対象範囲情報に応じて、前記第1の画像から当該範囲を切り出し、前記切り出し箇所のスケール情報に基づいて当該箇所のスケールを変更した前記第1の画像を前記ミキサ部に供給する第1スケール処理部と、
    前記第2の画像の表示対象範囲情報に応じて、前記第2の画像から当該範囲を切り出し、前記切り出し箇所のスケール情報に基づいて当該箇所のスケールを変更した前記第2の画像を前記ミキサ部に供給する第2スケール処理部と、を備えることを特徴とする請求項12または請求項13に記載の画像処理装置。
  15. 第3の画像の表示対象範囲情報に基づいて、前記出力画像に前記第3の画像を重畳した重畳画像を生成する第2ミキサ部を備えることを特徴とする請求項12乃至14のいずれか1項に記載の画像処理装置。
  16. 第1の画像内の画素と、第2の画像内の画素と、が略同数だけ略均一に分散されて表示されるように表示領域を規定した第1マスク情報に基づいて、前記第1及び第2の画像をミキシングした立体視に用いる出力画像を生成する、画像処理方法。
  17. 第1の画像と、第2の画像と、の表示領域を規定したマスク情報と、前記第1の画像の表示対象範囲情報と、前記第2の画像の表示対象範囲情報と、に基づいて前記第1の画像と、前記第2の画像と、をミキシングして出力画像を生成する、画像処理方法。
JP2011119144A 2011-05-27 2011-05-27 画像処理装置、画像処理方法 Expired - Fee Related JP5701687B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011119144A JP5701687B2 (ja) 2011-05-27 2011-05-27 画像処理装置、画像処理方法
US13/463,727 US9197875B2 (en) 2011-05-27 2012-05-03 Image processing device and image processing method
EP12169169.5A EP2528336A3 (en) 2011-05-27 2012-05-23 Image processing device and image processing method
CN201210167849.9A CN102802010B (zh) 2011-05-27 2012-05-25 图像处理装置和图像处理方法
CN201610080693.9A CN105704474B (zh) 2011-05-27 2012-05-25 图像处理装置和图像处理方法
US14/925,580 US20160050403A1 (en) 2011-05-27 2015-10-28 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119144A JP5701687B2 (ja) 2011-05-27 2011-05-27 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2012249074A true JP2012249074A (ja) 2012-12-13
JP5701687B2 JP5701687B2 (ja) 2015-04-15

Family

ID=46578812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119144A Expired - Fee Related JP5701687B2 (ja) 2011-05-27 2011-05-27 画像処理装置、画像処理方法

Country Status (4)

Country Link
US (2) US9197875B2 (ja)
EP (1) EP2528336A3 (ja)
JP (1) JP5701687B2 (ja)
CN (2) CN102802010B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103531177A (zh) * 2013-10-08 2014-01-22 康佳集团股份有限公司 一种点阵字库抗锯齿显示的方法及系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156723A1 (ja) * 2013-03-27 2014-10-02 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP6653522B2 (ja) * 2015-02-04 2020-02-26 シナプティクス・ジャパン合同会社 表示装置、表示パネルドライバ、表示パネルの駆動方法
TWI537875B (zh) * 2015-04-08 2016-06-11 大同大學 影像合成方法與影像處理裝置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221644A (ja) * 1997-02-05 1998-08-21 Canon Inc 立体画像表示装置
JP2003153079A (ja) * 2001-11-08 2003-05-23 Sony Corp 画像処理装置と画像処理方法
JP2004166195A (ja) * 2002-09-27 2004-06-10 Sharp Corp 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法
JP2009258726A (ja) * 2008-04-18 2009-11-05 Seiko Epson Corp 多視点画像の形成方法、多視点画像の形成装置、コンピューター読み取り可能な媒体およびビデオ装置
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
JP2010068399A (ja) * 2008-09-12 2010-03-25 Nec Electronics Corp 画像処理装置及び方法
JP2010246033A (ja) * 2009-04-09 2010-10-28 Nikon Corp カメラ、画像処理装置、および画像処理プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8909874D0 (en) 1989-04-28 1989-06-14 Delta System Design Ltd Imaging systems
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
US6023302A (en) * 1996-03-07 2000-02-08 Powertv, Inc. Blending of video images in a home communications terminal
JP3169848B2 (ja) * 1997-02-12 2001-05-28 日本電気アイシーマイコンシステム株式会社 図形表示装置および図形表示方法
JPH10336705A (ja) 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
US7483042B1 (en) * 2000-01-13 2009-01-27 Ati International, Srl Video graphics module capable of blending multiple image layers
JP3792149B2 (ja) * 2001-11-12 2006-07-05 任天堂株式会社 画像処理装置および画像処理プログラム
JP3906167B2 (ja) 2002-02-28 2007-04-18 三洋電機株式会社 画像処理装置および画像処理方法
US7120297B2 (en) * 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US7221366B2 (en) * 2004-08-03 2007-05-22 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video
US8373744B2 (en) * 2007-06-07 2013-02-12 Reald Inc. Stereoplexing for video and film applications
KR101450670B1 (ko) 2007-06-11 2014-10-15 삼성전자 주식회사 블록 기반의 양안식 영상 포맷 생성 방법과 장치 및 양안식영상 복원 방법과 장치
US20090310947A1 (en) 2008-06-17 2009-12-17 Scaleo Chip Apparatus and Method for Processing and Blending Multiple Heterogeneous Video Sources for Video Output
CN106507117B (zh) 2008-07-20 2020-01-21 杜比实验室特许公司 立体视频传送系统的编码器优化的方法和设备
US20110187708A1 (en) * 2009-04-21 2011-08-04 Panasonic Corporation Image processor and image processing method
US20100302235A1 (en) * 2009-06-02 2010-12-02 Horizon Semiconductors Ltd. efficient composition of a stereoscopic image for a 3-D TV
WO2011006104A1 (en) * 2009-07-10 2011-01-13 Dolby Laboratories Licensing Corporation Modifying images for a 3-dimensional display mode
US8954477B2 (en) * 2011-01-28 2015-02-10 Apple Inc. Data structures for a media-editing application

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221644A (ja) * 1997-02-05 1998-08-21 Canon Inc 立体画像表示装置
JP2003153079A (ja) * 2001-11-08 2003-05-23 Sony Corp 画像処理装置と画像処理方法
JP2004166195A (ja) * 2002-09-27 2004-06-10 Sharp Corp 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法
JP2009258726A (ja) * 2008-04-18 2009-11-05 Seiko Epson Corp 多視点画像の形成方法、多視点画像の形成装置、コンピューター読み取り可能な媒体およびビデオ装置
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
JP2010068399A (ja) * 2008-09-12 2010-03-25 Nec Electronics Corp 画像処理装置及び方法
JP2010246033A (ja) * 2009-04-09 2010-10-28 Nikon Corp カメラ、画像処理装置、および画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103531177A (zh) * 2013-10-08 2014-01-22 康佳集团股份有限公司 一种点阵字库抗锯齿显示的方法及系统

Also Published As

Publication number Publication date
CN105704474B (zh) 2018-04-03
JP5701687B2 (ja) 2015-04-15
US20120301052A1 (en) 2012-11-29
CN102802010A (zh) 2012-11-28
EP2528336A2 (en) 2012-11-28
US9197875B2 (en) 2015-11-24
CN102802010B (zh) 2016-03-02
CN105704474A (zh) 2016-06-22
EP2528336A3 (en) 2015-06-17
US20160050403A1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
US8810605B2 (en) Adaptive video processing apparatus and method of scaling video based on screen size of display device
TWI517711B (zh) 螢幕顯示設定之處理方法與嵌入式系統
US10904507B2 (en) Single display pipe multi-view frame composer method and apparatus
US9363496B2 (en) Moving image generation device
JP5047124B2 (ja) パーツ識別画像作成装置及び同方法、パーツ識別表示装置及び同方法、プログラム及び記憶媒体
WO2013054371A1 (ja) 立体字幕処理装置および立体字幕処理方法
US20130293547A1 (en) Graphics rendering technique for autostereoscopic three dimensional display
JP5701687B2 (ja) 画像処理装置、画像処理方法
JP2011139261A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006106371A (ja) 画像出力方法
JP2007089110A (ja) テレビウォール用画像分割方法
JP2012221092A (ja) 画像処理装置、画像処理方法およびプログラム
JP5289538B2 (ja) 電子機器、表示制御方法及びプログラム
JPWO2014171066A1 (ja) 三次元画像表示システム、三次元画像表示システムのサーバ及び三次元画像表示方法
JP2007121378A (ja) 映像表示装置
TW202025080A (zh) 用於圖形處理之方法及裝置
KR20120103443A (ko) 3d 포인터 생성 장치 및 3d 포인터 생성 방법
JP5573693B2 (ja) 情報表示方法、情報表示プログラム、および情報表示装置
JP2017097120A (ja) 表示制御装置、マルチディスプレイシステム、およびマルチディスプレイシステムの表示方法
CN112567430A (zh) 图像生成装置、图像生成方法和程序
US20110157162A1 (en) Image processing device, image processing method, and program
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
JP6174873B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2010239506A (ja) データ放送受信装置およびデータ放送受信プログラム
JP2014095995A (ja) 視差を付加する装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150218

R150 Certificate of patent or registration of utility model

Ref document number: 5701687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees