JP5771096B2 - 画像処理方法 - Google Patents

画像処理方法 Download PDF

Info

Publication number
JP5771096B2
JP5771096B2 JP2011189538A JP2011189538A JP5771096B2 JP 5771096 B2 JP5771096 B2 JP 5771096B2 JP 2011189538 A JP2011189538 A JP 2011189538A JP 2011189538 A JP2011189538 A JP 2011189538A JP 5771096 B2 JP5771096 B2 JP 5771096B2
Authority
JP
Japan
Prior art keywords
image data
luminance value
data
image
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011189538A
Other languages
English (en)
Other versions
JP2013051621A (ja
JP2013051621A5 (ja
Inventor
俊樹 濱田
俊樹 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Semiconductor Energy Laboratory Co Ltd
Original Assignee
Semiconductor Energy Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Semiconductor Energy Laboratory Co Ltd filed Critical Semiconductor Energy Laboratory Co Ltd
Priority to JP2011189538A priority Critical patent/JP5771096B2/ja
Priority to US13/595,307 priority patent/US8873854B2/en
Publication of JP2013051621A publication Critical patent/JP2013051621A/ja
Publication of JP2013051621A5 publication Critical patent/JP2013051621A5/ja
Priority to US14/521,729 priority patent/US9602800B2/en
Application granted granted Critical
Publication of JP5771096B2 publication Critical patent/JP5771096B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理方法に関する。または本発明は、画像処理プログラムに関する。
テレビ受像機などの大型表示装置から携帯電話などの小型表示装置に至るまで、様々な表示装置が市場に普及している。今後表示装置には、より付加価値がより高い製品が求められており、開発が進められている。近年では、より臨場感のある画像を再現するため、立体表示が可能な表示装置の開発が進められている。
立体表示を視認可能な表示装置では、両眼視差を利用した方式による表示が多く用いられている。両眼視差を利用した方式では、例えば、左目に視認される画像と右目に視認される画像を分離するための専用の眼鏡を用いる方式が主流となりつつある。
また両眼視差を利用した方式には、専用の眼鏡を用いない方式もあり、左目に視認される画像と右目に視認される画像を分離するための構成(視差バリア、レンチキュラーレンズ、マイクロレンズアレイなど)を表示部に追加することで、裸眼での立体表示を実現している(例えば特許文献1を参照)。
特開2005−258013号公報
上記列挙した両眼視差を使用して立体表示を視聴可能にする表示装置では、表示部への構成の追加、又は専用の眼鏡が必要である。そのため、製造コストの増加、及び消費電力の増加が問題となる。
一方で両眼視差以外にも、心理的又は経験的に、人間が物体を立体として認識できる生理的な要因として、物の大小、物の配置、明暗、陰影、鮮明等がある。列挙した感覚的な立体視要素は、表示部への付加的な構成を伴わないといった利点があるものの、既に2次元画像内に備わっている立体感を付与するための要因であるため、より立体感を高めることのできる手法が望まれる。
そこで、本発明の一態様では、2次元画像の立体感を簡便な画像処理方法により、さらに高めることができる画像処理方法を提供することを課題の一とする。
本発明の一態様は、2次元画像である、複数のフレームでなる動画の画像データの立体感を、さらに高める画像処理方法に関するものである。まず、画像データから対象物領域と背景領域とに区分した差分マスクデータを形成する。そして、各対象物領域の中心座標を算出する。次いで、対象物領域の平均輝度値に応じてグラデーションパターンを選択し、背景領域にグラデーションパターンを施したグラデーションマスクデータを作成する。次いで、グラデーションマスクデータを元に元の画像データにおける背景領域の画像データを変換することで、画像の立体感を高めるといった画像処理方法である。
本発明の一態様は、複数のフレームで構成される動画の画像データを、演算装置によって処理する画像処理方法であり、フレーム間の画像データの差分を演算し、対象物領域と背景領域とで構成される2値の差分マスクデータを作成する処理を行い、対象物領域の中心座標データを演算する処理を行い、対象物領域の平均輝度値を演算し、背景領域に対して、平均輝度値に応じたグラデーションパターンを施したグラデーションマスクデータを作成する処理を行い、画像データを、グラデーションマスクデータに応じた画像データに変換する処理を行う、画像処理方法である。
本発明の一態様において、差分マスクデータは、(n−1)フレーム目とnフレーム目との画像データの輝度値の差分、及びnフレーム目と(n+1)フレーム目の画像データの輝度値の差分より得られる差分画像データを元に、作成される画像処理方法が好ましい。
本発明の一態様において、中心座標データの演算は、ラベリング処理により求められる画像処理方法が好ましい。
本発明の一態様において、平均輝度値は、対象物領域の各画素の輝度値を加算し、対象物領域の画素数で割った値である画像処理方法が好ましい。
本発明の一態様において、グラデーションパターンは、輝度値に応じて、中心座標データから離間する方向に向けて輝度値が減少するパターン、または中心座標データから離間する方向に向けて輝度値が増大するパターンを選択して得られる画像処理方法が好ましい。
本発明の一態様において、グラデーションマスクデータに応じた変換が行われる画像データは、対象物領域において、当該画像データの輝度値を用い、背景領域において、グラデーションマスクデータの輝度値と、当該画像データの輝度値との平均値に変換された輝度値を用いる画像処理方法が好ましい。
本発明の一態様により、2次元画像の立体感を簡便な画像処理方法により、さらに高めることができる画像処理方法を提供できる。
実施の形態1について説明するブロック図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明するフローチャート図。 実施の形態1について説明する図。 実施の形態1について説明する図。 実施の形態1について説明する図。 実施の形態1について説明する図。 実施例について説明する写真図。
以下に、図面を用いて、本発明を説明する。ただし、本発明は多くの異なる態様で実施することが可能であり、本発明の趣旨およびその範囲から逸脱することなく、その形態および詳細を様々に変更し得ることは当業者であれば容易に理解される。従って、本発明は実施の形態の記載内容に限定して解釈されるものではない。
(実施の形態1)
本発明の一態様に係る表示装置について、図1を用いて説明する。
図1に示すように、本発明の一態様に係る表示装置10は、表示装置10に入力された画像データdataに画像処理を施し、変換された画像データを生成する画像データ処理部11と、上記変換された画像データに従って画像の表示を行う表示部12とを有する。
図1に示す画像データ処理部11は、入力部13、演算装置14、記憶装置15、表示部用コントローラ16などを有する。
入力部13は、表示装置10に入力された画像データのフォーマットを、表示装置10で扱うフォーマットに変換する、インターフェースである。
なお、入力部13より入力される画像データは、複数のフレームで構成される動画の画像データとして説明するが、静止画の画像データであってもよい。また、画像データは、フルカラー画像に対応する画像データであっても良いし、モノカラー画像に対応した画像データであっても良い。画像データがフルカラー画像に対応する画像データである場合、画像データには、各色相に対応する複数の画像データが含まれている。
なお、本明細書では、異なる色相の色を複数用い、各色の階調により表示される画像をフルカラー画像とする。また、単一の色相の色を用い、その色の階調により表示される画像をモノカラー画像とする。
演算装置14は、画像データ処理部11が有する入力部13、記憶装置15、表示部用コントローラ16の動作を統括的に制御する機能を有する。また、演算装置14は、論理演算、四則演算など各種の演算処理を行い、画像データに画像処理を施すことで、変換後の画像データとする機能を有する。
記憶装置15は、入力部13より入力された画像データを一時的に記憶する機能を有する。具体的に、記憶装置15は、動画を構成する複数のフレームの画像データを一時的に記憶し、一時的に記憶した画像データは演算装置14での演算処理に用いられる。また記憶装置15は、演算装置14で演算処理する際の一時的なデータの記憶を行うことも可能である。また、記憶装置15は、演算装置14で変換された画像データを一時的に記憶することも可能である。また、記憶装置15は、演算装置14で行う命令(プログラム)を記憶することも可能である。記憶装置15に記憶された、演算装置14で行う命令(プログラム)は、演算装置14に読み出されることで実行することができる。
表示部用コントローラ16は、画像処理が施された画像データを用い、表示部12の仕様に合った画像信号を生成する。生成された画像信号は、表示部12に供給される。また、表示部用コントローラ16は、表示部12の駆動を制御するためのクロック信号、スタートパルス信号などの駆動信号や、電源電位を、表示部12に供給する機能を有する。
表示部12は、画像信号を用いて画像の表示を行う画素部17と、画素部17の動作を制御する駆動回路18とを有する。画素部17には、液晶表示装置、有機発光素子(OLED)などの発光素子を備えた発光装置、電子ペーパー、DMD(Digital Micromirror Device)、PDP(Plasma Display Panel)、FED(Field Emission Display)等の、各画素の階調を制御することで画像の表示を行う装置を、用いることができる。
次いで、図1に示した表示装置10において行われる、本発明の一態様に係る画像処理方法について説明する。
図2に、本発明の一態様に係る画像処理方法の流れを、フローチャート図で一例として示す。なお、図2で説明する画像処理方法の各処理は、図1の演算装置14で行われる演算処理である。
まずフレーム間の画像データの差分を演算し、対象物領域と背景領域とで構成される2値の差分マスクデータを作成する処理を行う(ステップS11:差分マスクデータ作成処理)。
なお対象物領域とは、1つのフレーム画像において、視認者によって直目される物体、ここでは動いている物体が、フレーム画像内において占める領域のことをいう。また背景領域とは、1つのフレーム画像において、対象物領域以外の領域のことをいう。
なお差分マスクデータは、1フレームの画像を画素毎に2値のデータで表したものである。具体的には、対象物領域に属する画素を’1’、背景領域に属する画素を’0’とした1フレーム分のデータに相当する。一例として可視化して表す場合には、1フレームにおいて、対象物領域を白、背景領域を黒で表すことができる。
次いで、対象物領域の中心座標データを演算する処理を行う(ステップS12:中心座標データ作成処理)。
次いで、対象物領域の平均輝度値を演算し、背景領域に対して、平均輝度値に応じたグラデーションパターンを施したグラデーションマスクデータを作成する処理を行う(ステップS13:グラデーションマスクデータ作成処理)。
なお平均輝度値とは、対象物領域に属する画素の輝度値の総和を、対象物領域に属する画素数で割った値に相当する。なお輝度は画素の輝度にあたり、輝度値を階調値と置き換えてもよい。なお、色要素として赤(R)、G(緑)、B(青)の3つの画素で一つの色を表す場合には、RGBの各色で重み付けを行った上で3つの画素を併せて輝度値とすればよい。RGBの輝度値の重み付けとは、各色の輝度値の積算する際により重み付けを行い、足し併せることである。具体的には、Rの輝度値をR、Gの輝度値をG、Bの輝度値をBとすると、NTSC方式で画素の輝度値Sは、S=0.30R+0.59G+0.11B で表される。なお、色要素は、RGB以外の色を用いても良い。
なお平均輝度値の代わりに、輝度値の最大値と最小値の中央値を用いることも可能である。
なおグラデーションパターンは、白から黒、または黒から白への連続的な変化が、一方向または多方向に向けて広がる模様のことをいう。
図10(A1)では、一例として、中心座標(図10(A1)中の×点)から同心円状の黒から白への連続的な変化を表したグラデーションパターンを示している。グラデーションパターンの輝度値については、点線XYで水平方向を表すとすると、図10(A2)に示すように、中心座標で輝度値が沈み込むように低下し、周辺部では、輝度値が最大値となるように適宜調整すればよい。なおグラデーションパターンにおける、黒から白への輝度値の連続的な変化は、直線的に変化するものであってもよい。また、グラデーションパターンの中心座標からの黒から白への連続的な変化は、図10(B)に示すように幅をもって矩形状に広がる構成としてもよい。
また、グラデーションパターンを施す中心座標が画面の端に位置する場合には、図10(C1)及び(C2)に図10(A1)及び(A2)と同様に示すと、中心座標で輝度値が沈み込むように低下し、周辺部では、輝度値が最大値となるように適宜調整すればよい。
また中心座標が複数ある場合には、図11(A)及び図11(B)に示すように、中心座標から連続的な変化が重畳しないようにグラデーションパターンを施せばよい。
なおグラデーションマスクデータは、前述のグラデーションパターンを差分マスクデータにおける背景領域となる黒領域に対して、対象物領域を中心として適用したデータに相当する。
次いで、画像データを、グラデーションマスクデータに応じた画像データに変換する処理を行う(ステップS14:画像データ変換処理)。
上述したステップS11乃至ステップS14については、各ステップについて具体例を説明するためのフローチャート図を図3乃至図7に図示して説明する。なお図3乃至図7に示すフローチャート図では、図8及び図9に示す各データについて可視化した図と併せて、説明することとする。
図3及び図4では、ステップS11の差分マスクデータ作成処理について一例を表すフローチャート図である。
なおステップS11乃至ステップS14を説明するフローチャート図においては、連続するフレームの画像データを、(n−1)フレーム目の画像データ(nは2以上の自然数)、nフレーム目の画像データ、(n+1)フレーム目の画像データとし、nフレーム目の画像データの変換処理を行う例について説明する。なお(n−1)フレーム目の画像データ、nフレーム目の画像データ、(n+1)フレーム目の画像データについて可視化すると、一例としては、図8(A1)乃至(A3)のように表すことができる。図8(A1)乃至(A3)では、前後のフレーム間で移動する物体を対象物とする。図8(A1)乃至(A3)では、対象物を実線200で表し、(n−1)フレームでの対象物を点線201、(n+1)フレームでの対象物を点線202で表している。
まず、(n−1)フレーム目とnフレーム目との画像データの画素(x,y)における輝度値の差分、及びnフレーム目と(n+1)フレーム目との画像データの画素(x,y)における輝度値の差分、を算出する処理を行う(ステップS21)。輝度値の差分は、例えば(n−1)フレーム目のRGBの輝度値が(255,255,255)で、nフレーム目のRGBの輝度値が(125,125,125)であれば、輝度値の差分として(130,130,130)を算出し、その後各色の輝度値に重み付けを行い、算出すればよい。
次いで、ステップS21で算出した輝度値が、設定したしきい値となる輝度値以上か否かの判断を行う(ステップS22)。ここでしきい値となる輝度値は適宜設定すればよく、一例としては最大の輝度値と最小の輝度値の中間の輝度値に設定すればよい。
次いで、ステップS22での判断で、ステップS21で算出した輝度値が設定したしきい値となる輝度値以上であれば、画素(x,y)に対応する差分画像データを’0’、すなわち黒にする(ステップS23)。なお差分画像データは、対象物領域と背景領域とで構成される2値の差分マスクデータを作成するための一時的なデータである。
また、ステップS22での判断で、ステップS21で算出した輝度値が設定したしきい値となる輝度値より小さければ、画素(x,y)に対応する差分画像データを’1’、すなわち白にする(ステップS24)。
なおステップS23で差分画像データを黒と判断する場合、1フレーム分の画像データの中で、差分画像データを黒とした画素(x,y)の元の輝度値を加算する処理を行う(ステップS25)。またステップS24での処理とともに、1フレーム分の画像データの中で、差分画像データを黒とした画素(x,y)の個数をカウントするため、カウンターをインクリメントする(ステップS26)。なおステップS25及びステップS26で、加算した輝度値の累計データ及びカウンターでのカウント値は、後にグラデーションパターンを選択する際に用いるデータとなる。
次いで、ステップS24及びステップS26の処理後、1フレーム分の全画素に対する輝度値の差分の算出が完了したか否かの判断を行う(ステップS27)。1フレーム分の全画素に対する輝度値の差分の算出が完了していなければ、再度ステップS21より別の画素について処理を行う。
ステップS27で1フレーム分の全画素に対する輝度値の差分の算出が完了していれば、白黒の2値による、(n−1)フレーム目とnフレーム目との間の差分画像データ、及びnフレーム目と(n+1)フレーム目との間の差分画像データの作成が完了となる(ステップS28)。なお図8(A1)及び(A2)で示した画像データの、(n−1)フレーム目とnフレーム目との間の差分画像データについて可視化すると、一例としては、図8(B)のように表すことができる。また図8(A2)及び(A3)で示した画像データの、nフレーム目と(n+1)フレーム目との間の差分画像データについて可視化すると、一例としては、図8(C)のように表すことができる。図8(B)、図8(C)に示すように、フレーム間で対象物が移動した領域が黒となり、そのほかの領域が白となる。
図3のステップS28の次のAに引き続き、図4ではステップS11の差分マスクデータ作成処理について説明する。
ステップS28のAから続いて、画素(x,y)における、(n−1)フレーム目とnフレーム目との間の差分画像データと、及びnフレーム目と(n+1)フレーム目との間の差分画像データと、を比較する(ステップS29)。
次いで、ステップS29で比較した白黒の2値について共に差分画像データが黒であるか判断を行う(ステップS30)。
次いで、ステップS30での判断で、ステップS29で共に差分画像データが黒であれば、画素(x,y)に対応する差分マスクデータを’1’、すなわち白にする(ステップS31)。
また、ステップS30での判断で、ステップS29で共に差分画像データが黒でなければ、画素(x,y)に対応する差分画像データを’0’、すなわち黒にする(ステップS32)。
次いで、ステップS31及びステップS32の処理後、1フレーム分の全画素に対する差分画像データの比較が完了したか否かの判断を行う(ステップS33)。1フレーム分の全画素に対する差分画像データの比較が完了していなければ、再度ステップS29より別の画素について処理を行う。
ステップS33で1フレーム分の全画素に対する差分画像データの比較が完了していれば、白の領域を対象物領域、黒の領域を背景領域とする2値の差分マスクデータの作成が完了となる(ステップS34)。なお図8(B)及び図8(C)で示した差分画像データによる2値の差分マスクデータについて可視化すると、一例としては、図8(D)のように表すことができる。図8(D)に示すように、nフレーム目の画像データで対象物のある領域が白となり、そのほかの領域が黒となる。
以上がステップS11の差分マスクデータ作成処理についての一例を表すフローチャート図である。なお、本発明の一形態では、図3及び図4で説明したフローチャート図の処理に限られるものでなく、対象物領域と背景領域とを区分した差分マスクデータを得られる処理であれば他のステップを経るものであってもよい。なおステップS11の差分マスクデータ作成処理の詳細については、背景領域と対象物領域を区分する画像処理について記載された、本出願人による特開2009−147922号公報を参照されたい。
図5では、ステップS12の中心座標データ作成処理について一例を表すフローチャート図である。
まず、差分マスクデータの対象物領域に対して、ラベリング処理を行い、中心座標データを特定する(ステップS41)。
次いで、ステップS41で行う対象物領域が他にあるか否かの判断を行う(ステップS42)。
ステップS42で全ての対象物領域に対する差分マスクデータのラベリング処理が完了していれば、対象物領域の中心座標データの検出が完了となる(ステップS43)。全ての対象物領域に対する差分マスクデータのラベリング処理が完了していなければ、再度ステップS41より別の対象物領域について処理を行う。なお図8(D)で示した差分マスクデータへのラベリング処理による対象物領域の中心座標データについて可視化すると、一例としては、図9(A)中の×点のように表すことができる。
以上がステップS12の中心座標データ作成処理についての一例を表すフローチャート図である。なお、本発明の一形態では、図5で説明したフローチャート図の処理に限られるものでなく、対象物領域の中心座標データを得られる処理であれば他のステップを経るものであってもよい。
図6では、ステップS13のグラデーションマスクデータ作成処理について一例を表すフローチャート図である。
まず、対象物領域に対応する画素の輝度値の合算値をカウンターのカウント値で割り、対象物領域の平均輝度値を演算する(ステップS51)。なお対象物領域に対応する画素の輝度値の合算値、及びカウント値については、上述のステップS25及びステップS26で処理した値を用いる。
なお平均輝度値の代わりに、輝度値の中央値を用いる場合には、前述のステップS51における平均輝度値を演算する処理の代わりに輝度値の中央値を演算する処理を行えばよい。また、輝度値の中央値を用いる場合には、上述のステップS25及びステップS26での処理を省略することができる。
次いで、ステップS51で求める平均輝度値がしきい値以下であるか否かの判断を行う(ステップS52)。ここでしきい値となる平均輝度値は適宜設定すればよく、一例としては最大の輝度値と最小の輝度値の中間の輝度値に設定すればよい。
次いで、ステップS52での判断で、ステップS51で演算した平均輝度値が、設定したしきい値となる平均輝度値以上であれば、中心座標から離間する方向に向けて輝度値が増加するグラデーションパターンを選択する(ステップS53)。
また、ステップS52での判断で、ステップS51で演算した平均輝度値が、設定したしきい値となる平均輝度値より小さければ、中心座標から離間する方向に向けて輝度値が減少するグラデーションパターンを選択する(ステップS54)。
ステップS53及びステップS54でのグラデーションパターンの選択が完了していれば、選択したグラデーションパターンを対象物領域の中心座標を中心にして背景領域に適用し、グラデーションマスクデータの作成完了となる(ステップS55)。なお図8(D)で示した差分マスクデータの背景領域に、中心座標から離間する方向に向けて輝度値が増加するグラデーションパターンを適用する例について可視化すると、図9(B)のように表すことができる。図9(B)のグラデーションマスクデータは、対象物領域210を表し、対象物領域210の中心座標を中心として同心円状にグラデーションパターン211が施されている。
以上がステップS13のグラデーションマスクデータ作成処理についての一例を表すフローチャート図である。なお、本発明の一形態では、図6で説明したフローチャート図の処理に限られるものでなく、グラデーションマスクデータを得られる処理であれば他のステップを経るものであってもよい。
図7では、ステップS14の画像データ変換処理について一例を表すフローチャート図である。
まず、nフレーム目の画像データにおける画素(x,y)が、グラデーションマスクデータにおける背景領域に対応するか否かの判断を行う(ステップS61)。
ステップS61において、nフレーム目の画像データにおける画素(x,y)が、グラデーションマスクデータにおける背景領域に対応すれば、画素(x,y)の画像データの輝度値と、画素(x,y)に対応するグラデーションマスクデータの輝度値と、の平均値を演算し、画像処理後の画像データの輝度値とする(ステップS62)。
またステップS61において、nフレーム目の画像データにおける画素(x,y)が、グラデーションマスクデータにおける背景領域でない、すなわち対象物領域に対応すれば、画像処理前の画素(x,y)の画像データの輝度値を、そのまま画像処理後の画像データの輝度値とする(ステップS63)。
次いで、ステップS61で行う、全画素に対する画像処理の判断が完了したか否かの判断を行う(ステップS64)。
ステップS64で全画素に対する画像処理が完了していれば、nフレーム目の画像データの画像処理が完了となる(ステップS65)。ステップS64で全画素に対する画像処理が完了していなければ、再度ステップS61より別の画素について処理を行う。なお図8(A2)で示したnフレームの画像データへのグラデーションマスクデータを用いた画像処理について可視化すると、一例としては、図9(C)のように表すことができる。図9(C)の画像処理後の画像データは、対象物220を中心として背景221に同心円状に、グラデーションパターンによる輝度値の勾配が施されている。
以上がステップS14の画像データ変換処理についての一例を表すフローチャート図である。なお、本発明の一形態では、図7で説明したフローチャート図の処理に限られるものでなく、グラデーションマスクデータに応じた画像データの変換が行われる処理であれば他のステップを経るものであってもよい。
以上説明したように、本実施の形態で示す構成は、2次元画像である、複数のフレームでなる動画の画像データの立体感を、グラデーションパターンを背景領域に施すことで、さらに高めることができる。そのため、両眼視差を使用して立体表示を視聴可能にする表示装置のように、表示部への構成の追加、又は専用の眼鏡を必要としないことによる、製造コストの削減、及び消費電力の削減を図ることができる。
本実施例では、本発明の一態様の画像処理方法を用いて作成した画像について図12を用いて説明する。
図12(A)には、補正前の画像データによる画像を示している。なお本実施例では、前後のフレームの画像について示さないが、本実施例では、中央の球体を対象物画像として画像処理をおこなった。
図12(B)には、補正前の画像データを元に作成した2値の差分マスクデータを示している。白の領域には、図12(A)で示した球体が対象物画像となり、そのほかの領域が背景画像をして黒の画像に区分された。
図12(C)には、2値の差分マスクデータの背景領域にグラデーションパターンを施したグラデーションマスクデータを示している。グラデーションパターンとしては、対象物領域の中心座標から離間する方向に向けて輝度値が減少する図12(D)に示すグラデーションパターンを選択し、図12(B)の背景領域に適用することで図12(C)のグラデーションマスクデータを作成した。
図12(E)には、図12(C)に示すグラデーションマスクデータを用いて図12(A)の画像データに画像処理を施した変換処理後の画像データによる画像を示している。図12(E)に示すように、画像データの立体感を、グラデーションパターンを背景領域に施すことで、さらに高めることができた。以上の結果、本実施例から、本発明の一態様の画像処理方法を対象画像に施すことで、該対象画像に比べて立体感が高められた処理画像を得られることが示された。
10 表示装置
S11 ステップ
11 画像データ処理部
S12 ステップ
12 表示部
S13 ステップ
13 入力部
S14 ステップ
14 演算装置
15 記憶装置
16 表示部用コントローラ
17 画素部
18 駆動回路
S21 ステップ
S22 ステップ
S23 ステップ
S24 ステップ
S25 ステップ
S26 ステップ
S27 ステップ
S28 ステップ
S29 ステップ
S30 ステップ
S31 ステップ
S32 ステップ
S33 ステップ
S34 ステップ
S41 ステップ
S42 ステップ
S43 ステップ
S51 ステップ
S52 ステップ
S53 ステップ
S54 ステップ
S55 ステップ
S61 ステップ
S62 ステップ
S63 ステップ
S64 ステップ
S65 ステップ
200 実線
201 点線
202 点線
210 対象物領域
211 グラデーションパターン
220 対象物
221 背景

Claims (6)

  1. 複数のフレームで構成される動画の画像データを、演算装置によって処理する画像処理方法であり、
    フレーム間の前記画像データの差分を演算し、対象物領域と背景領域とで構成される2値の差分マスクデータを作成する処理を行い、
    前記対象物領域の中心座標データを演算する処理を行い、
    前記対象物領域の平均輝度値を演算し、前記背景領域に対して、前記平均輝度値に応じたグラデーションパターンを施したグラデーションマスクデータを作成する処理を行い、
    前記画像データを、前記グラデーションマスクデータに応じた画像データに変換する処理を行う、画像処理方法。
  2. 請求項1において、前記差分マスクデータは、(n−1)フレーム目とnフレーム目との前記画像データの輝度値の差分、及びnフレーム目と(n+1)フレーム目の前記画像データの輝度値の差分より得られる差分画像データを元に、作成される画像処理方法。
  3. 請求項1または2において、前記中心座標データの演算は、ラベリング処理により求められる画像処理方法。
  4. 請求項1乃至3のいずれか一において、前記平均輝度値は、前記対象物領域の各画素の輝度値を加算し、前記対象物領域の画素数で割った値である画像処理方法。
  5. 請求項1乃至4のいずれか一において、前記グラデーションパターンは、前記平均輝度値に応じて、前記中心座標データから離間する方向に向けて輝度値が減少するパターン、または前記中心座標データから離間する方向に向けて輝度値が増大するパターンを選択して得られる画像処理方法。
  6. 請求項1乃至5のいずれか一において、前記グラデーションマスクデータに応じた変換が行われる前記画像データは、
    前記対象物領域において、当該画像データの輝度値を用い、
    前記背景領域において、前記グラデーションマスクデータの輝度値と、当該画像データの輝度値との平均値に変換された輝度値を用いる画像処理方法。
JP2011189538A 2011-08-31 2011-08-31 画像処理方法 Expired - Fee Related JP5771096B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011189538A JP5771096B2 (ja) 2011-08-31 2011-08-31 画像処理方法
US13/595,307 US8873854B2 (en) 2011-08-31 2012-08-27 Image processing method
US14/521,729 US9602800B2 (en) 2011-08-31 2014-10-23 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011189538A JP5771096B2 (ja) 2011-08-31 2011-08-31 画像処理方法

Publications (3)

Publication Number Publication Date
JP2013051621A JP2013051621A (ja) 2013-03-14
JP2013051621A5 JP2013051621A5 (ja) 2014-09-18
JP5771096B2 true JP5771096B2 (ja) 2015-08-26

Family

ID=47743832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011189538A Expired - Fee Related JP5771096B2 (ja) 2011-08-31 2011-08-31 画像処理方法

Country Status (2)

Country Link
US (2) US8873854B2 (ja)
JP (1) JP5771096B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5621875B1 (ja) * 2013-04-26 2014-11-12 フリュー株式会社 撮影装置および方法、並びにプログラム
EP3432776B1 (en) * 2016-03-23 2023-03-29 The Procter & Gamble Company Imaging method for determining stray fibers
CN109308687A (zh) * 2018-09-06 2019-02-05 百度在线网络技术(北京)有限公司 用于调节图像亮度的方法和装置
CN110086997B (zh) * 2019-05-20 2021-07-20 北京百度网讯科技有限公司 人脸图像曝光亮度补偿方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2834318B2 (ja) 1990-11-28 1998-12-09 株式会社日立製作所 三次元画像処理方法
US5732204A (en) 1994-02-01 1998-03-24 Ricoh Company, Ltd. Method and device for 3D image processing
JP2919759B2 (ja) 1994-05-18 1999-07-19 三洋電機株式会社 光学フィルタ及びこれを用いる立体表示装置
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7103236B2 (en) 2001-08-28 2006-09-05 Adobe Systems Incorporated Methods and apparatus for shifting perspective in a composite image
JP2003259395A (ja) 2002-03-06 2003-09-12 Matsushita Electric Ind Co Ltd 立体表示方法及び立体表示装置
US7639855B2 (en) * 2003-04-02 2009-12-29 Ziosoft, Inc. Medical image processing apparatus, and medical image processing method
JP2005258013A (ja) 2004-03-11 2005-09-22 Sharp Corp 表示パネルおよび表示装置
JP4560711B2 (ja) 2004-06-22 2010-10-13 株式会社セガ 画像処理
US7664338B2 (en) 2004-09-28 2010-02-16 Qualcomm Incorporated Perspective transformation of two-dimensional images
US7702131B2 (en) * 2005-10-13 2010-04-20 Fujifilm Corporation Segmenting images and simulating motion blur using an image sequence
TWI322969B (en) * 2006-12-15 2010-04-01 Quanta Comp Inc Method capable of automatically transforming 2d image into 3d image
US20100097447A1 (en) * 2007-03-30 2010-04-22 Pioneer Corporation Image Display Device
JP2008258994A (ja) * 2007-04-06 2008-10-23 Ricoh Co Ltd 画像処理装置
KR101515031B1 (ko) 2007-11-20 2015-04-24 가부시키가이샤 한도오따이 에네루기 켄큐쇼 액정 표시장치 및 이 액정 표시장치의 화상 표시방법
JP5300433B2 (ja) * 2007-11-22 2013-09-25 株式会社半導体エネルギー研究所 画像処理方法及び表示装置
TWI524755B (zh) 2008-03-05 2016-03-01 半導體能源研究所股份有限公司 影像處理方法、影像處理系統及電腦程式
JP5180916B2 (ja) 2008-06-25 2013-04-10 株式会社半導体エネルギー研究所 画像処理システム、及び画像処理方法
US8693759B2 (en) 2008-11-13 2014-04-08 Hitachi Medical Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
US20130051698A1 (en) 2013-02-28
US9602800B2 (en) 2017-03-21
JP2013051621A (ja) 2013-03-14
US20150043821A1 (en) 2015-02-12
US8873854B2 (en) 2014-10-28

Similar Documents

Publication Publication Date Title
KR101967717B1 (ko) 멀티 레이어 디스플레이 장치
RU2433477C1 (ru) Расширение динамического диапазона изображений
JP6711564B2 (ja) 表示装置及びその制御方法、並びにプログラム
WO2014203366A1 (ja) 画像処理装置、方法、及びプログラム、並びに画像表示装置
CN104063198A (zh) 一种多屏同步字幕叠加的方法和设备
KR101295649B1 (ko) 화상처리장치, 화상처리방법, 및 기억매체
JP2008536165A (ja) 縞模様を減らすための色変換ユニット
JP2006191607A (ja) デジタル撮影装置の色補間法
JP2018511088A (ja) Ledディスプレイに用いられる画像処理方法及び装置
US20170155895A1 (en) Generation of drive values for a display
JP5771096B2 (ja) 画像処理方法
EP3054673B1 (en) Display method and display device
CN105933692A (zh) 用于准备三维图像的方法
KR20180006545A (ko) 표시 장치
US20170127037A1 (en) Method for the representation of a three-dimensional scene on an auto-stereoscopic monitor
JP2014119997A (ja) 画像処理装置およびその制御方法
EP3336830A1 (en) Display unit, display panel, method for driving same, and display device
JP2008292666A (ja) 視方向画像データ生成装置、指向性表示用画像データ生成装置、指向性表示ディスプレイ、および、指向性表示システム、並びに、視方向画像データ生成方法、指向性表示用画像データ生成方法
JP2007086577A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
KR102640015B1 (ko) 표시 장치 및 그 구동 방법
JP2007324665A (ja) 画像補正装置及び映像表示装置
WO2016157920A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011221455A (ja) 画像処理装置、画像投影システム及び画像処理方法
US20160191914A1 (en) Apparatus and method for controlling display apparatus
US11288990B1 (en) Display apparatus and method incorporating per-pixel shifting

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150626

R150 Certificate of patent or registration of utility model

Ref document number: 5771096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees