JP6002469B2 - 画像処理方法、画像処理システム - Google Patents

画像処理方法、画像処理システム Download PDF

Info

Publication number
JP6002469B2
JP6002469B2 JP2012143974A JP2012143974A JP6002469B2 JP 6002469 B2 JP6002469 B2 JP 6002469B2 JP 2012143974 A JP2012143974 A JP 2012143974A JP 2012143974 A JP2012143974 A JP 2012143974A JP 6002469 B2 JP6002469 B2 JP 6002469B2
Authority
JP
Japan
Prior art keywords
image
pixel
color
value
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012143974A
Other languages
English (en)
Other versions
JP2013033463A (ja
Inventor
輝 田村
輝 田村
俊樹 濱田
俊樹 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Semiconductor Energy Laboratory Co Ltd
Original Assignee
Semiconductor Energy Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Semiconductor Energy Laboratory Co Ltd filed Critical Semiconductor Energy Laboratory Co Ltd
Priority to JP2012143974A priority Critical patent/JP6002469B2/ja
Publication of JP2013033463A publication Critical patent/JP2013033463A/ja
Application granted granted Critical
Publication of JP6002469B2 publication Critical patent/JP6002469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像処理方法及び画像処理システムに関する。
テレビ受像機などの大型表示装置から携帯電話などの小型表示装置に至るまで様々な表示装置が市場に普及している。付加価値がより高い製品が求められており、開発が進められている。近年では、より臨場感のある画像を再現するため、立体表示が可能な表示装置の開発が進められている。
人間が物体を立体として認識する生理的要因としては、両眼視差、輻輳、ピント調節、運動視差、像の大きさ、空間配置、明暗の差、陰影等が挙げられる。
表示装置では、立体表示方法として、両眼視差を利用した方式が多く用いられている。両眼視差を利用した方式としては、例えば、左目に視認される画像と右目に視認される画像を分離するための専用の眼鏡を用いる方式が挙げられる。また、専用の眼鏡を用いない方式としては、左目に視認される画像と右目に視認される画像を分離するための構成(視差バリア、レンチキュラーレンズ、マイクロレンズアレイなど)を表示部に追加し、裸眼での立体表示を可能にする方式がある(特許文献1等)。
特開2005−258013号公報
上記に挙げた表示方式では、表示部への構成(視差バリアなど)の追加、又は専用の眼鏡が必要であるため、表示装置の作製コストや消費電力の増加に繋がる。
そこで、本発明の一態様では、フルカラーの2次元画像の立体感又は奥行き感を高める簡便な画像処理方法を提供することを目的の一とする。または、特別な構成を持たずに、フルカラーの2次元画像の立体感又は奥行き感を高める画像処理システムを提供することを目的の一とする。
人間は、画像に含まれる対象物と背景との色相の差が小さいときに、その画像を平面的に感じる。また、逆に人間は、画像に含まれる対象物と背景との色相の差が大きいときに、その画像に立体感又は奥行き感を得る。
なお、本明細書では、画像において、強調したい像又は鮮明にしたい像を「対象物」と呼び、該画像に含まれる対象物以外の像を「背景」と呼ぶ。
そこで、立体感又は奥行き感を得にくい画像を、立体感又は奥行き感を得やすい画像に変換する方法として、色相環上において対象物の平均色と反対側の位置(十分に離れた位置)にある色(反転色、反対色、又は補色)を用いて背景を表示する方法に思い至った。なお、本明細書中において、対象物の平均色(対象物領域の平均色とも記す)とは、対象物領域を構成する全ての画素の平均の色である。
なお、本明細書では、対象画像において、対象物を構成する複数の画素(画素群)を「対象物領域」、背景を構成する複数の画素(画素群)を「背景領域」と呼ぶ。
すなわち、本発明の一態様は、対象画像を構成する全ての画素を対象物領域と背景領域とに区分する第1のステップと、該対象物領域の平均色を求め、該平均色から反転色を求める第2のステップと、該背景領域を構成する全ての画素に、該反転色を一定の割合でそれぞれ付与する第3のステップと、を有する画像処理方法である。
また、本発明の一態様は、RGBカラーモデルを用いて表すと、(N+1)階調で表される対象画像を構成する全ての画素を対象物領域と背景領域とに区分する第1のステップと、該対象物領域に含まれる画素の色全てから、平均色(R,G,B)を算出し、該平均色(R,G,B)から、(N−R,N−G,N−B)で表される反転色(R,G,B)を算出する第2のステップと、該背景領域に含まれる画素(x,y)の色(Rxy,Gxy,Bxy)に該反転色(R,G,B)を一定の割合でそれぞれ付与し、処理画像における背景領域の画素(x,y)の色(R’xy,G’xy,B’xy)を算出する、数式(1)で表される第3のステップと、を有する画像処理方法である。
なお、本明細書では、対象画像に本発明の一態様の画像処理を施すことで得た画像を処理画像と記載する。
上記画像処理方法において、数式(1)におけるkが0.2以上0.8以下であると、該画像処理の効果が高いため、好ましい。
上記画像処理方法において、該第3のステップの後に、第4のステップとして、ガンマ補正処理、コントラスト強調処理、鮮鋭化処理、又は輪郭強調処理を行うことが好ましい。
第4のステップを行うことで、処理画像における対象物を、さらに鮮明にする、又は強調することができる。
また、本発明の一態様は、上記画像処理方法を用いて処理画像を作成する処理部を備える画像処理システムである。また、該画像処理システムは、該処理画像を表示する表示部を備える構成としても良い。また、該画像処理システムは、該処理画像を保存する記憶部を備える構成としても良い。
本発明の一態様では、フルカラーの2次元画像の立体感又は奥行き感を高める簡便な画像処理方法を提供することができる。または、特別な構成を持たずに、フルカラーの2次元画像の立体感又は奥行き感を高める画像処理システムを提供することができる。
本発明の一態様の画像処理システムを示す図。 本発明の一態様の画像処理方法を示す図。 本発明の一態様の画像処理方法を示す図。 本発明の一態様の画像処理方法に係る画像の図。 本発明の一態様の画像処理方法を示す図。 本発明の一態様の画像処理方法を示す図。 実施例1に係る図。 実施例1に係る図。
実施の形態及び実施例について、図面を用いて詳細に説明する。但し、本発明は以下の説明に限定されず、本発明の趣旨及びその範囲から逸脱することなくその形態及び詳細を様々に変更し得ることは当業者であれば容易に理解される。従って、本発明は以下に示す実施の形態及び実施例の記載内容に限定して解釈されるものではない。なお、以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、その繰り返しの説明は省略する。
(実施の形態1)
本実施の形態では、本発明の一態様の画像処理方法及び画像処理システムについて図1乃至図4、図6(A)を用いて説明する。
本発明の一態様の画像処理システムは、本発明の一態様の画像処理方法を利用して、処理画像を作成することができる処理部を備える。本発明の一態様の画像処理システムとしては、例えば、該処理部と、該処理部から出力された画像データを表示する表示部とを有する表示装置や、該処理部と、該処理部から出力された画像データを記憶する記憶部とを有する記憶装置などが挙げられる。本実施の形態では、本発明の一態様の画像処理システムとして、図1に示す表示装置100を例に挙げ、説明する。
≪表示装置100≫
図1に示す表示装置100は、表示部101及び処理部102を有する。
<表示部101>
表示部101は、処理部102から出力された画像データを表示する機能を備える。表示部101は、2次元画像を表示する。表示部101は、静止画像、又は複数の画像で構成される動画像を表示する。
表示部101としては、例えば、液晶表示装置、エレクトロルミネセンス表示装置、プラズマディスプレイなどを用いることができる。表示部101は、複数の画素120を有する画素部121、走査線駆動回路122、信号線駆動回路123などから構成される。
画素部121には、マトリクス状に画素120が配置されている。各画素120は、走査線125及び信号線126と電気的に接続している。このことにより、各画素120は、走査線駆動回路122及び信号線駆動回路123と電気的に接続している。
処理部102から入力される画像データにより、各画素120の色が決定される。表示を行う画素120を選択するための信号が、走査線駆動回路122により走査線125に入力され、画像データが、信号線駆動回路123により信号線126に入力される。選択された画素120は表示を行う。
<処理部102>
処理部102は、読み込んだ対象画像から対象物を抽出して、対象物を構成する画素群でなる対象物領域と、それ以外の画素群でなる背景領域とに区分する機能を備える。また、背景領域に含まれる画素に画像処理を行い、処理画像を作成する機能を備える。
処理部102は、演算処理部111、データ記憶部112、制御部113、入力側インターフェイス部114、出力側インターフェイス部115などから構成される。
演算処理部111では、画像データの演算処理等の各種演算処理を行う。例えば、CPU(Central Processing Unit)、画像処理用演算回路等を含む。
データ記憶部112は、処理部102で画像処理を行うためのデータを記憶する各種の記憶回路を有する。例えば、演算処理部111が演算処理を実行するコンピュータプログラム、画像処理用フィルタのデータ及びルックアップテーブルなどを記憶するROM(Read Only Memory)、演算処理部111が算出した演算結果を記憶するRAM(Random Access Memory)、処理部102に入力された画像データを記憶するメモリ回路等が、データ記憶部112に含まれる。
制御部113は、処理部102の回路を制御するための回路を含む。例えば、データ記憶部112のデータの書き込みを制御する書き込み制御回路、該データの読み出しを制御する読み出し制御回路等が、制御部113に含まれる。
入力側インターフェイス部114では、処理部102に接続される外部機器から画像データ等のデータ10を処理部102に取り込むために、該外部機器と信号のやりとりを行う。該外部機器は、画像データを出力する機器であればよく、例えば、カメラなどの撮影装置、ハードディスクやDVDなどの記憶媒体に記録されている画像データを再生する画像再生装置等が挙げられる。
処理部102で画像データを処理するためには、該画像データがデジタルデータであることが必要である。例えば、処理部102において、アナログデータである画像データを処理したい場合は、入力側インターフェイス部114にA/D変換回路(アナログ−デジタル変換回路)を設ければ良い。
出力側インターフェイス部115では、表示部101へ画像データ11を出力するために、表示部101と信号のやりとりを行う。
例えば、表示部101にアナログ画像信号を出力するためには、出力側インターフェイス部115にD/A変換回路(デジタル−アナログ変換回路)を設ければ良い。
≪画像処理方法≫
本発明の一態様の画像処理方法について説明する。図2、3、図6(A)に、図1に示した処理部102で実行される画像処理方法のフローチャートを示す。
本実施の形態の画像処理方法では、対象画像を構成する全ての画素を対象物領域と背景領域とに区分する第1のステップ(図2(A)に示すステップA1)と、該対象物領域の平均色を求め、該平均色から反転色を求める第2のステップ(図2(A)に示すステップA2)と、該背景領域を構成する全ての画素に、該反転色を一定の割合でそれぞれ付与する第3のステップ(図2(A)に示すステップA3)と、を有する。
本発明の一態様の画像処理を施した処理画像は、色相環上における対象物の色と背景の色とが、対象画像に比べて離れた位置にあるため、視認者が該処理画像を見たときに、対象物と背景とに奥行き感(前後感)を得ることができる。つまり、該処理画像は、対象画像に比べて立体感又は奥行き感が高い。
<第1のステップA1:対象物領域と背景領域とに区分>
まず、対象画像の画素を対象物領域と背景領域とに区分する。対象画像の画素を対象物領域と背景領域とに区分する方法は特に限定されない。
本発明の一態様では、対象物と背景とからなる、フルカラーの2次元画像である対象画像と、該背景の一部を含む画像(比較画像と記す)の差分をとり、その差分が閾値以上(または閾値より大きい)である領域を対象物領域、閾値未満(または閾値以下)である領域を背景領域に区分する。該閾値は、対象物領域と背景領域とが区分できる値であれば良い。画像処理を行う者が、対象物領域と背景領域とを区分するのに適していると判断した値を閾値として用いれば良い。
具体的には、対象画像は、写真などの静止画像でも良いし、動画像を構成する複数のフレーム画像から選択しても良い。
また、比較画像には、対象画像と同一又は概略同一の焦点条件で撮影し、かつ対象画像とは異なる画像を用いることができる。比較画像を複数用いる場合には、対象画像に含まれる対象物が比較画像に含まれていても良い。したがって、比較画像は、写真などの静止画像の他、動画像を構成する複数のフレーム画像の一を対象画像とする場合は、その前後の画像から選択しても良い。
次に、対象画像と比較画像の差分の算出方法について具体的に説明する。
本実施の形態の第1のステップA1の詳細(ステップB1乃至ステップB6)を図3に示す。
[ステップB1:対象画像及び比較画像の読み込み]
ステップB1では、処理部102に対象画像及び比較画像を読み込む。読み込んだ対象画像及び比較画像のデータは、データ記憶部112に書き込まれる。対象画像及び比較画像はそれぞれ、外部機器から処理部102に入力することができる。また、データ記憶部112にあらかじめ記憶されている画像を比較画像として用いても良い。
本実施の形態では、対象画像及び比較画像にそれぞれ静止画像を用いる場合について説明する。本実施の形態における対象画像(図4(A))は、対象物と背景とからなる画像であり、比較画像(図4(B))は、該背景のみからなる画像(対象画像と同じ焦点条件で撮影した背景のみの画像、つまり対象物が含まれていない画像)である。
なお、対象画像及び比較画像を、動画像を構成する複数のフレーム画像から選択する例は、実施の形態2にて詳述する。
[ステップB2:合計値及び処理カウンタ値のリセット]
後のステップにて、対象画像における、対象物領域の全ての画素のRGBそれぞれの階調値の和を合計値Sum(R)、Sum(G)、Sum(B)として求める。また、対象物領域の画素の総数を、処理カウンタ値counterとして求める。ここでは、合計値Sum(R)、Sum(G)、Sum(B)及び処理カウンタ値counterが、0以外の値である場合は、それぞれ0にする。既に0であった場合は、このステップを省略することができる。なお、ステップB1の前に、ステップB2を行っても良い。
[ステップB3:画素(x,y)は、対象物領域の画素であるか?]
ステップB3では、比較画像の画素(x,y)と対象画像の画素(x,y)のそれぞれの色要素について、階調値の差分の絶対値が閾値以上であるか否かを判定する。ステップB3の詳細(ステップB3−1乃至ステップB3−3)を図6(A)に示す。
画素(x,y)のデータは、ある一色を特定するためのデータを含む。表示部101の構成が、R(赤)、G(緑)、B(青)の3色の色要素で1つの色を表現する構成の場合、画像データの最小単位である画素(x,y)のデータは、R、G、Bそれぞれの階調値を有する。なお、色要素は、RGB以外の色を用いてもよい。例えば、イエロー、シアン、マゼンタで構成されてもよい。
本実施の形態では、画素(x,y)のデータは、R、G、Bの3色(3つの色要素)の階調値で構成されているものとする。
なお、対象画像から、対象物領域をより正確に抽出にするため、対象画像又は/及び比較画像に画像処理を行ってから、マスク画像を作成してもよい。このような画像処理には、平均化処理、水平方向の線形1次微分フィルタを用いたフィルタ処理、エッジ検出処理、及びメディアンフィルタ等を用いたノイズ除去処理などがある。
{ステップB3−1:ΔR(x,y)、ΔG(x,y)、ΔB(x,y)の算出}
ステップB3では、まず、3つの差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)が算出される。ここで、差分値ΔR(x,y)は、比較画像の画素(x,y)のRの階調値と対象画像の画素(x,y)のRの階調値の差分の絶対値であり、差分値ΔG(x,y)は、比較画像の画素(x,y)のGの階調値と対象画像の画素(x,y)のGの階調値の差分の絶対値であり、差分値ΔB(x,y)は、比較画像の画素(x,y)のBの階調値と対象画像の画素(x,y)のBの階調値の差分の絶対値である。
{ステップB3−2:α(x,y)、α(x,y)、α(x,y)の決定}
次に、差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)それぞれについて、その値が、閾値(Rth、Gth、Bth)以上であるか否かを判定する。
差分値が閾値以上であれば、階調判定値を1に設定し、差分値が閾値未満であれば、階調判定値を0に設定する。つまり、ΔR(x,y)≧Rthの場合、赤色の階調判定値α(x,y)=1となり、ΔR(x,y)<Rthの場合、赤色の階調判定値α(x,y)=0となる。緑色、青色についても同様であり、差分値ΔG(x,y)、ΔB(x,y)が閾値Gth、Bth以上であるか、未満であるかによって、その階調判定値α(x,y)、α(x,y)が”1”か”0”に決定される。
ここでは、画素(x,y)が対象物領域の画素であるかの判別に、2つの画像(対象画像及び比較画像)間の各色要素の階調値の変化量を用いている。閾値(Rth、Gth、Bth)は、画素(x,y)が対象物領域に含まれるか背景領域に含まれるかを区別するための階調値の変化量の閾値である。閾値Rth、Gth、Bthは、それぞれ独立に定めることができる。
{ステップB3−3:差分判定値D(x,y)の決定}
次に、RGBの階調判定値の和が2以上であるか否かを判定する。α(x,y)+α(x,y)+α(x,y)≧2であれば、画素(x,y)の差分判定値D(x,y)を1に設定し、α(x,y)+α(x,y)+α(x,y)<2であれば、差分判定値D(x,y)を0に設定する。
ここでは、差分判定値D(x,y)の値を決定する条件をRGBの階調判定値の和が2以上としたが、その和が1以上であるという条件でもよいし、その和が3に等しいという条件でもよい。
[ステップB4−1:対象画像の画素(x,y)を対象物領域の画素と判断する場合]
ステップB3にて、差分判定値D(x,y)=1となった場合、該対象画像の画素(x,y)は、対象物領域の画素と判断される。また、マスク画像の画素(x,y)は、白を表示する(ステップB4−1a)。
さらに、ステップB3にて、差分判定値D(x,y)=1となった場合は、対象画像の画素(x,y)のRGBの階調値をそれぞれ合計値Sum(R)、Sum(G)、Sum(B)に加え、かつ、処理カウンタ値counterに1を加える(ステップB4−1b)。ステップB4−1bを行うことで、後のステップB6にて、対象物領域の反転色を算出することができる。
[ステップB4−2:対象画像の画素(x,y)を背景領域の画素と判断する場合]
ステップB3にて、差分判定値D(x,y)=0となった場合、該対象画像の画素(x,y)は、背景領域の画素と判断される。また、マスク画像の画素(x,y)は、黒を表示する。
[ステップB5:全ての画素の階調値の差分を判定したか?]
対象画像の画素全てについて、比較画像の画素との各色要素の階調値の差分の絶対値を算出し、該差分の絶対値が閾値以上か否かの判定を行うまで、ステップB3乃至B5が繰り返し実行される。
[ステップB6:マスク画像の作成]
全画素について、マスク画像の色(黒又は白)を決定することで、図4(C)に示すマスク画像が作成される。図4(C)に示すマスク画像は、対象物領域(白表示領域)と背景領域(黒表示領域)とでなる2値の画像である。図4(C)に示すマスク画像を作成することで、対象画像が対象物領域と背景領域とに区分される。なお、ステップB6の前に、後述するステップA2を行っても良い。
以上のステップB1乃至ステップB6により、第1のステップA1が完了する。
<第2のステップA2:対象物領域の平均色及び反転色の算出>
次に、対象物領域の平均色及び反転色の算出を行う。
第2のステップA2では、第1のステップA1で対象物領域に区分された全ての画素の色の平均を求めることで、対象物領域の平均色を算出し、該平均色から反転色を算出する。
(平均色)
ステップB4−1bの処理によって、対象画像における、対象物領域の全ての画素のRGBそれぞれの階調値の和が合計値Sum(R)、Sum(G)、Sum(B)として求められる。また、対象物領域の画素の総数が、処理カウンタ値counterとして求められる。ステップA2では、合計値Sum(R)、Sum(G)、Sum(B)をそれぞれ処理カウンタ値counterで割ることで、対象画像の対象物領域を構成する全ての画素の平均の色である対象物領域の平均色を算出する。ここでは、対象物領域の画素の、(N+1)階調におけるR、G、Bの階調値の平均値を、それぞれR、G、Bと表し、平均色を(R,G,B)と表す。
なお、平均色は、対象画像の対象物領域の全ての画素におけるRGBそれぞれの階調値の中央値であっても良い。該中央値の算出方法を以下に示す。
まず、ステップB4−1bで、対象物領域の全ての画素のRGBの階調値をそれぞれ記録し、対象物領域の画素の総数を処理カウンタ値counterとして求める。そして、ステップA2で、処理カウンタ値counterの1/2の値Mを求める。また、RGBの階調値を昇順又は降順に並び替え、第M番目の値をそれぞれR,G,Bとする。なお、処理カウンタ値counterが奇数のときは、第(M+0.5)番目の値又は第(M−0.5)番目の値を、対象物領域の平均色とすることができる。または、第(M+0.5)番目の値及び第(M−0.5)番目の値の平均値を、対象物領域の平均色とすることができる。
(反転色)
さらに、対象物領域の平均色から、対象物領域の平均色の反転色を算出する。平均色(R,G,B)の反転色は、(N−R,N−G,N−B)で表すことができ、これを反転色(R,G,B)とする。
なお、実施例1にて後述するように、(N+1)階調で表される対象画像において、対象物領域を構成する全ての画素の平均の色である対象物の平均色(R,G,B)と、該対象物の平均色の反転色(R,G,B)とが、数式(2)(3)を満たすと、本発明の一態様の画像処理方法によって、立体感又は奥行き感が特に高い処理画像を得ることができる。
<第3のステップA3:背景領域に反転色の付与>
次に、背景領域を構成する全ての画素に対し、第2のステップA2で算出した反転色を一定の割合でそれぞれ付与する。
具体的には、第1のステップA1で得られたマスク画像を用い、背景領域の画素であると判定された画素(x,y)に対して、第2のステップA2で得られた反転色を一定の割合で付与する。なお、対象物領域の画素であると判定された画素(x,y)には、該反転色は付与しない。
第3のステップA3の詳細(ステップB7乃至ステップB10)を図2(B)に示す。
[ステップB7:マスク画像の画素(x,y)は黒表示か?]
ステップB7では、マスク画像の画素(x,y)が黒表示であるか白表示であるかを判定する。黒表示である場合は、ステップB8−1の処理に進み、白表示である場合は、ステップB8−2の処理に進む。
[ステップB8−1:マスク画像の画素(x,y)が黒表示である場合]
マスク画像の画素(x,y)が黒表示である場合(画素(x,y)が背景領域の画素である場合)、処理画像の画素(x,y)の色は、対象画像の画素(x,y)の色と、反転色とから決定される。具体的に、処理画像の背景領域の画素(x,y)の色(R’xy,G’xy,B’xy)は、対象画像の画素(x,y)の色(Rxy,Gxy,Bxy)及び反転色(R,G,B)を用いて、数式(1)で表すことができる。
特に、数式(1)におけるkが0.2以上0.8以下であると、画像処理の効果が高いため好ましい。
[ステップB8−2:マスク画像の画素(x,y)が白表示である場合]
マスク画像の画素(x,y)が白表示である場合(画素(x,y)が対象物領域の画素である場合)、処理画像の画素(x,y)の色は、対象画像の画素(x,y)の色とする。
[ステップB9:全画素の色が決定したか?]
処理画像の画素全ての色が決定するまで、ステップB7乃至B9が繰り返し実行される。
[ステップB10:処理画像の出力]
全画素について、処理画像の色を決定することで、図4(D)に示す処理画像が作成される。以上に示したように、本発明の一態様の画像処理を対象画像に施すことで、処理画像を得ることができる。
本発明の一態様の画像処理方法で得られた処理画像に対して、さらに画像処理を行っても良い。具体的には、図2(B)におけるステップB10の後に該画像処理を行っても良い。
このような画像処理としては、アンシャープマスキング処理等の鮮鋭化処理、コントラストを強調するコントラスト変換処理(コントラスト強調処理)、ガンマ補正処理、輪郭強調処理などが挙げられる。これら画像処理は、対象物を鮮明にする、強調する等の効果を持つ。
例えば、ガンマ補正処理は、画像を出力する機器のガンマ値(画像の階調の応答特性を示す数値)に応じて、画像の階調を補正する処理である。これにより、表示部では、処理部から出力される処理画像の情報に忠実な画像を表示することができる。
また、コントラスト強調処理は、色の明暗の差異を変化させる処理である。処理前の画素の階調値に対する処理後の画素の階調値のグラフの傾きを変化させることで、色の明暗の差異を変化させることができる。コントラストを強調するためには、該グラフの傾きを1より大きくすれば良い。例えば、処理前の画素の階調値xが0〜50である場合、処理後の画素の階調値yが0〜100(y=2x、グラフの傾き2)である処理1や、処理後の画素の階調値yが0〜150(y=3x、グラフの傾き3)である処理2を施すことで、色の明暗の差を大きくさせることができる。特に、グラフの傾きが大きいほど、明暗の差は大きくなる(処理1より処理2の方が色の明暗の差はより大きくなる)。
以上に示した、本発明の一態様の画像処理方法を用いて取得した処理画像では、対象画像に比べて、色相環上における対象物の色が、背景の色と離れた位置にあるため、視認者が該処理画像を見たときに、対象物と背景とに奥行き感(前後感)を得ることができる。よって、本発明の一態様では、対象画像から、該対象画像に比べて立体感又は奥行き感が高い処理画像を取得することができる。
(実施の形態2)
本実施の形態では、実施の形態1と異なり、動画像を構成する複数のフレーム画像から対象画像及び比較画像を選択し、対象画像を構成する全ての画素を対象物領域と背景領域とに区分する第1のステップと、該対象物領域の平均色を求め、該平均色から反転色を求める第2のステップと、該背景領域を構成する全ての画素に、該反転色を一定の割合でそれぞれ付与する第3のステップと、を有する画像処理方法について、図5及び図6(B)を用いて説明する。
動画像を構成する複数のフレーム画像では、連続する2枚のフレーム画像において、画像に変化がある部分がある。本実施の形態では、フレーム画像において、動きの変化がある閾値以上である(又はある閾値よりも大きい)像を「対象物」、その他の部分を「背景」とする。
対象画像が、動画像を構成する複数のフレーム画像の一つである場合、例えば、該対象画像と連続するフレーム画像を比較画像とすることができる。具体的には、対象画像fと時間的に連続するフレーム画像fa−1やフレーム画像fa+1を比較画像とすることができる。また、比較画像は、該対象画像と連続するフレーム画像に限定されない。よって、対象画像fの比較画像として、フレーム画像fa−jやフレーム画像fa+j(jは自然数)を用いても良い。
本実施の形態では、対象画像及び比較画像として動画像を構成する複数のフレーム画像から選択して用いることで、実施の形態1と処理が異なるステップについて、詳述する。具体的には、図2(A)に示す第1のステップA1について説明する。
本実施の形態の第1のステップA1の詳細(ステップC1乃至C6)を図5に示す。なお、第2のステップA2及び第3のステップA3は実施の形態1を参照することができる。
[ステップC1:対象画像及び比較画像の読み込み]
ステップC1では、処理部102に対象画像及び比較画像を読み込む。読み込んだ対象画像及び比較画像のデータは、データ記憶部112に書き込まれる。本実施の形態では、3枚のフレーム画像fa−1、f、fa+1を読み込む(比較画像fa−1及び比較画像fa+1並びに対象画像fを読み込む)。
[ステップC2:合計値及び処理カウンタ値のリセット]
ここで、合計値Sum(R)、Sum(G)、Sum(B)及び処理カウンタ値counterが、0以外の値である場合は、それぞれ0にする。既に0であった場合は、このステップを省略することができる。なお、ステップC1の前に、ステップC2を行っても良い。
[ステップC3:画素(x,y)は、対象物領域の画素であるか?]
ステップC3では、比較画像fa−1の画素(x,y)と対象画像fの画素(x,y)のそれぞれの色要素について、階調値の差分の絶対値が閾値以上であるか否かを判定する。かつ、比較画像fa+1の画素(x,y)と対象画像fの画素(x,y)のRGBそれぞれの階調値の差分の絶対値が閾値以上であるか否かを判定する。ステップC3の詳細を図6(B)に示す。
本実施の形態では、画素(x,y)のデータは、R、G、Bの3色の階調値で構成されているものとする。
{ステップC3−1a:ΔR(x,y)、ΔG(x,y)、ΔB(x,y)の算出}
比較画像fa−1と対象画像fから、3つの差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)が算出される。ここで、差分値ΔR(x,y)は、比較画像fa−1の画素(x,y)のRの階調値と対象画像fの画素(x,y)のRの階調値の差分の絶対値であり、差分値ΔG(x,y)は、比較画像fa−1の画素(x,y)のGの階調値と対象画像fの画素(x,y)のGの階調値の差分の絶対値であり、差分値ΔB(x,y)は、比較画像fa−1の画素(x,y)のBの階調値と対象画像fの画素(x,y)のBの階調値の差分の絶対値である。
{ステップC3−2a:αR1(x,y)、αG1(x,y)、αB1(x,y)の決定}
次に、差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)それぞれについて、その値が、閾値(Rth、Gth、Bth)以上であるか否かを判定する。
差分値が閾値以上であれば、階調判定値を1に設定し、差分値が閾値未満であれば、階調判定値を0に設定する。つまり、ΔR(x,y)≧Rthの場合、赤色の階調判定値αR1(x,y)=1となり、ΔR(x,y)<Rthの場合、赤色の階調判定値αR1(x,y)=0となる。緑色、青色についても同様であり、差分値ΔG(x,y)、ΔB(x,y)が閾値Gth、Bth以上であるか、未満であるかによって、その階調判定値αG1(x,y)、αB1(x,y)が”1”か”0”に決定される。
{ステップC3−3a:差分判定値D(x,y)の決定}
次に、RGBの階調判定値の和が2以上であるか否かを判定する。αR1(x,y)+αG1(x,y)+αB1(x,y)≧2であれば、画素(x,y)の差分判定値D(x,y)を1に設定し、αR1(x,y)+αG1(x,y)+αB1(x,y)<2であれば、差分判定値D(x,y)を0に設定する。
また、ここでは、差分判定値D(x,y)の値を決定する条件をRGBの階調判定値の和が2以上としたが、その和が1以上であるという条件でもよいし、その和が3に等しいという条件でもよい。
{ステップC3−1b:ΔR(x,y)、ΔG(x,y)、ΔB(x,y)の算出}
同様に、比較画像fa+1と対象画像fから、3つの差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)が算出される。ここで、差分値ΔR(x,y)は、比較画像fa+1の画素(x,y)のRの階調値と対象画像fの画素(x,y)のRの階調値の差分の絶対値であり、差分値ΔG(x,y)は、比較画像fa+1の画素(x,y)のGの階調値と対象画像fの画素(x,y)のGの階調値の差分の絶対値であり、差分値ΔB(x,y)は、比較画像fa+1の画素(x,y)のBの階調値と対象画像fの画素(x,y)のBの階調値の差分の絶対値である。
{ステップC3−2b:αR2(x,y)、αG2(x,y)、αB2(x,y)の決定}
次に、差分値ΔR(x,y)、ΔG(x,y)、ΔB(x,y)それぞれについて、その値が、閾値(Rth、Gth、Bth)以上であるか否かを判定し、階調判定値αR2(x,y)、階調判定値αG2(x,y)及び階調判定値αB2(x,y)が”1”か”0”に決定される。
{ステップC3−3b:差分判定値D(x,y)の決定}
次に、RGBの階調判定値の和が2以上であるか否かを判定する。αR2(x,y)+αG2(x,y)+αB2(x,y)≧2であれば、画素(x,y)の差分判定値D(x,y)を1に設定し、αR2(x,y)+αG2(x,y)+αB2(x,y)<2であれば、差分判定値D(x,y)を0に設定する。
{ステップC3−4:差分判定値D(x,y)の決定}
そして、差分判定値D(x,y)及びD(x,y)が両方とも”1”であるか否かを判定する。差分判定値D(x,y)及びD(x,y)が両方とも”1”である場合には、ステップC4−1(C4−1a)に進む。差分判定値D(x,y)及びD(x,y)の少なくとも一方が”1”でない場合には、ステップC4−2に進む。
[ステップC4−1:対象画像の画素(x,y)が対象物領域の画素である場合]
ステップC3−4にて、差分判定値D(x,y)及びD(x,y)が両方とも”1”であると判定された場合(差分判定値D(x,y)=1かつD(x,y)=1)、マスク画像の画素(x,y)は、白を表示する(ステップC4−1a)。なお、該対象画像の画素(x,y)は、対象物領域の画素であると言える。
さらに、ステップC3−4にて、差分判定値D(x,y)及びD(x,y)が両方とも”1”であると判定された場合は、対象画像の画素(x,y)のRGBの階調値をそれぞれ合計値Sum(R)、Sum(G)、Sum(B)に加え、かつ、処理カウンタ値counterに1を加える(ステップC4−1b)。ステップC4−1bを行うことで、後のステップC6にて、対象物領域の平均色及び反転色を算出することができる。
[ステップC4−2:対象画像の画素(x,y)が背景領域の画素である場合]
ステップC3−4にて、差分判定値D(x,y)及びD(x,y)の少なくとも一方が”1”でないと判定された場合(差分判定値D(x,y)=0又は/及びD(x,y)=0)、マスク画像の画素(x,y)は、黒を表示する。なお、該対象画像の画素(x,y)は、背景領域の画素であると言える。
[ステップC5:全ての画素の階調値の差分を判定したか?]
対象画像の画素全てについて、比較画像の画素との各色要素の階調値の差分の絶対値を算出し、該差分の絶対値が閾値以上か否かの判定を行うまで、ステップC3乃至C5が繰り返し実行される。
[ステップC6:マスク画像の作成]
全画素について、マスク画像の色(黒又は白)を決定することで、マスク画像が作成される。マスク画像は、対象物領域(白表示領域)と背景領域(黒表示領域)とでなる2値の画像である。マスク画像を作成することで、対象画像が対象物領域と背景領域とに区分される。なお、ステップC6の前に、第2のステップA2を行っても良い。
以上のステップC1乃至ステップC6により、本実施の形態の第1のステップA1が完了する。
その後、実施の形態1にて説明した第2のステップA2以降の処理を行えば良い。
以上、本実施の形態に示すように、本発明の一態様の画像処理方法では、対象画像及び比較画像を、動画像を構成する複数のフレーム画像から選択することができる。
本実施例では、本発明の一態様の画像処理方法を用いて作成した処理画像について図7、8を用いて説明する。
構成例1乃至4の本発明の一態様の画像処理前の画像における対象物領域の平均色(R,G,B)、反転色(R,G,B)及びΔ1−2を表1に示す。
本実施例において、該平均色は対象物領域に含まれる全ての画素の256階調におけるRGBのそれぞれの階調値の平均値である。
なお、Δ1−2は、数式(2)を満たす。
(構成例1)
図7(A−1)に本発明の一態様の画像処理前の画像(対象画像)を示し、図7(A−2)に本発明の一態様の画像処理後の画像(処理画像)を示す。
また、図8(A)に示すマスク画像は、構成例1の対象画像における対象物領域を白で示し、背景領域を黒で示した2値の画像である。
(構成例2)
図7(B−1)に本発明の一態様の画像処理前の画像(対象画像)を示し、図7(B−2)に本発明の一態様の画像処理後の画像(処理画像)を示す。
また、図8(A)に示すマスク画像は、構成例2の対象画像における対象物領域を白で示し、背景領域を黒で示した2値の画像である。
(構成例3)
図7(C−1)に本発明の一態様の画像処理前の画像(対象画像)を示し、図7(C−2)に本発明の一態様の画像処理後の画像(処理画像)を示す。
また、図8(B)に示すマスク画像は、構成例3の対象画像における対象物領域を白で示し、背景領域を黒で示した2値の画像である。
(構成例4)
図7(D−1)に本発明の一態様の画像処理前の画像(対象画像)を示し、図7(D−2)に本発明の一態様の画像処理後の画像(処理画像)を示す。
また、図8(C)に示すマスク画像は、構成例4の対象画像における対象物領域を白で示し、背景領域を黒で示した2値の画像である。
構成例1乃至4における処理画像では、背景領域における画素(x,y)の色(R’xy,G’xy,B’xy)は、対象画像の画素(x,y)の色(Rxy,Gxy,Bxy)及び反転色(R,G,B)を用いて、数式(4)で表すことができる。本実施例では、数式(4)に示すように、数式(1)におけるkの値を0.5とした。対象画像の背景領域における画素の色と反転色の割合が1:1に近いほど、対象画像の背景の情報が失われず、かつ画像処理の効果が高い処理画像を得ることができる。
本実施例から、本発明の一態様の画像処理を対象画像に施すことで、該対象画像に比べて立体感又は奥行き感が高い処理画像を得られることが示された。
特に、構成例1乃至3は、本発明の一態様の画像処理方法の効果が高いことがわかった。構成例1乃至3は、いずれも数式(3)を満たすことを見出した。よって、本発明の一態様の画像処理方法の効果が高い(N+1)階調で表される対象画像は、数式(3)を満たすことが示唆された。例えば、256階調で表される対象画像の場合、Δ1−2が0より大きく、612以下であると、本発明の一態様の画像処理方法の効果が高いと示唆された。
10 データ
11 画像データ
100 表示装置
101 表示部
102 処理部
111 演算処理部
112 データ記憶部
113 制御部
114 入力側インターフェイス部
115 出力側インターフェイス部
120 画素
121 画素部
122 走査線駆動回路
123 信号線駆動回路
125 走査線
126 信号線

Claims (10)

  1. 対象画像に含まれる全ての画素を対象物領域と背景領域とに区分する第1のステップと、
    前記対象物領域に含まれる画素の色全てから、平均色(R ,G ,B )を算出し、前記平均色(R ,G ,B )から、(N−R ,N−G ,N−B )で表される反転色(R ,G ,B )を算出する、数式(1)で表される第2のステップと、
    前記背景領域に含まれる全ての画素に、前記反転色を一定の割合でそれぞれ付与することで処理画像を得る第3のステップと、を有する画像処理方法。
  2. (N+1)階調で表される対象画像に含まれる全ての画素を対象物領域と背景領域とに区分する第1のステップと、
    前記対象物領域に含まれる画素の色全てから、平均色(R,G,B)を算出し、前記平均色(R,G,B)から、(N−R,N−G,N−B)で表される反転色(R,G,B)を算出する、数式(1)で表される第2のステップと、
    前記背景領域に含まれる画素(x,y)の色(Rxy,Gxy,Bxy)に前記反転色(R,G,B)を一定の割合でそれぞれ付与し、処理画像における背景領域の画素(x,y)の色(R’xy,G’xy,B’xy)を算出する、数式()で表される第3のステップと、を有する画像処理方法。

  3. 請求項2において、
    前記数式()におけるkの値が、0.2以上0.8以下である画像処理方法。
  4. 請求項1乃至請求項3のいずれか一項において、
    前記第1のステップが、比較画像の画素と対象画像の画素のそれぞれの色について、階調値の差分の絶対値が閾値以上であるか否かを判定する工程を有する画像処理方法。
  5. 請求項1乃至請求項4のいずれか一項において、
    前記平均色は、前記対象物領域に含まれる画素のそれぞれの色が有する階調値の中央値である画像処理方法。
  6. 請求項1乃至請求項5のいずれか一項において、
    前記第1のステップが、区分された前記対象物領域に含まれる画素を白にし、区分された前記背景領域に含まれる画素を黒にすることでマスク画像を形成する工程を有し、
    前記第3のステップにおいて、前記マスク画像の表示が黒である画素が、前記背景領域に含まれる画素であるとする画像処理方法。
  7. 請求項1乃至請求項6のいずれか一項において、
    前記第3のステップの後に、第4のステップとして、ガンマ補正処理、コントラスト強調処理、鮮鋭化処理、又は輪郭強調処理を行う画像処理方法。
  8. 請求項乃至請求項のいずれか一項の画像処理方法を用いて前記処理画像を作成する処理部を備える画像処理システム。
  9. 前記処理画像を表示する表示部を備える請求項に記載の画像処理システム。
  10. 前記処理画像を保存する記憶部を備える請求項又は請求項に記載の画像処理システム。
JP2012143974A 2011-07-01 2012-06-27 画像処理方法、画像処理システム Active JP6002469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012143974A JP6002469B2 (ja) 2011-07-01 2012-06-27 画像処理方法、画像処理システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011147047 2011-07-01
JP2011147047 2011-07-01
JP2012143974A JP6002469B2 (ja) 2011-07-01 2012-06-27 画像処理方法、画像処理システム

Publications (2)

Publication Number Publication Date
JP2013033463A JP2013033463A (ja) 2013-02-14
JP6002469B2 true JP6002469B2 (ja) 2016-10-05

Family

ID=47390755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012143974A Active JP6002469B2 (ja) 2011-07-01 2012-06-27 画像処理方法、画像処理システム

Country Status (6)

Country Link
US (1) US8849060B2 (ja)
JP (1) JP6002469B2 (ja)
KR (1) KR101932069B1 (ja)
CN (1) CN103650488B (ja)
TW (1) TWI571100B (ja)
WO (1) WO2013005592A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10785530B2 (en) 2015-12-16 2020-09-22 Gracenote, Inc. Dynamic video overlays
CN106028022A (zh) * 2016-05-27 2016-10-12 京东方科技集团股份有限公司 一种立体图像制作方法和设备
JP6780444B2 (ja) * 2016-10-27 2020-11-04 富士ゼロックス株式会社 画像処理装置、表示装置、画像処理方法、画像処理システムおよびプログラム
CN109994037B (zh) * 2017-12-29 2021-12-14 杭州海康威视系统技术有限公司 生成电子地图的方法、装置、终端及存储介质
US11501543B2 (en) * 2018-03-26 2022-11-15 Videonetics Technology Private Limited System and method for automatic real-time localization of license plate of vehicle from plurality of images of the vehicle
TWI712909B (zh) * 2018-04-17 2020-12-11 和碩聯合科技股份有限公司 輔助臉部辨識的防僞方法及系統
CN112150481B (zh) * 2020-09-17 2023-07-18 南京信息工程大学 一种白粉病图像分割方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941829B2 (ja) * 1988-12-23 1999-08-30 キヤノン株式会社 画像処理方法
JP2756326B2 (ja) 1989-12-18 1998-05-25 キヤノン株式会社 画像処理方法及び装置
DE19619090A1 (de) * 1996-04-30 1997-11-13 Cfb Gmbh Vorrichtung und Verfahren zur Erzeugung eines Kompositbildes
JPH1023241A (ja) * 1996-06-28 1998-01-23 Brother Ind Ltd 階調キャラクタ出力装置
JPH10200883A (ja) * 1997-01-14 1998-07-31 Toshiba Corp 被写体の監視表示装置
US6198835B1 (en) * 1998-01-08 2001-03-06 Xerox Corporation Image input device and method for providing scanning artifact detection
GB2336058B (en) * 1998-04-02 2002-03-27 Daewoo Electronics Co Ltd Apparatus and method for adaptively coding an image signal
US6546052B1 (en) * 1998-05-29 2003-04-08 Canon Kabushiki Kaisha Image processing apparatus and method, and computer-readable memory
JP2004118442A (ja) * 2002-09-25 2004-04-15 Nec Corp 画像色補正装置、画像色補正方法ならびに画像色補正用プログラム
JP2004228948A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4189328B2 (ja) * 2004-01-16 2008-12-03 セイコーエプソン株式会社 画像処理装置、画像表示装置、画像処理方法および画像処理プログラム
JP2005258013A (ja) 2004-03-11 2005-09-22 Sharp Corp 表示パネルおよび表示装置
JP2006001952A (ja) 2004-06-15 2006-01-05 Takiron Co Ltd 柄入り樹脂板及びその製造方法
DE102004061507B4 (de) * 2004-12-21 2007-04-12 Siemens Ag Verfahren zur Korrektur von Inhomogenitäten in einem Bild sowie bildgebende Vorrichtung dazu
JP4205053B2 (ja) 2004-12-27 2009-01-07 シャープ株式会社 画像処理装置
JP4506616B2 (ja) * 2005-08-25 2010-07-21 セイコーエプソン株式会社 画像表示装置、画像処理方法およびプログラム
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
TWI323434B (en) * 2006-11-30 2010-04-11 Ind Tech Res Inst Method of object segmentation for video
US8014581B2 (en) * 2007-02-06 2011-09-06 Siemens Medical Solutions Usa, Inc. 3D segmentation of the colon in MR colonography
WO2009022593A1 (ja) * 2007-08-15 2009-02-19 Rivac Co., Ltd. 画像処理装置、画像処理方法、及び画像処理プログラム、並びに撮像装置
WO2009066590A1 (en) 2007-11-20 2009-05-28 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and image display method of the same
KR101552475B1 (ko) 2007-11-22 2015-09-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 화상 처리 방법, 화상 표시 시스템, 및 컴퓨터 프로그램
TWI524755B (zh) * 2008-03-05 2016-03-01 半導體能源研究所股份有限公司 影像處理方法、影像處理系統及電腦程式
JP5180916B2 (ja) 2008-06-25 2013-04-10 株式会社半導体エネルギー研究所 画像処理システム、及び画像処理方法
JP2010152521A (ja) 2008-12-24 2010-07-08 Toshiba Corp 画像立体化処理装置及び方法
KR101547556B1 (ko) * 2009-02-06 2015-08-26 삼성전자주식회사 이미지 표시 방법 및 장치
JP2012215852A (ja) 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置

Also Published As

Publication number Publication date
KR20140051223A (ko) 2014-04-30
JP2013033463A (ja) 2013-02-14
US8849060B2 (en) 2014-09-30
CN103650488B (zh) 2016-04-20
CN103650488A (zh) 2014-03-19
KR101932069B1 (ko) 2018-12-24
TW201304512A (zh) 2013-01-16
WO2013005592A1 (en) 2013-01-10
TWI571100B (zh) 2017-02-11
US20130004063A1 (en) 2013-01-03

Similar Documents

Publication Publication Date Title
JP6002469B2 (ja) 画像処理方法、画像処理システム
CN111164647B (zh) 使用单个相机估算深度
TWI455597B (zh) 利用全彩影像之雜訊減低彩色影像
JP6147275B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP4395789B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN111194458A (zh) 用于处理图像的图像信号处理器
JP5918915B2 (ja) カラーフィルタを有するセンサを用いて、改善されたカラー画像を作成するための方法およびデバイス
JP6021541B2 (ja) 画像処理装置及び方法
CN102685511B (zh) 图像处理设备和图像处理方法
CN101873509B (zh) 消除深度图序列背景和边缘抖动的方法
TWI588757B (zh) 邊緣偵測系統及方法
CN110463197A (zh) 增强立体相机成像系统中的空间分辨率
EP4055556B1 (en) Defocus blur removal and depth estimation using dual-pixel image data
JP6128748B2 (ja) 画像処理装置及び方法
Moon et al. 3D visualization at low light levels using multispectral photon counting integral imaging
JP4917959B2 (ja) 知覚的な鏡面・拡散反射画像推定方法とその装置、及びプログラムと記憶媒体
Pan et al. Joint demosaicking and denoising for CFA and MSFA images using a mosaic-adaptive dense residual network
CN107113407A (zh) 图像拾取装置驱动方法和信号处理方法
JP7009219B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
KR100793290B1 (ko) 이미지 센서의 렌즈 셰이딩 보정장치 및 보정방법
TW201514923A (zh) 還原尺寸重調景深圖框爲原始景深圖框的方法、裝置及系統
JP2019045996A (ja) 画像処理装置、画像処理方法及びプログラム
JP7334509B2 (ja) 三次元形状モデル生成システム、三次元形状モデル生成方法及びプログラム
Lee et al. Colourisation in Yxy colour space for purple fringing correction
CN111800621A (zh) 用于处理全息图图像数据的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6002469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250