JP2019121053A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2019121053A
JP2019121053A JP2017254144A JP2017254144A JP2019121053A JP 2019121053 A JP2019121053 A JP 2019121053A JP 2017254144 A JP2017254144 A JP 2017254144A JP 2017254144 A JP2017254144 A JP 2017254144A JP 2019121053 A JP2019121053 A JP 2019121053A
Authority
JP
Japan
Prior art keywords
image
data
unit
contour
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254144A
Other languages
English (en)
Other versions
JP7265316B2 (ja
Inventor
紳太郎 岡田
Shintaro Okada
紳太郎 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2017254144A priority Critical patent/JP7265316B2/ja
Priority to KR1020180153009A priority patent/KR102567490B1/ko
Priority to PCT/KR2018/016778 priority patent/WO2019132548A1/en
Priority to CN201880081966.9A priority patent/CN111492402B/zh
Priority to EP18895085.1A priority patent/EP3665646B1/en
Priority to US16/235,701 priority patent/US11024033B2/en
Publication of JP2019121053A publication Critical patent/JP2019121053A/ja
Application granted granted Critical
Publication of JP7265316B2 publication Critical patent/JP7265316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

【課題】表示される映像の立体感や距離感を損なうことなく、入力された映像データの画像処理をより適切に行うことができる画像処理装置及び画像処理方法を提供する。【解決手段】画像処理装置100は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出手段101と、当該輪郭領域データに対して、平滑化処理を行う平滑化手段102と、を備える。また、画像処理方法は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出ステップと、当該輪郭領域データに対して、平滑化処理を行う平滑化ステップと、を備える。【選択図】図1

Description

本発明は、画像処理装置及び画像処理方法に関する。
最近、2K又は4K等と呼ばれる解像度の高精細映像を表示するための映像表示装置等が開発されており、さらに、8K等と呼ばれる解像度の超高精細映像を表示するための映像表示装置も開発が進んでいる。通常、解像度が2K又は4Kである高精細映像を表示する映像表示装置では、入力される映像データに対して強調処理等を行って映像を表示することが行われている。例えば、特許文献1では、エッジ部に関する映像データと、テクスチャ部に関する映像データとで、異なる強調処理を行うことが記載されている。
国際公開第2015−033695号
しかしながら、2K又は4K等の高精細映像よりも更に高精細な8K等の超高精細映像の映像データに対して、2K又は4K等の高精細映像の映像データに対する強調処理と同様の強調処理を行うと、かえって、表示される映像の立体感や距離感が損なわれてしまう場合があることを、本願発明者は見出した。
本発明は、表示される映像の立体感や距離感を損なうことなく、入力された映像データの画像処理をより適切に行うことができる画像処理装置及び画像処理方法を提供することを目的とするものである。
本発明の第1の態様に係る画像処理装置は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出手段と、前記輪郭領域データに対して、平滑化処理を行う平滑化手段と、を備える。
本発明の第1の態様に係る画像処理装置によれば、入力された映像データ内のエッジ領域に含まれる輪郭領域については平滑化処理が行われる。そのため、超高精細の映像データが入力された場合でも、表示される映像の立体感や距離感を損なわずに済む。具体的には、入力された映像データが超高精細の映像データである場合、輪郭領域についても、他の領域と同じように、従来と同様の画像強調処理を行うと、表示される映像の立体感や距離感が失われてしまい、不自然な映像となってしまう可能性があることを、本願発明者は見出した。本発明の第1の態様に係る画像処理装置では、入力された映像データのエッジ領域から輪郭領域を抽出し、当該輪郭領域については平滑化処理が行われる。そのため、輪郭領域の輝度の階調が増加する。これにより、輪郭領域に立体感及び距離感を付与することができる。よって、本発明の第1の態様に係る画像処理装置は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調手段を備えることが好ましい。
映像データの輪郭領域以外の領域については、画像強調処理が行われるため、輪郭領域以外の領域については、適切に画像を強調することができる。
本発明の第2の態様に係る画像処理装置は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出手段と、前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調手段と、を備える。
本発明の第2の態様に係る画像処理装置によれば、入力された映像データ内のエッジ領域に含まれる輪郭領域以外の領域については画像強調処理が行われる。すなわち、輪郭領域については画像強調処理が行われない。そのため、輪郭領域についても画像強調処理されることによって、表示される映像の立体感や距離感が失われてしまい、不自然な映像となってしまうことを防ぐことができる。よって、本発明の第2の態様に係る画像処理装置は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、前記輪郭領域データの平滑度を検出する平滑度検出手段と、前記輪郭領域データのうち前記平滑度が所定の値以下の輪郭領域データに対して、平滑化処理を行う平滑化手段と、を備えることが好ましい。
入力された映像データの平滑度が低い輪郭領域については、平滑化処理される。そのため、平滑度が低く、立体感及び距離感が消失している輪郭領域の部分については、当該輪郭領域の輝度の階調が増加し、立体感及び距離感を付与することができる。一方、入力された映像データの平滑度が低くない輪郭領域については、平滑化処理されない。そのため、平滑度が十分であり、立体感及び距離感が損なわれていない輪郭領域が不必要にぼやけてしまうことを防ぐことができる。
また、本発明の第1の態様及び第2の態様に係る画像処理装置において、前記画像強調手段は、前記エッジ領域データとエッジ領域以外のデータとで異なる画像強調処理を行うことが更に好ましい。
入力された映像データの輪郭領域以外の領域については、少なくともエッジ領域とエッジ領域以外の領域とで異なる画像強調処理が行われる。そのため、輪郭領域以外の領域について、エッジ領域とエッジ領域以外の領域とのそれぞれに適した画像強調処理を行うことができる。
本発明の第3の態様に係る画像処理方法は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出ステップと、前記輪郭領域データに対して、平滑化処理を行う平滑化ステップと、を備える。
本発明の第3の態様に係る画像処理方法によれば、入力された映像データ内のエッジ領域に含まれる輪郭領域については平滑化処理が行われる。そのため、輪郭領域の輝度の階調が増加する。これにより、輪郭領域に立体感及び距離感を付与することができる。よって、本発明の第3の態様に係る画像処理方法は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調ステップを備えることが好ましい。
映像データの輪郭領域以外の領域については、画像強調処理が行われるため、輪郭領域以外の領域については、適切に画像を強調することができる。
本発明の第4の態様に係る画像処理方法は、入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出ステップと、前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調ステップと、を備える。
本発明の第4の態様に係る画像処理方法によれば、入力された映像データ内のエッジ領域に含まれる輪郭領域以外の領域については画像強調処理が行われる。すなわち、輪郭領域については画像強調処理が行われない。そのため、輪郭領域についても画像強調処理されることによって、表示される映像の立体感や距離感が失われてしまい、不自然な映像となってしまうことを防ぐことができる。よって、本発明の第4の態様に係る画像処理方法は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、前記輪郭領域データの平滑度を検出する平滑度検出ステップと、前記輪郭領域データのうち前記平滑度が所定の値以下の輪郭領域データに対して、平滑化処理を行う平滑化ステップと、を備えることが好ましい。
入力された映像データの平滑度が低い輪郭領域については、平滑化処理される。そのため、平滑度が低く、立体感及び距離感が消失している輪郭領域の部分については、当該輪郭領域の輝度の階調が増加し、立体感及び距離感を付与することができる。一方、入力された映像データの平滑度が低くない輪郭領域については、平滑化処理されない。そのため、平滑度が十分であり、立体感及び距離感が損なわれていない輪郭領域が不必要にぼやけてしまうことを防ぐことができる。
また、本発明の第3の態様及び第4の態様に係る画像処理方法において、前記画像強調ステップでは、前記エッジ領域データとエッジ領域以外のデータとで異なる画像強調処理を行うことが更に好ましい。
入力された映像データの輪郭領域以外の領域については、少なくともエッジ領域とエッジ領域以外の領域とで異なる画像強調処理が行われる。そのため、輪郭領域以外の領域について、エッジ領域とエッジ領域以外の領域とのそれぞれに適した画像強調処理を行うことができる。
本発明により、表示される映像の立体感や距離感を損なうことなく、入力された映像データの強調処理をより適切に行うことができる画像処理装置及び画像処理方法を提供することができる。
実施の形態1に係る画像処理装置の一例を示すブロック図である。 実施の形態1に係る画像処理方法の一例を説明するフローチャートである。 実施例1に係る画像処理装置の一例を示すブロック図である。 実施例1に係る輪郭抽出部の一例を示すブロック図である。 実施例1に係る輪郭抽出部の他の例を示すブロック図である。 実施例1に係る輪郭抽出処理(輪郭抽出ステップ)において用いられるFIRフィルタの一例を示す図である。 実施例1に係る輪郭抽出処理(輪郭抽出ステップ)において用いられるソーベルフィルタの一例を示す図である。 実施例1に係る輪郭抽出処理(輪郭抽出ステップ)の一例を説明するフローチャートである。 実施例1に係る輪郭平滑化部の一例を示すブロック図である。 実施例1に係るテクスチャ・エッジ強調部の一例を示すブロック図である。 入力画像の一例を示す図である。 図11に示す入力画像に含まれるエッジ領域を示す図である。 図12に示すエッジ領域から抽出された輪郭領域を示す図である。 図11に示す入力画像に含まれるテクスチャ領域を示す図である。 従来の画像処理装置によって出力される画像を示す図である。 実施例1に係る画像処理装置によって出力される画像を示す図である。 実施の形態2に係る画像処理装置の一例を示すブロック図である。 実施の形態2に係る画像処理方法の一例を説明するフローチャートである。 実施例2に係る画像処理装置の一例を示すブロック図である。 実施例2に係る平滑度検出部の一例を示すブロック図である。 実施例2に係る平滑度検出部の他の例を示すブロック図である。 実施例2に係る平滑度検出部の他の例を示すブロック図である。 実施例2に係る平滑度検出処理(平滑度検出ステップ)の一例を説明するフローチャートである。 実施例2に係る平滑度検出処理(平滑度検出ステップ)の他の例を説明するフローチャートである。 実施例2に係る平滑度検出処理の一例を説明する図である。 実施例2に係る平滑度検出処理の一例を説明する図である。 実施例2に係る平滑度検出処理の一例を説明する図である。
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施の形態1に係る画像処理装置100の一例を示すブロック図である。図1に示すように、実施の形態1に係る画像処理装置100は、輪郭抽出手段101、平滑化手段102、画像強調手段103、画像合成手段104等を備える。また、輪郭抽出手段101、平滑化手段102、画像強調手段103、画像合成手段104は、それぞれ、例えば、当該映像データをフレーム毎、又は、所定の画素(注目画素)と、当該所定の画素を中心とする周辺画素からなる縦x画素×横x画素の領域(xは正の整数。)毎に、処理を行う。
また、画像処理装置100は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、輪郭抽出手段101、平滑化手段102、画像強調手段103、画像合成手段104の全ての処理が実現する。
輪郭抽出手段101は、画像処理装置100に入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する。また、輪郭抽出手段101は、映像データから抽出した輪郭領域に含まれる画素の座標を含む輪郭信号を平滑化手段102及び画像強調手段103に出力する。ここで、エッジ領域データとは、映像データ中のエッジ領域に含まれる画素に関するデータであって、輝度等の画素値、当該画素の座標等を含む。同様に、輪郭領域データとは、映像データ中の輪郭領域に含まれる画素に関するデータであって、輝度等の画素値、当該画素の座標等を含む。また、画像処理装置100に入力された映像データには、テクスチャ領域データ、フラット領域データ等が含まれる。そして、テクスチャ領域データ、フラット領域データ等は、それぞれ、映像データ中のテクスチャ領域、フラット領域等に含まれる画素に関するデータであって、輝度等の画素値、当該画素の座標等を含む。
平滑化手段102は、輪郭領域データに対して、平滑化処理を行う。また、平滑化手段102は、平滑化処理を行うことによって得られた平滑化画像データを画像合成手段104に出力する。
画像強調手段103は、映像データに含まれる輪郭領域データ以外の領域データに対して画像強調処理を行う。また、画像強調手段103は、画像強調処理を行うことによって得られた強調画像データを画像合成手段104に出力する。
画像合成手段104は、平滑化手段102から入力された平滑化画像データと、画像強調手段103から入力された強調画像データとを画像合成を行って、出力画像を生成する。そして、画像合成手段104は、画像合成された映像データを、出力画像データとして表示装置(図示省略)に出力する。
なお、平滑化手段102から平滑化画像データが画像強調手段103に入力されて、画像強調手段103において平滑化画像データと強調画像データとが画像合成されてもよい。同様に、画像強調手段103から強調画像データが平滑化手段102に入力されて、平滑化手段102において平滑化画像データと強調画像データとが画像合成されてもよい。この場合には、画像処理装置100は、画像合成手段104を備えなくてもよい。
次に、図2を参照しながら、本発明の実施の形態1に係る画像処理方法を説明する。
まず、輪郭抽出手段101は、画像処理装置100に入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出し、当該輪郭領域に含まれる画素の座標を含む輪郭信号を平滑化手段102及び画像強調手段103に出力する(ステップS101;輪郭抽出ステップ)。
次に、平滑化手段102は、輪郭領域データに対して、平滑化処理を行って、平滑化画像データを画像合成手段104に出力する(ステップS102;平滑化ステップ)。
次に、画像強調手段103は、映像データに含まれる輪郭領域データ以外の領域データに対して画像強調処理を行って、強調画像データを画像合成手段104に出力する(ステップS103;画像強調ステップ)。
次に、画像合成手段104は、平滑化画像データと強調画像データとを画像合成して出力画像データを生成し、当該出力画像データを表示装置(図示省略)に出力し(ステップS104)、本画像処理を終了する。
なお、ステップS102とステップS103の順番は逆でもよく、ステップS102の処理とステップS103の処理とが同時に行われてもよい。
以上に説明した、本実施の形態1に係る画像処理装置100及び画像処理方法では、入力された映像データ内のエッジ領域に含まれる輪郭領域については平滑化処理が行われる。そのため、超高精細の映像データが入力された場合でも、表示される映像の立体感や距離感を損なわずに済む。具体的には、入力された映像データが超高精細の映像データである場合、輪郭領域についても、他の領域と同じように、従来と同様の画像強調処理を行うと、表示される映像の立体感や距離感が失われてしまい、不自然な映像となってしまう可能性があることを、本願発明者は見出した。本発明の実施の形態1に係る画像処理装置100では、入力された映像データのエッジ領域から輪郭領域を抽出し、当該輪郭領域については平滑化処理が行われる。そのため、輪郭領域の輝度の階調が増加する。これにより、輪郭領域に立体感及び距離感を付与することができる。よって、本実施の形態1に係る画像処理装置100は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、映像データの輪郭領域以外の領域については、画像強調処理が行われるため、輪郭領域以外の領域については、適切に画像を強調することができる。
さらに、入力された映像データの輪郭領域以外の領域については、少なくともエッジ領域とエッジ領域以外の領域とで異なる画像強調処理が行われる。そのため、輪郭領域以外の領域について、エッジ領域とエッジ領域以外の領域とのそれぞれに適した画像強調処理を行うことができる。
実施例1
次に、本実施の形態1の実施例1について説明する。図3は、本発明の実施例1に係る画像処理装置100Aの一例を示すブロック図である。図3に示すように、実施例1に係る画像処理装置100Aは、ラインメモリ格納部1、輪郭抽出手段101としての輪郭抽出部2、平滑化手段102としての輪郭平滑化部3、画像強調手段103としての画像強調部4、画像合成手段104としての出力画素切替部5、制御部8等を備える。
制御部8は、図示しないCPU及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部8における全ての処理が実現する。
また、制御部8のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部8のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部8における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
具体的には、制御部8は、画像処理装置100Aの各部の動作を制御する。より具体的には、CPUが記憶部に格納されたプログラムを実行することにより、ラインメモリ格納部1、輪郭抽出部2、輪郭平滑化部3、画像強調部4、出力画素切替部5等の画像処理装置100Aの各部の動作が実現する。
ラインメモリ格納部1は、SRAM(Static Random Access Memory)等によって構成された複数のラインメモリL1,L2,L3,・・・,Lnを備える。そして、ラインメモリ格納部1は、画像処理装置100Aに入力された映像データを、順次、複数のラインメモリL1,L2,L3,・・・,Lnに記憶する。具体的には、画像処理装置100Aに入力された映像データがフルHD(すなわち、映像データの解像度が2K)である場合、1つのラインメモリLは、水平方向に並ぶ1920画素のデータ(例えば、1画素当たり8ビットのデータ)を記憶する。また、ラインメモリ格納部1は、各ラインメモリL1,L2,L3,・・・,Lnに記憶されたデータに対してライン遅延処理を行う。そして、輪郭抽出部2、輪郭平滑化部3、画像強調部4は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから、当該輪郭抽出部2、輪郭平滑化部3、画像強調部4における演算処理に必要な画素のデータを読み出す。
輪郭抽出部2は、画像処理装置100Aに入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出し、当該輪郭領域内の画素の座標を含む輪郭信号を出力する。ここで、輪郭信号とは、映像データに含まれる画素の座標と、当該画素が輪郭領域に含まれるか否かを示す輪郭度とを含む。当該輪郭度は、画素のエッジ特徴量から算出される値である。輪郭抽出部2は、輪郭度を算出することにより、各画素が輪郭領域に含まれるか否かを決定する。これにより、輪郭抽出部2は、入力された映像データから輪郭領域を抽出する。
本実施例1において、エッジ領域とは、輝度等の画素値のコントラストが高い部分を意味する。換言すれば、複数の画素間において画素値が急激に変化している部分を意味する。また、輪郭領域は、基本的に、エッジ領域に含まれている。本実施例1では、後述するように、輪郭領域については平滑化処理された平滑化画像データを用いて、出力画像データを画像合成する。そのため、平滑化処理によって所望する効果が得られる部分を輪郭領域として抽出する必要がある。そこで、以下の定義に基づいて、輪郭抽出部2は、映像データに含まれるエッジ領域データから輪郭領域データを抽出する。
定義1:輪郭領域内の画素値のコントラストは高い。換言すれば、画素値のコントラストが低い部分は、平滑化処理によって所望する効果が得られにくい。
定義2:輪郭領域内のエッジ特徴量の分散は低い。換言すれば、エッジ特徴量の分散が高い部分は、平滑化処理によって所望する効果が得られにくい。
図4に、輪郭抽出部2の一例を示すブロック図を示す。また、図5に、輪郭抽出部2の他の例を示すブロック図を示す。また、図6に、本実施例1に係る輪郭抽出処理(輪郭抽出ステップ)において用いられるFIR(Finite Impulse Response)フィルタの一例を示す。また、図7に、本実施例1に係る輪郭抽出処理において用いられるソーベルフィルタの一例を示す。また、図8に、図4に示す輪郭抽出部2による輪郭抽出処理を説明するフローチャートを示す。
図4に示す輪郭抽出部2は、第1のLPF(Low Pass Filter)21、エッジ特徴量抽出部22、低輪郭度エッジ特徴量除去部23、第2のLPF24を備える。そして、図4に示す輪郭抽出部は、上記定義1及び定義2を満たす領域のデータを輪郭領域データとして抽出する。以下、図4に示す輪郭抽出部2の輪郭抽出処理(輪郭抽出ステップ)について、図8を参照しながら説明する。
第1のLPF21は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータから高周波成分を除去することにより、ぼかす(平滑化する)(ステップS201)。具体的には、第1のLPF21は、輪郭抽出処理(輪郭抽出ステップ)における前処理フィルタであり、ノイズ、孤立点、テクスチャ成分等の高周波成分をラインメモリ格納部1から読み出したデータから除去することにより、当該データを平滑化する。より具体的には、第1のLPF21として、例えば、カーネルサイズがN×NのFIRフィルタ(Nは、正の整数。)を用いる。図6に示すFIRフィルタは、1つの注目画素P1と、当該注目画素P1を中心とする他の周辺画素P2を処理する、カーネルサイズが7×7のデジタルフィルタである。なお、第1のLPF24として、線形(Linear)なFIRフィルタ、Bilateral Filter等の非線形(Non Linear)なFIRフィルタが用いられてもよい。
エッジ特徴量抽出部22は、第1のLPF21によってぼかされた(平滑化された)映像データから、例えば、図7に示すソーベルフィルタを用いてエッジ特徴量を抽出する(ステップS202)。また、エッジ特徴量抽出部22は、当該エッジ特徴量を低輪郭度エッジ特徴量除去部23に出力する。なお、図7に示すソーベルフィルタは、一例であり、エッジ特徴量抽出部22がエッジ特徴量を抽出するために用いるフィルタは、他のデジタルフィルタであってもよい。また、エッジ特徴量として、Harr−like特徴量、ピクセル差分特徴量、HOG(Histograms of Oriented Gradients)特徴量、EOH(Edge of Orientation Histograms)特徴量、Edglete特徴量等が抽出されてもよい。また、図7に示すソーベルフィルタは、カーネルサイズが3×3のデジタルフィルタであり、図7の左側に水平方向のエッジ特徴量の抽出に用いられるソーベルフィルタを示し、図7の右側に垂直方向のエッジ特徴量の抽出に用いられるソーベルフィルタを示す。
低輪郭度エッジ特徴量除去部23は、エッジ特徴量抽出部22によって抽出されたエッジ特徴量が閾値以上か否かを判断する(ステップS203)。
ステップS203において、エッジ特徴量が閾値未満である場合(ステップS203;No)、低輪郭度エッジ特徴量除去部23は、当該エッジ特徴量を有するエッジ領域は輪郭領域である可能性が少ないと判断し、当該エッジ領域を輪郭領域の候補から除去する(ステップS204)。具体的には、当該エッジ特徴量の値を所定の値より小さい値に変化させる。例えば、当該エッジ特徴量の値をゼロにする。そして、低輪郭度エッジ特徴量除去部23は、当該所定の値より小さい値に変換された特徴量を、第2のLPF24に出力する。
ステップS203において、エッジ特徴量が閾値以上である場合(ステップS203;Yes)、低輪郭度エッジ特徴量除去部23は、当該閾値以上のエッジ特徴量を有するエッジ領域に含まれる画素の数が閾値以上か否かを判断する(ステップS205)。
ステップS205において、閾値以上のエッジ特徴量を有するエッジ領域に含まれる画素の数が閾値未満である場合(ステップS205;No)、低輪郭度エッジ特徴量除去部23は、当該エッジ特徴量を有するエッジ領域は輪郭領域である可能性が少ないと判断し、当該エッジ領域を輪郭領域の候補から除去する(ステップS206)。具体的には、当該エッジ特徴量を所定の値より小さい値の特徴量に変換する。例えば、当該エッジ特徴量の値をゼロにする。そして、低輪郭度エッジ特徴量除去部23は、当該所定の値より小さい値に変換された特徴量を、第2のLPF24に出力する。
ステップS205において、閾値以上のエッジ特徴量を有するエッジ領域に含まれる画素の数が閾値以上である場合(ステップS205;Yes)、低輪郭度エッジ特徴量除去部23は、当該エッジ特徴量を有するエッジ領域は輪郭領域である可能性が高い領域(以下、「輪郭候補領域」と称する。)と判断し、当該エッジ特徴量を、第2のLPF24に出力する。
次に、第2のLPF24は、輪郭抽出処理(輪郭抽出ステップ)における後処理フィルタであり、低輪郭度エッジ特徴量除去部23から入力された所定の値より小さい値に変換された特徴量、及び、低輪郭度エッジ特徴量除去部23から入力されたエッジ特徴量をぼかす(平滑化する)。これにより、輪郭とは関係ない画素を含む領域のエッジ特徴量の値が小さくなり、後述する強調画像データと平滑化画像データとの画像合成において、強調画素と平滑化画素との間の空間的な不連続及び時間的な不連続等の副作用が生じにくくなる。ここで、第2のLPF24によって、ぼかされた(平滑化された)当該画素の特徴量(エッジ特徴量を含む)を輪郭度とする。そして、第2のLPF24は、画素の座標と当該画素の輪郭度とを含む輪郭信号を出力画素切替部5に出力する(ステップS207)。第2のLPF24として、第1のLPF21と同様に、例えば、図6に示すような、カーネルサイズがN×NのFIRフィルタ等を用いる。
すなわち、図8に示す、輪郭抽出部2の輪郭抽出処理(輪郭抽出ステップ)では、ラインメモリ格納部1から読み出したデータを第1のLPF21によって前処理し(ステップS201)、エッジ特徴量抽出部22によってエッジ特徴量を抽出し(ステップS202)、低輪郭度エッジ特徴量除去部23によって輪郭領域である可能性が少ないエッジ領域を輪郭領域の候補から除去し(ステップS203〜ステップS206)、輪郭候補領域のエッジ特徴量を第2のLPF24によって後処理する(ステップS207)。
なお、図5に示す輪郭抽出部2は、第1のLPF21、エッジ特徴量抽出部22、第2のLPF24を備える。そして、図5に示す輪郭抽出部2は、上記定義1を満たす領域のデータを輪郭領域データとして抽出する。すなわち、図5に示す輪郭抽出部2は、図8に示すステップS201、S202、S207の処理を行い、図8に示すステップS203〜S206の処理を行わない。この場合、ステップS202において、エッジ特徴量抽出部22は、抽出したエッジ特徴量をステップS207の処理で用いるため第2のLPF24に出力する。
すなわち、図8に示すステップS201、S202、S207の処理は、第1のLPF21によって映像データをぼかし(平滑化し)、さらに、第2のLPF24を用いて、エッジ特徴量抽出部22が抽出したエッジ特徴量をぼかす(平滑化する)ことにより、映像データに含まれる細かいテクスチャやエッジ等の領域に含まれる画素を輪郭領域の候補から除去し、特徴量が大きい輪郭度が高い画素を輪郭領域の候補として残す処理を行う。換言すれば、図8に示すステップS201、S202、S207の処理は、上記定義1を満たすエッジ領域のデータを輪郭領域データとして抽出する処理である。
また、図8に示すステップS203〜S206の処理は、エッジ特徴量の分散が高い場合には、当該エッジ特徴量を有するエッジ領域は輪郭領域である可能性が低いと判断する処理である。換言すれば、図8に示すステップS203〜S206の処理は、上記定義2を満たすエッジ領域のデータを輪郭領域データとして抽出する処理である。
輪郭平滑化部3は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータに対して、平滑化処理(平滑化ステップ)を行う。図9に、本実施例1に係る輪郭平滑化部3の一例を示す。輪郭平滑化部3は、図9に示すように、第3のLPF31を備える。
第3のLPF31は、ラインメモリ格納部1から読み出したデータから高周波成分を除去することにより、平滑化する。第3のLPF31として、第1のLPF21、第2のLPF24と同様に、例えば、図6に示すような、カーネルサイズがN×NのFIRフィルタを用いる。そして、第3のLPF31は、平滑化した映像データを平滑化画像データとして出力画素切替部5に出力する。なお、第1のLPF21、第2のLPF24、第3のLPF31として使用されるデジタルフィルタは異なっていてもよい。
画像強調部4は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータに対して、画像強調処理(画像強調ステップ)を行う。具体的には、画像強調部4は、エッジ領域データと当該エッジ領域以外のデータとで異なる画像強調処理を行う。図10に、実施例1に係る画像強調部4の一例を示す。画像強調部4は、図10に示すように、テクスチャ・エッジ強調部41、エッジ検出部42、画素切替部43を備える。
テクスチャ・エッジ強調部41は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータに対して、画像強調処理を行う。具体的には、テクスチャ・エッジ強調部41は、図6に示すような、カーネルサイズがN×NのFIRフィルタを用いて、画像強調処理を行う。テクスチャ・エッジ強調部41によって行われる画像強調処理は、例えば、Unsharp Masking処理等である。そして、テクスチャ・エッジ強調部41は、画像強調処理を行った映像データを画素切替部43に出力する。
エッジ検出部42は、例えば、図7に示すソーベルフィルタを用いて、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータから特徴量を算出する。そして、画素の座標と当該画素の特徴量とを画素切替部43に出力する。エッジ検出部42が、特徴量を画素切替部43に出力することにより、画素切替部43が当該特徴量の値に応じて強調画像データを合成するのに用いるデータを切り替えることができる。そのため、画素切替部43は、映像データに含まれるエッジ領域、テクスチャ領域、フラット領域毎に、異なる画像強調処理を行うことができる。
画素切替部43は、エッジ検出部42から入力される画素の座標及び当該画素の特徴量等に基づいて、エッジ領域、テクスチャ領域、フラット領域等の各領域毎に、出力画素切替部5に出力する映像データを切り替える。具体的には、画素切替部43は、画素の特徴量に基づいて、画像合成に用いるデータを切り替える。より具体的には、画素切替部43は、まず、エッジ検出部42から入力される画素の特徴量を正規化する。例えば、画像処理装置100Aに入力された映像データが1画素当たり8ビットのデータである場合、当該特徴量を0.0以上1.0以下に正規化する。ここで、正規化された特徴量の値をGainとする。また、テクスチャ・エッジ強調部41から画素切替部43に入力される画像強調処理された映像データをPenhとする。また、画像強調部4がラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータをPinとする。このとき、画素切替部43は、以下の式(1)に基づいて画素ごとにPoutを算出することにより画像合成を行って、強調画像データを生成する。
これにより、画素切替部43は、特徴量が比較的大きいエッジ領域及びテクスチャ領域等については、テクスチャ・エッジ強調部41から入力される画像強調処理を行ったデータを比較的多く用いて、その他の領域については、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータ(画像強調処理を行っていないデータ)を比較的多く用いて、画像合成を行うことができる。すなわち、画像強調部4は、エッジ領域データと当該エッジ領域以外のデータとで異なる画像強調処理を行うことができる。そして、画素切替部43は、画像合成された映像データを、強調画像データとして出力画素切替部5に出力する。なお、画素切替部43は、特徴量を正規化せずに、上記式(1)のGainの値として、そのまま用いてもよい。その場合には、例えば、特徴量の値が0以上255以下である場合には、上記式(1)の全体を256で除算すればよい。
出力画素切替部5は、輪郭抽出部2から入力される輪郭信号に基づいて、輪郭領域と、輪郭領域以外のエッジ領域、テクスチャ領域、フラット領域等の領域とで、表示装置(図示省略)に出力する画素のデータを切り替える(出力画素切替ステップ)。具体的には、出力画素切替部5は、輪郭抽出部2から入力される輪郭信号に含まれる画素の輪郭度に基づいて、画像合成に用いるデータを切り替える。より具体的には、出力画素切替部5は、まず、輪郭抽出部2から入力される画素の輪郭度を、例えば、0.0以上1.0以下に、正規化する。ここで、正規化された輪郭度の値をαとする。また、輪郭平滑化部3から出力画素切替部5に入力される平滑化画像データをAとする。また、画像強調部4から出力画素切替部5に入力される強調画像データをBとする。このとき、出力画素切替部5は、以下の式(2)に基づいて、画素ごとにCを算出することにより画像合成を行って、出力画像データを生成する。
これにより、出力画素切替部5は、輪郭度が大きい輪郭領域については、輪郭平滑化部3から入力される平滑化画像データを比較的多く用いて、輪郭領域以外の領域については、画像強調部4から入力される強調画像データを比較的多く用いて、画像合成を行うことができる。そして、出力画素切替部5は、画像合成された映像データを、出力画像データとして表示装置(図示省略)に出力する。なお、出力画素切替部5は、輪郭度を正規化せずに、上記式(2)のαの値として、そのまま用いてもよい。その場合には、例えば、輪郭度の値が0以上255以下である場合には、上記式(2)の全体を256で除算すればよい。
図11乃至図16を参照しながら、本実施例1に係る画像処理装置100Aによって画像処理された映像と、従来の画像処理装置によって画像処理された映像とを比較する。
図11は、本実施例1に係る画像処理装置100A及び従来の画像処理装置に入力される画像(入力画像)の一例を示す。図11に示す入力画像には、空I1と、芝I2と、人物I3と、箱I4が表示されている。
図12に、図11に示す入力画像に含まれるエッジ領域を示す。また、図13に、図11に示す入力画像に含まれる輪郭領域を示す。すなわち、本実施例1において、輪郭領域とは、空I1、芝I2、人物I3、箱I4の境界となる領域である。また、図14に、図11に示す入力画像に含まれるテクスチャ領域を示す。
図15に、従来の画像処理装置によって出力される画像を示す。従来の画像処理装置では、図12に示すエッジ領域と図13に示す輪郭領域とが区別されず、輪郭領域も他のエッジ領域と同様に画像強調処理される。そのため、図15に示すように、空I1、芝I2、人物I3、箱I4の境界が不自然に強調されてしまっている。具体的には、従来の画像処理装置によって出力される画像では、空I1、芝I2、人物I3、箱I4の境界のコントラストが強く出過ぎているため、空I1、芝I2、人物I3、箱I4の各平面画像を並べて重ねたような画像となっており、立体感や距離感が失われてしまっている。
図16に、本実施例1に係る画像処理装置100Aによって出力される画像を示す。本実施例1に係る画像処理装置100Aでは、輪郭抽出部2によって、図12に示すエッジ領域から図13に示す輪郭領域が抽出される。具体的には、入力画像の各画素の輪郭度を算出し、輪郭度に応じて、出力画像データの画像合成に用いられるデータが切り替えられる。そして、輪郭度が大きい輪郭領域については、輪郭平滑化部3によって平滑化処理された平滑化画像データを比較的多く用いて、輪郭領域以外の領域については、画像強調部4によって画像強調処理された強調画像データを比較的多く用いて、出力画素切替部5が画像合成を行って、画像合成されたデータを、出力画像データとして表示装置(図示省略)に出力する。そのため、図16に示すように、空I1、芝I2、人物I3、箱I4の境界が平滑化され、当該境界の輝度の階調が増加している。これにより、空I1、芝I2、人物I3、箱I4の境界に立体感及び距離感を付与することができている。
以上に説明した、本実施例1に係る画像処理装置100A及び画像処理方法では、入力された映像データのエッジ領域から輪郭領域を抽出し、当該輪郭領域については平滑化画像データを用いて出力画像データが画像合成される。すなわち、輪郭領域に対して平滑化処理されることとなり、輪郭領域の輝度の階調が増加する。これにより、輪郭領域に立体感及び距離感を付与することができる。よって、本実施例1に係る画像処理装置100A及び画像処理方法は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、映像データに対して、画像強調処理を行って強調画像データを出力する画像強調部4を備え、出力画素切替部5は、輪郭領域以外の領域については、強調画像データを用いて、出力画像データを画像合成する。これにより、映像データの輪郭領域以外の領域については、強調画像データを用いて出力画像データが画像合成されるため、輪郭領域以外の領域については、適切に画像強調処理を行うことができる。
さらに、画像強調部4は、エッジ領域データと当該エッジ領域以外のデータとで異なる画像強調処理を行う。これにより、入力された映像データの輪郭領域以外の領域については、少なくともエッジ領域とエッジ領域以外の領域とで異なる画像強調処理が行われた強調画像データを用いて出力画像データが画像合成される。そのため、輪郭領域以外の領域について、エッジ領域とエッジ領域以外の領域とのそれぞれに適した画像強調処理を行うことができる。
次に、図17及び図18を参照しながら、本発明の実施の形態2について説明する。図17は、本実施の形態2に係る画像処理装置200の一例を示すブロック図である。実施の形態2に係る画像処理装置200は、図17に示すように、輪郭抽出手段101、平滑度検出手段201、平滑化手段202、画像強調手段103、画像合成手段104等を備える。すなわち、実施の形態2に係る画像処理装置200は、図17に示すように、平滑度検出手段201及び平滑化手段202が、実施の形態1に係る画像処理装置100と異なる。以下、実施の形態2に係る画像処理装置200において、実施の形態1に係る画像処理装置100と同様の構成については、同一の符号を付すとともに、その説明を省略する。
また、画像処理装置200は、画像処理装置100と同様に、図示しないCPU及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、輪郭抽出手段101、平滑度検出手段201、平滑化手段202、画像強調手段103、画像合成手段104の全ての処理が実現する。
平滑度検出手段201は、輪郭領域データの平滑度を検出する。また、平滑度検出手段201は、当該輪郭領域の平滑度が所定の値より高いか否かを示す平滑度信号を平滑化手段202に出力する。ここで、平滑度は、例えば、画像処理装置200に入力される映像データに含まれる画素の画素値の微分量の統計量に基づいて、決定される。
平滑化手段202は、輪郭領域データのうち平滑度が所定の値以下の輪郭領域データに対して、平滑化処理を行う。また、平滑化手段202は、輪郭領域データのうち平滑度が所定の値より高い輪郭領域データに対して、平滑化処理を行わない。また、平滑化手段202は、平滑化処理を行ったデータと平滑化処理を行わなかったデータとを画像合成して得られる平滑切替画像データを画像合成手段104に出力する。
次に、図18を参照しながら、本発明の実施の形態2に係る画像処理方法を説明する。
まず、輪郭抽出手段101は、画像処理装置100に入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出し、当該輪郭領域に含まれる画素の座標を含む輪郭信号を平滑度検出手段201及び画像強調手段103に出力する(ステップS301;輪郭抽出ステップ)。
次に、平滑度検出手段201は、輪郭領域データの平滑度を検出し、当該輪郭領域の平滑度が所定の値より高いか否かを示す平滑度信号を平滑化手段202に出力する(ステップS302;平滑度検出ステップ)。
次に、平滑化手段202は、平滑度が所定の値以下の輪郭領域データに対して平滑化処理を行い、平滑化処理を行ったデータと平滑化処理を行わなかったデータとを画像合成して得られる平滑切替画像データを画像合成手段104に出力する(ステップS303;平滑化ステップ)。
次に、画像強調手段103は、映像データに含まれる輪郭領域データ以外の領域データに対して画像強調処理を行って、強調画像データを画像合成手段104に出力する(ステップS304;画像強調ステップ)。
次に、画像合成手段104は、平滑切替画像データと強調画像データとを画像合成して出力画像データを生成し、当該出力画像データを表示装置(図示省略)に出力し(ステップS305)、本画像処理を終了する。
なお、ステップS304の処理は、ステップS302の前に行われてもよく、ステップS304の処理とステップS302及びステップS303の処理とが同時に行われてもよい。
以上に説明した本実施の形態2に係る画像処理装置200及び画像処理方法では、実施の形態1に係る画像処理装置100及び画像処理方法と同様の効果が得られるのは勿論のこと、入力された映像データ内のエッジ領域に含まれる輪郭領域以外の領域については画像強調処理が行われる。すなわち、輪郭領域については画像強調処理が行われない。そのため、輪郭領域についても画像強調処理されることによって、表示される映像の立体感や距離感が失われてしまい、不自然な映像となってしまうことを防ぐことができる。よって、本発明の第2の態様に係る画像処理装置は、表示される映像の立体感や距離感を損なうことを防止することができる。
また、入力された映像データの平滑度が低い輪郭領域については、平滑化処理される。そのため、平滑度が低く、立体感及び距離感が消失している輪郭領域の部分については、当該輪郭領域の輝度の階調が増加し、立体感及び距離感を付与することができる。一方、入力された映像データの平滑度が低くない輪郭領域については、平滑化処理されない。そのため、平滑度が十分であり、立体感及び距離感が損なわれていない輪郭領域が不必要にぼやけてしまうことを防ぐことができる。
実施例2
次に、図19乃至図27を参照しながら、本実施の形態2の実施例2について説明する。図19は、本実施例2に係る画像処理装置200Aの一例を示すブロック図である。実施例2に係る画像処理装置200Aは、図19に示すように、平滑度検出手段201として平滑度検出部6を備え、平滑化手段202として、輪郭平滑化部3及び平滑化画素切替部7を備える点が、実施例1に係る画像処理装置100Aと異なる。また、実施例2に係る画像処理装置200Aでは、輪郭平滑化部3が平滑化画像データを平滑化画素切替部7に出力する点、輪郭平滑化部3から平滑化画像データが出力画素切替部5に入力されず、平滑化画素切替部7から平滑切替画像データが出力画素切替部5に入力される点が、実施例1に係る画像処理装置100Aと異なる。以下、実施例2に係る画像処理装置200Aにおいて、実施例1に係る画像処理装置100Aと同様の構成については、同一の符号を付すとともに、その説明を省略する。
平滑度検出部6は、画像処理装置100Aに入力された映像データの平滑度を検出する。具体的には、平滑度検出部6は、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータに含まれる画素の画素値の微分量を算出する。そして、平滑度検出部6は、当該微分量の統計量に基づいて、入力画像に含まれる各領域の平滑度が所定の値より高いか否かを示す平滑度信号を平滑化画素切替部7に出力する。
図20に、平滑度検出部6の一例を示す。また、図21に、平滑度検出部6の他の例を示す。さらに、図22に、平滑度検出部6のもう1つの他の例を示す。また、図23に、図20に示す平滑度検出部6による平滑度検出処理(平滑度検出ステップ)を説明するフローチャートを示す。また、図24に、図22に示す平滑度検出部6による平滑度検出処理(平滑度検出ステップ)を説明するフローチャートを示す。
図20に示す平滑度検出部6は、微分量検出部61、分散量検出部62、閾値処理部63を備える。以下、図20に示す平滑度検出部6の平滑度検出処理(平滑度検出ステップ)について、図23を参照しながら説明する。
微分量検出部61は、ラインメモリ格納部1から読み出したデータに含まれる画素の画素値の微分量を算出する(ステップS401)。ここで、微分量は、各画素の画素値の1次微分又は2次微分によって算出されてもよい。
次に、微分量検出部61は、入力画像の所定の領域毎に、当該所定領域に含まれる画素の微分量を分散量検出部62に出力する(ステップS402)。例えば、微分量検出部61は、隣接するM個(Mは、正の整数。)の画素の微分量をまとめて、分散量検出部62に出力する。
次に、分散量検出部62は、微分量検出部61から入力された所定領域に含まれる画素の微分量の分散を算出し、算出により得られた値を分散量として、閾値処理部63に出力する(ステップS403)。
次に、閾値処理部63は、分散量検出部62から入力された分散量が閾値以下か否かを判断する(ステップS404)。
ステップS404において、分散量検出部62から入力された分散量が閾値以下である場合、閾値処理部63は、当該所定領域の平滑度は高いという平滑度信号を平滑化画素切替部7に出力する(ステップS405)。
ステップS404において、分散量検出部62から入力された分散量が閾値より大きい場合、閾値処理部63は、当該所定領域の平滑度は低いという平滑度信号を平滑化画素切替部7に出力する(ステップS406)。
ここで、閾値処理部63が用いる閾値について、図25及び図26を参照しながら説明する。図25及び図26は、入力画像の所定の水平方向ライン上に並ぶ画素の画素値を示すグラフであり、縦軸に画素値を示し、横軸に画素位置を示す。また、図25及び図26において、入力画像の解像度は、例えば、8Kであるとする。
図25に示す、水平方向ライン上に並ぶ画素では、注目画素のプロットPP1の左右の4つの周辺画素のプロットPP2にわたって、画素値が徐々に変化している。すなわち、当該画素値の変化の解像度は2Kである。当該解像度2Kの画素値の変化は、解像度8Kの入力画像にとって、滑らかな変化である。つまり、当該水平方向ライン上に並ぶ画素の領域は、平滑度が高い。
図26に示す、水平方向ライン上に並ぶ画素では、注目画素のプロットPP1の隣の周辺画素のプロットPP2との間で画素値が急激に変化している。すなわち、当該画素値の変化の解像度は8Kである。当該解像度8Kの画素値の変化は、解像度8Kの入力画像にとって、滑らかではない変化である。つまり、当該水平方向ライン上に並ぶ画素の領域は、平滑度が低い。
上記図25及び図26の説明に示すように、図20に示す閾値処理部63が用いる閾値は、入力画像の解像度等に基づいて、定められる。例えば、隣接するM個の画素からなる所定領域が、入力画像の解像度と同じ解像度の画素値の変化を有する場合、閾値処理部63が当該所定領域の平滑度は低いという平滑度信号を平滑化画素切替部7に出力するように、閾値は定められる。
図21に示す平滑度検出部6は、微分量検出部61、ヒストグラム生成部64、閾値処理部65を備える。微分量検出部61は、図20に示す平滑度検出部6の微分量検出部61と同様であるため、その説明を省略する。
ヒストグラム生成部64は、微分量検出部61から入力された所定領域に含まれる画素画素値の微分量のヒストグラムを生成し、生成したヒストグラムを閾値処理部63に出力する。ここで、ヒストグラムの横軸は画素値の微分量を示し、縦軸は微分量の頻度(度数)を示す。
閾値処理部65は、ヒストグラム生成部64から入力されたヒストグラムに基づいて、当該所定領域の平滑度を決定する。例えば、微分量が所定の閾値より小さいビン(BIN)の累積度数が、微分量が所定の閾値より大きいビン(BIN)の累積度数より多い場合、閾値処理部65は、当該所定領域の平滑度が高いという平滑度信号を平滑化画素切替部7に出力する。また、微分量が所定の閾値より大きいビン(BIN)の累積度数が、微分量が所定の閾値より小さいビン(BIN)の累積度数より多い場合、閾値処理部65は、当該所定領域の平滑度が低いという平滑度信号を平滑化画素切替部7に出力する。
図22に示す平滑度検出部6は、微分量検出部66、反転回数積算部67、閾値処理部68を備える。以下、図22に示す平滑度検出部6の平滑度検出処理について、図24を参照しながら説明する。
微分量検出部66は、ラインメモリ格納部1から読み出したデータに含まれる画素の画素値の微分量を算出する(ステップS501)。ここで、微分量は、各画素の画素値の1次微分によって算出される。
次に、微分量検出部66は、入力画像の所定の領域毎に、当該所定領域に含まれる画素の微分量を反転回数積算部67に出力する(ステップS502)。例えば、微分量検出部66は、隣接するM個の画素の微分量をまとめて、反転回数積算部67に出力する。
反転回数積算部67は、微分量検出部66から入力された所定領域に含まれる、隣接する画素の微分量の符号を比較し、隣接する画素の微分量の符号が反転しているか否かを判断する(ステップS503)。
ステップS503において、隣接する画素の微分量の符号が反転していない場合、反転回数積算部67は、当該所定領域に画素値のシュートがないと判断し(ステップS503;No)、当該平滑度検出処理はステップS505に進む。
ステップS503において、隣接する画素の微分量の符号が反転している場合、反転回数積算部67は、当該所定領域に画素値のシュートがあると判断し(ステップS503;Yes)、反転回数積算部67は、当該所定領域にある画素値のシュートの個数を閾値処理部68に出力する。具体的には、反転回数積算部67は、隣接する画素の微分量の符号が反転している回数を積算し、積算した回数を閾値処理部68に出力する。
閾値処理部68は、反転回数積算部67から入力された回数に基づいて、当該所定領域にある画素値のシュートの個数が閾値以下か否かを判断する(ステップS504)。具体的には、閾値処理部68は、隣接する画素の微分量の符号が反転している回数が閾値以下か否かを判断する。
ステップS504において、当該所定領域にある画素値のシュートの個数が閾値以下である場合(ステップS504;Yes)、閾値処理部68は、当該所定領域の平滑度は中程度〜高いという平滑度信号を平滑化画素切替部7に出力する(ステップS505)。
ステップS504において、当該所定領域にある画素値のシュートの個数が閾値より多い場合(ステップS504;No)、閾値処理部68は、当該所定領域の平滑度は低いという平滑度信号を平滑化画素切替部7に出力する(ステップS506)。
ここで、閾値処理部68が用いる閾値について、図27を参照しながら説明する。図27は、図25及び図26と同様に、入力画像の所定の水平方向ライン上に並ぶ画素の画素値を示すグラフであり、縦軸に画素値を示し、横軸に画素位置を示す。また、図27において、入力画像の解像度は、例えば、8Kであるとする。
図27に示す、水平方向ライン上に並ぶ画素では、注目画素のプロットPP1の左右の4つの周辺画素のプロットPP2にわたって、画素値が徐々に変化している。すなわち、当該画素値の変化の解像度は2Kである。しかし、4つの周辺画素のプロットPP2の左側においてオーバーシュートがあり、4つの周辺画素のプロットPP2の右側においてアンダーシュートがある。このように、シュートがある画素値の変化は、滑らかな変化ではない。つまり、当該水平方向ライン上に並ぶ画素の領域は、平滑度が低い。
上記図27の説明に示すように、図22に示す閾値処理部68が用いる閾値は、注目画素のプロットPP1と周辺画素のプロットPP2を含む所定領域の画素値にシュートが何個含まれる場合、当該所定領域の平滑度が低いとするか等に基づいて、定められる。
平滑化画素切替部7は、平滑度検出部6から入力される平滑度信号に基づいて、平滑度が低い領域と、平滑度が高い又は中程度〜高い領域とで、出力画素切替部5に出力する画素のデータを切り替える(平滑化画素切替ステップ)。具体的には、平滑化画素切替部7は、平滑度が低い領域については、輪郭平滑化部3から入力される平滑化画像データを用い、平滑度が高い又は中程度〜高い領域については、ラインメモリ格納部1の各ラインメモリL1,L2,L3,・・・,Lnから読み出したデータを用いて、画像合成を行い、画像合成された映像データを、平滑切替画像データとして出力画素切替部5に出力する。
出力画素切替部5は、輪郭抽出部2から入力される輪郭信号に基づいて、輪郭領域と、輪郭領域以外のエッジ領域、テクスチャ領域、フラット領域等の領域とで、表示装置(図示省略)に出力する画素のデータを切り替える。具体的には、出力画素切替部5は、輪郭抽出部2から入力される輪郭信号に含まれる画素の輪郭度に基づいて、画像合成に用いるデータを切り替える。より具体的には、出力画素切替部5は、輪郭度が大きい輪郭領域については、平滑化画素切替部7から入力される平滑切替画像データを比較的多く用いて、輪郭領域以外の領域については、画像強調部4から入力される強調画像データを比較的多く用いて、画像合成を行う。そして、出力画素切替部5は、画像合成された映像データを、出力画像データとして表示装置(図示省略)に出力する。
以上に説明した、本実施例2に係る画像処理装置200A及び画像処理方法では、実施例1に係る画像処理装置100A及び画像処理方法と同様の効果が得られるのは勿論のこと、入力された映像データの平滑度が低い領域については平滑化画像データを用いて平滑切替画像データが画像合成される。そして、輪郭領域については、当該平滑切替画像データを用いて、出力画像データが画像合成される。そのため、平滑度が低く、立体感及び距離感が消失している輪郭領域の部分については、当該輪郭領域の輝度の階調が増加し、立体感及び距離感を付与することができる。一方、入力された映像データの平滑度が低くない領域については、平滑化画像データを用いずに平滑切替画像データが画像合成される。そのため、平滑度が十分であり、立体感及び距離感が損なわれていない輪郭領域が不必要にぼやけてしまうことを防ぐことができる。
なお、本発明は上記実施の形態及び実施例に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
100、200、100A、200A 画像処理装置
101 輪郭抽出手段
102、202 平滑化手段
103 画像強調手段
104 画像合成手段
201 平滑度検出手段
1 ラインメモリ格納部
2 輪郭抽出部
21 第1のLPF
22 エッジ特徴量抽出部
23 低輪郭度エッジ特徴量除去部
24 第2のLPF
3 輪郭平滑化部
31 第3のLPF
4 画像強調部
41 テクスチャ・エッジ強調部
42 エッジ検出部
43 画素切替部
5 出力画素切替部
6 平滑度検出部
61、66 微分量検出部
62 分散量検出部
63、65、68 閾値処理部
64 ヒストグラム生成部
67 反転回数積算部
7 平滑化画素切替部
8 制御部
I1 空
I2 芝
I3 人物
I4 箱
L1、L2、L3、・・・、Ln ラインメモリ
P1 注目画素
P2 周辺画素
PP1 注目画素のプロット
PP2 周辺画素のプロット

Claims (10)

  1. 入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出手段と、
    前記輪郭領域データに対して、平滑化処理を行う平滑化手段と、
    を備える、画像処理装置。
  2. 前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調手段を備える、請求項1に記載の画像処理装置。
  3. 入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出手段と、
    前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調手段と、
    を備える、画像処理装置。
  4. 前記輪郭領域データの平滑度を検出する平滑度検出手段と、
    前記輪郭領域データのうち前記平滑度が所定の値以下の輪郭領域データに対して、平滑化処理を行う平滑化手段と、
    を備える、請求項3に記載の画像処理装置。
  5. 前記画像強調手段は、前記エッジ領域データとエッジ領域以外のデータとで異なる画像強調処理を行う、請求項2乃至4の何れか一項に記載の画像処理装置。
  6. 入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出ステップと、
    前記輪郭領域データに対して、平滑化処理を行う平滑化ステップと、
    を備える、画像処理方法。
  7. 前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調ステップを備える、請求項6に記載の画像処理方法。
  8. 入力された映像データに含まれるエッジ領域データから輪郭領域データを抽出する輪郭抽出ステップと、
    前記映像データに含まれる前記輪郭領域データ以外の領域データに対して画像強調処理を行う画像強調ステップと、
    を備える、画像処理方法。
  9. 前記輪郭領域データの平滑度を検出する平滑度検出ステップと、
    前記輪郭領域データのうち前記平滑度が所定の値以下の輪郭領域データに対して、平滑化処理を行う平滑化ステップと、
    を備える、請求項8に記載の画像処理方法。
  10. 前記画像強調ステップでは、前記エッジ領域データとエッジ領域以外のデータとで異なる画像強調処理を行う、請求項7乃至9の何れか一項に記載の画像処理方法。
JP2017254144A 2017-12-28 2017-12-28 画像処理装置及び画像処理方法 Active JP7265316B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017254144A JP7265316B2 (ja) 2017-12-28 2017-12-28 画像処理装置及び画像処理方法
KR1020180153009A KR102567490B1 (ko) 2017-12-28 2018-11-30 영상을 처리하는 방법, 장치 및 컴퓨터 프로그램 제품
PCT/KR2018/016778 WO2019132548A1 (en) 2017-12-28 2018-12-27 Method and apparatus for processing image and computer program product thereof
CN201880081966.9A CN111492402B (zh) 2017-12-28 2018-12-27 用于处理图像的方法和装置及其计算机程序产品
EP18895085.1A EP3665646B1 (en) 2017-12-28 2018-12-27 Method and apparatus for processing image and computer program product thereof
US16/235,701 US11024033B2 (en) 2017-12-28 2018-12-28 Method and apparatus for processing image and computer program product thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254144A JP7265316B2 (ja) 2017-12-28 2017-12-28 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2019121053A true JP2019121053A (ja) 2019-07-22
JP7265316B2 JP7265316B2 (ja) 2023-04-26

Family

ID=67256848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254144A Active JP7265316B2 (ja) 2017-12-28 2017-12-28 画像処理装置及び画像処理方法

Country Status (4)

Country Link
EP (1) EP3665646B1 (ja)
JP (1) JP7265316B2 (ja)
KR (1) KR102567490B1 (ja)
CN (1) CN111492402B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669244B (zh) * 2020-12-29 2024-06-11 中国平安人寿保险股份有限公司 人脸图像增强方法、装置、计算机设备以及可读存储介质
US11978412B2 (en) 2021-02-26 2024-05-07 E Ink Holdings Inc. Display device and image processing method
KR20230061747A (ko) * 2021-10-29 2023-05-09 주식회사 펫나우 반려 동물의 비문 학습 또는 인식을 위한 이미지의 적합성을 검사하기 위한 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253255A (ja) * 1999-03-02 2000-09-14 Hitachi Ltd 信号処理装置および信号処理システム
JP2007295321A (ja) * 2006-04-26 2007-11-08 Matsushita Electric Ind Co Ltd 輪郭補正装置
JP2009251839A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd 画像信号処理回路、画像表示装置、および画像信号処理方法
US20100027891A1 (en) * 2008-08-01 2010-02-04 Samsung Digital Imaging Co., Ltd Apparatus, method, and recording medium for reduced noise image processing
JP2010154448A (ja) * 2008-12-26 2010-07-08 Hitachi Ltd 映像処理装置
JP2010286568A (ja) * 2009-06-09 2010-12-24 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2860581B1 (fr) * 2003-10-03 2006-04-14 A Resposabilte Limitee De La B Procede et installation pour le controle de qualite en boulangerie
JP4534594B2 (ja) * 2004-05-19 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP4240324B2 (ja) * 2006-01-16 2009-03-18 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP4131281B2 (ja) * 2006-05-09 2008-08-13 ソニー株式会社 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
CN103455994A (zh) * 2012-05-28 2013-12-18 佳能株式会社 图像模糊度的确定方法和设备
US9639771B2 (en) * 2013-09-06 2017-05-02 Sharp Kabushiki Kaisha Image processing device
US9286653B2 (en) * 2014-08-06 2016-03-15 Google Inc. System and method for increasing the bit depth of images
KR101631953B1 (ko) * 2014-12-09 2016-06-20 삼성전자주식회사 블러 영역 검출을 위한 영상 처리 방법 및 이를 수행하기 위한 영상 처리 장치
JP6196607B2 (ja) * 2014-12-26 2017-09-13 株式会社Screenホールディングス 画像処理方法、制御プログラムおよび画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253255A (ja) * 1999-03-02 2000-09-14 Hitachi Ltd 信号処理装置および信号処理システム
JP2007295321A (ja) * 2006-04-26 2007-11-08 Matsushita Electric Ind Co Ltd 輪郭補正装置
JP2009251839A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd 画像信号処理回路、画像表示装置、および画像信号処理方法
US20100027891A1 (en) * 2008-08-01 2010-02-04 Samsung Digital Imaging Co., Ltd Apparatus, method, and recording medium for reduced noise image processing
JP2010154448A (ja) * 2008-12-26 2010-07-08 Hitachi Ltd 映像処理装置
JP2010286568A (ja) * 2009-06-09 2010-12-24 Canon Inc 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
EP3665646B1 (en) 2021-08-25
EP3665646A1 (en) 2020-06-17
KR20190080737A (ko) 2019-07-08
JP7265316B2 (ja) 2023-04-26
CN111492402A (zh) 2020-08-04
KR102567490B1 (ko) 2023-08-17
EP3665646A4 (en) 2020-10-21
CN111492402B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
US9569827B2 (en) Image processing apparatus and method, and program
US9262684B2 (en) Methods of image fusion for image stabilization
US8818126B2 (en) Method and apparatus for block-based image denoising
JP2016505186A (ja) エッジ保存・ノイズ抑制機能を有するイメージプロセッサ
JP7032871B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
Kong et al. Multiple layers block overlapped histogram equalization for local content emphasis
CN109636730B (zh) 用于过滤深度图中的伪像素的方法
JP7265316B2 (ja) 画像処理装置及び画像処理方法
CN110503704B (zh) 三分图的构造方法、装置和电子设备
JP2019016117A (ja) 画像調整装置、局所的コントラスト量計算装置、方法、及びプログラム
CN111179159B (zh) 消除视频中目标影像的方法、装置、电子设备及存储介质
JP6213558B2 (ja) 画像処理方法、及び画像処理装置
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
US11024033B2 (en) Method and apparatus for processing image and computer program product thereof
JP4990876B2 (ja) 画像処理装置
JP2010055410A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP5617426B2 (ja) ジャギー緩和処理装置及びジャギー緩和処理方法
KR102470242B1 (ko) 영상 처리 장치, 영상 처리 방법, 및 프로그램
JP2011039795A (ja) 動画像強調処理システムおよび方法
JP2015090678A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7009253B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN116523764A (zh) 基于fpga语言的图像边界锐化算法、装置和控制系统
US20130114888A1 (en) Image processing apparatus, computer program product, and image processing method
JP2022069197A (ja) 画像処理装置及びその制御方法及びプログラム
Nguyen et al. Fast selective interpolation for 3D depth images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230414

R150 Certificate of patent or registration of utility model

Ref document number: 7265316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150