JP2014056507A - 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法 Download PDF

Info

Publication number
JP2014056507A
JP2014056507A JP2012201971A JP2012201971A JP2014056507A JP 2014056507 A JP2014056507 A JP 2014056507A JP 2012201971 A JP2012201971 A JP 2012201971A JP 2012201971 A JP2012201971 A JP 2012201971A JP 2014056507 A JP2014056507 A JP 2014056507A
Authority
JP
Japan
Prior art keywords
image
edge
contour
local
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012201971A
Other languages
English (en)
Other versions
JP6015267B2 (ja
Inventor
Sho Gen
翔 阮
Lin Chen
林 陳
Ming-Xuan Yang
明玄 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2012201971A priority Critical patent/JP6015267B2/ja
Priority to EP13183786.6A priority patent/EP2709063A1/en
Priority to KR1020130109245A priority patent/KR101531966B1/ko
Priority to CN201310416847.3A priority patent/CN103679697A/zh
Publication of JP2014056507A publication Critical patent/JP2014056507A/ja
Application granted granted Critical
Publication of JP6015267B2 publication Critical patent/JP6015267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

【課題】局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得る。
【解決手段】画像処理装置1は、局所エッジ画像P12を生成するローカル輪郭抽出部23と、グローバルエッジ画像P22を生成するグローバル輪郭抽出部26と、局所エッジ画像P12とを備え、グローバルエッジ画像P22との重み付け和により輪郭画像P30を生成する。
【選択図】図1

Description

本発明は入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法に関する。
従来、画像処理の分野において、画像に含まれる物体の輪郭を抽出する技術が知られている。従来の輪郭抽出技術の多くは、画像の局所的なコントラスト情報に基づいてエッジを検出することで物体の輪郭を抽出するものである(エッジの方向と強度を算出するもの(特許文献1);周辺画素において任意の濃度値について輪郭抽出処理を行うもの(特許文献2);2段階でエッジ部/非エッジ部を判定するもの(特許文献3);所定の走査線上の画素についてエッジ強度を判定するもの(特許文献4))。このような技術では、“コントラスト”を定義するため、様々な手法が提案されている。
また、従来、いわゆるエッジのグルーピング技術が知られている。エッジのグルーピング技術とは、局所的なコントラスト情報に基づいてエッジをなるべくたくさん検出し、検出したエッジとエッジとの間における相関関係を導出し、相関関係が低いエッジを除去するととともに、相関関係が高いエッジを連結することで、最終的に輪郭を抽出するものである。例えば、所定方向の線分を検出し、当該検出した線分を、所定方向との連続性および/または強度に応じて、強調または消去することで輪郭線を抽出する技術が提案されている(特許文献5)。
特開2000−11188(2000年1月14日公開) 特開2000−76468(2000年3月14日公開) 特開2007−318408(2007年12月6日公開) 特開2008−205603(2008年9月4日公開) 特開平5−307537(1993年11月19日公開)
しかしながら、上述のような従来技術では、エッジ検出に局所的なコントラスト情報しか用いておらず、エッジ検出処理の対象となる領域(画素)が、画像全体において人間の視覚特性上重要な領域(画素)であるかどうかが考慮されていなかった。
従って、人間の視覚特性上重要でない領域(すなわち、注目すべきオブジェクトが含まれないと考えられる領域)にもかかわらず、局所的なコントラスト情報だけに基づいてエッジが検出されるという場合があった。このため、従来の技術では、エッジ検出処理および輪郭抽出処理において十分な精度が得られない場合があった。
上記の課題点に鑑みてなされたものであり、その目的は、局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得ることができる画像処理装置等を実現することにある。
上記の課題を解決するために、本発明に係る画像処理装置は、入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理装置であって、上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成手段と、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成手段と、上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成手段と、を備えることを特徴とする。
上記の課題を解決するために、本発明に係る画像処理プログラムは、入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理プログラムであって、上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含む処理をコンピュータに実行させることを特徴とする。
上記の課題を解決するために、本発明に係る画像処理方法は、入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理方法であって、上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含むことを特徴とする。
上記構成において、入力画像の局所的なエッジを示す局所エッジ画像は、入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて生成される。ここで、入力画像に含まれる領域は、1つの画素から構成されていてもよいし、複数の画素を含んでいてもよい。上記近隣領域についても同様である。
例えば、局所エッジ画像は、入力画像のある画素のコントラストと、該画素の所定範囲にある近隣画素のコントラストとの差分を計算することにより生成することができる。
以下、単一の画素について局所的なエッジ計算を実行する例について説明するが、該エッジ計算を領域に対して実行する場合も同様である。
例えば、局所エッジ画像は、入力画像に含まれる画素を、所定の順番に注目画素とし、当該注目画素から所定範囲内に位置する画素(近隣画素)のコントラストに基づいて局所的なエッジを計算することにより得られる。ここで、局所的なエッジというのは、注目画素の近隣画素を用いて得られるエッジのことを意味する。
この局所的なエッジ計算は、例示的には、注目画素の上隣接画素および下隣接画素のコントラスト計算、または、注目画素の左隣接画素および右隣接画素のコントラスト計算により行われる。前者のコントラスト計算からは、水平方向のエッジの有無が検出可能であり、また、後者のコントラスト計算からは、垂直方向のエッジの有無が検出可能である。
また、コントラスト計算は、例示的には、近隣画素のコントラストの差分を算出するものである。コントラスト計算において近隣画素のコントラストの差分を算出する場合、差分が大きければ、注目画素においてエッジが存在する可能性が高く、差分が小さければ、注目画素においてエッジが存在する可能性が低いと判断することができる。
なお、これに限られず注目画素の斜め方向に位置する画素や、2つ以上の画素を用いることも可能であり、エッジ計算の手法は任意である。
また、コントラスト計算において計算の対象となる“コントラスト”は、様々な観点から定義することができる。“コントラスト”としては、例示的には、画像の濃淡を示す値を用いることができる。なお、これに限られず、その定義の方法は任意であり、例えば、“コントラスト”として、画像の各チャネルの値を用いることができる。
また、上記構成において、コントラストマップ画像は、入力画像における注目すべき顕著領域を示すものである。さらにいえば、入力画像における視覚的な顕著性とは、入力画像における所定の領域が、人間が視覚的に注目するであろう程度を示すものである。
なお、コントラストマップ画像の生成方法には任意のものを使用することができる。
すなわち、コントラストマップ画像の生成方法は、局部コントラストに基づく方法であっても、全域コントラストに基づく方法であってもよい。
局部コントラストに基づく方法は、画像領域と、その相対的な小さい隣接領域との差分によって顕著性を算出するものである。
一方、全域コントラストに基づく方法は画像領域と画像全体との差分を測定することでその顕著性を評価するものである。
上記構成においては、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する。
また、上記構成によれば、上記のようにして生成した局所エッジ画像と、顕著エッジ画像とを統合することにより輪郭画像を生成する。
局所エッジ画像と、顕著エッジ画像とを統合する手法としては、例えば、重み付け和などが挙げられる。なお、この輪郭画像は、輪郭が存在する可能性を示すマッピング画像であってもよい。
よって、以上の構成によれば、局所的なエッジ情報だけでなく、画像の顕著性に応じたエッジ情報を参照して、より精度よく人間の視覚的特性を反映した輪郭を検出することができる。
その結果、局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得ることができるという効果を奏する。
なお、上記画像処理方法は、コンピュータによって実現してもよく、この場合には、コンピュータに上記各ステップを含む処理を実行させることにより、画像処理方法の各ステップをコンピュータにて実現させる画像処理プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明に係る画像処理装置では、上記顕著エッジ画像生成手段は、上記入力画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの上記入力画像全体に対する上記コントラストマップ画像を生成する、ことが好ましい。
上記顕著エッジ画像生成手段は、上記入力画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの上記入力画像全体に対する上記コントラストマップ画像を生成する。
複数の領域それぞれの上記入力画像全体に対するコントラストマップ画像は、いわゆる画像のグローバルな視覚的顕著性を示すものである。コントラストマップは、例えば、入力画像に含まれる複数の領域について、該複数の領域のうちの一つの領域とその他の領域とのコントラストの差分に基づいて、該複数の領域それぞれの入力画像全体に対する顕著性を算出することで得ることができる。
また、これにより得られる顕著エッジ画像は、全域的な顕著性を示す、いわゆる全域エッジ画像である。ゆえに、上記構成における顕著エッジ画像生成手段は、全域エッジ画像生成手段と称することもできる。
顕著エッジ画像は、入力画像に含まれる複数の領域の入力画像全体に対する視覚的な顕著性に基づいて生成される。具体的には、顕著エッジ画像は、各領域において算出された顕著性のマッピングに基づいて生成することができる。すなわち、各領域において算出された顕著性の強さを示す顕著性値についてコントラスト計算を実行することにより、顕著エッジ画像を生成することができる。
その結果、画像のグローバルな視覚的顕著性の情報を用いて、局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得ることができるという効果を奏する。
本発明に係る画像処理装置では、上記局所エッジ画像生成手段は、所定範囲の領域を所定の方向に分割し得られる2つの領域について、一方の領域における支配的な色と、他方の領域における支配的な色との差を計算して得られた差分を用いて、上記局所エッジ画像を生成することが好ましい。
上記構成によれば、2つの領域の間における支配的な色の差に応じて局所エッジ画像を生成することができる。
支配的な色は、各領域に含まれる画素における色についてヒストグラムを計算し、計算したヒストグラムにおいて最も頻度が多かった色と定義することができる。なお、ここでいう色とは、色空間上において表現された色のことである。よってヒストグラムを計算する対象は、YC色空間のYチャネルの値であってもよいし、CチャネルまたはCチャネルの値であってもよい。
また、2つの領域の間における支配的な色の差とは、それぞれの色の間の色空間上の距離ともいうことができる。
上記構成において、所定範囲の領域は、任意に設定することができる。例えば、コントラストマップを生成する際に用いられる上記複数の領域に対応する領域を、上記所定範囲の領域とすることができる。また、上記所定範囲の領域を、注目画素を中心として、高さ方向(垂直方向)および幅方向(水平方向)に所定の範囲に含まれる画素により構成される矩形領域としてもよい。
また、上記領域を所定の方向に分割する方法は、任意の分割方法を採用することができる。すなわち、当該領域を、中心画素を横断する垂直方向または水平方向の直線により分割することができる。例えば、当該領域を垂直方向に分割する場合は、垂直方向を境界として左右の領域が得られる。
2つの領域の間で、支配的な色の差が大きいほど、領域内においてエッジ(輪郭)が存在する可能性が高い。上記領域を垂直方向に分割した場合、分割後の左右の領域の間で支配的な色の差が大きいとき、垂直方向のエッジが存在する可能性が高い。
上記構成によれば、2つの領域の間における支配的な色の差を用いて、より精度よくエッジを抽出することができる。
本発明に係る画像処理装置では、上記局所エッジ画像生成手段は、上記差分と、上記2つの領域について、それぞれの領域における支配的な色の度合いを乗じて得られた値と、を乗ずることにより得られた結果を用いて、上記局所エッジ画像を生成することが好ましい。
上記構成によれば、2つの領域それぞれにおける支配的な色の度合いを反映した局所エッジ画像を生成することができる。
上記構成における支配的な色については上述したとおりである。支配的な色の度合いとは、領域に含まれる他の色に対する支配的な色の強さ(どの程度支配的か)を示すものである。支配的な色の度合いは、例えば、上述したヒストグラムにおける支配的な色の頻度により表現することができる。
領域の支配的な色の度合いがより高い場合、当該領域はより一色的であるといえる。
2つの領域のそれぞれが、より一色的であれば、領域内(特に、注目画素およびその近隣において)に輪郭が存在する可能性が高い。
上記構成によれば、2つの領域の間における支配的な色の差に加えて、2つの領域それぞれにおける支配的な色の度合いを用いて、より精度よくエッジを抽出することができる。
本発明に係る画像処理装置では、上記入力画像は、段階的に平滑化が施された複数の平滑化画像であり、上記顕著エッジ画像生成手段は、上記平滑化画像ごとに、該平滑化画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの該平滑化画像全体に対するコントラストマップ画像を生成して、生成した該コントラストマップに含まれるエッジを示すエッジ画像を生成し、上記複数の平滑化画像について生成した該エッジ画像を統合することにより上記顕著エッジ画像を生成することが好ましい。
段階的に平滑化が施された複数の平滑化画像は、平滑化フィルタの平滑度合いを制御するパラメータを段階的に変更して原画像を平滑化することにより得られた平滑度合いがそれぞれ異なる画像のことである。
このため、複数の平滑化画像は、平滑度合いに応じたエッジが残っていることになる。すなわち、平滑度合いが小さい(弱い平滑化フィルタ)の平滑化画像は、強度が大きいエッジだけでなく、強度が小さいエッジを含む。これに対して、平滑度合いが大きい(強い平滑化フィルタ)の平滑化画像は、強度が小さいエッジは平滑化されてしまうため、強度が大きいヘッジのみを含むことになる。
上記構成によれば、平滑化画像ごとに、該平滑化画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの該平滑化画像全体に対するコントラストマップ画像を生成して、生成した該コントラストマップに含まれるエッジを示すエッジ画像を生成する。また、このようにして得られた顕著性に基づくエッジを示すエッジ画像を統合することにより(例えば、重み付け和を計算することにより)上記顕著エッジ画像を生成する。
上記構成によれば、エッジの強度に応じた平滑化画像の顕著性に基づくエッジを示す画像を生成することができるので、これにより、エッジ抽出の精度の向上を図ることができる。
本発明に係る画像処理装置では、上記入力画像は、段階的に平滑化が施された複数の平滑化画像であり、上記局所エッジ画像生成手段は、上記複数の平滑化画像のそれぞれについて、該平滑化画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて該平滑化画像の局所的なエッジを示すエッジ画像を生成し、上記複数の平滑化画像について生成した上記エッジ画像を統合することにより上記局所エッジ画像を生成することが好ましい。
段階的に平滑化が施された複数の平滑化画像については上述したとおりである。上記構成によれば、平滑度合いに応じたエッジを含む複数の平滑化画像のそれぞれについて、該平滑化画像に含まれる領域と該領域の近隣画素との間のコントラストに基づいて該平滑化画像の局所的なエッジを示す画像を生成する。また、このようにして得られた複数の平滑化画像の局所的なエッジ画像を統合することによって(例えば、重み付け和を計算することによって)上記局所エッジ画像を生成する。
上記構成によれば、エッジの強度に応じた平滑化画像の局所的なエッジを示す画像を生成することができるので、これにより、エッジ抽出の精度の向上を図ることができる。
本発明に係る画像処理装置では、上記局所エッジ画像生成手段は、上記平滑化画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて該平滑化画像の局所的なエッジを示すエッジ画像を生成する際に、上記平滑化画像の色チャネルごとにコントラスト計算を実行して得られるエッジ画像である色チャネルエッジ画像を生成するとともに、生成した各チャネルの色チャネルエッジ画像を統合することにより上記平滑化画像の局所的なエッジ画像を生成することが好ましい。
上記構成によれば、色チャネルごとにコントラスト計算することで、エッジ抽出の精度の向上を図ることができる。
本発明に係る画像処理装置では、上記平滑化画像は、バイラテラルフィルタによる平滑化が施されたものであることが好ましい。
上記構成によれば、バイラテラルフィルタ(Bilateral filter)によりエッジの部分を鮮明のままでエッジ以外の部分を平滑化できるため、エッジ抽出の精度の向上を図ることができる。
本発明に係る画像処理装置は、入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成手段と、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成手段と、上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成手段と、を備える構成である。
本発明に係る画像処理プログラムは、入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含む処理をコンピュータに実行させるプログラムである。
本発明に係る画像処理方法は、入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、
上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含む方法である。
よって、局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得ることができるという効果を奏する。
本発明の一実施形態に係る画像処理装置の概略的構成の一例を示す機能ブロック図である。 上記画像処理装置が備える顕著マップ画像生成部の構成例について示す機能ブロック図である。 上記顕著マップ画像生成部が処理する画像の一例を示す図である。(a)は顕著マップ画像生成部に入力される入力画像を示しており、(b)は、その出力となる顕著マップ画像を示している。 上記顕著マップ画像生成部が処理する画像の他の例を示す図である。 ある区画にエッジ部分が含まれる入力画像と、当該区画を拡大した拡大図とを示す図である。 上記区画の左側領域および右側領域それぞれの統計情報を示す図である。(a)は、左側領域における各画素の色を表現した数値を横軸とし、その頻度を縦軸として表したグラフ(ヒストグラム)である。(b)は、右側領域における各画素の色を表現した数値を横軸とし、その頻度を縦軸として表したグラフ(ヒストグラム)である。 上記画像処理装置における輪郭抽出処理の流れについて例示したフローチャートである。 一変形例に係る上記画像処理装置の概略的構成を示す機能ブロック図である。 上記変形例に係る画像処理装置が実行する輪郭抽出処理に含まれる各手順により得られる画像マップデータの流れを示す図である。 上記変形例に係る画像処理装置が、入力画像からグローバル輪郭を生成する処理について詳細に示す図である。 上記変形例に係る画像処理装置が、入力画像からローカル輪郭を生成する処理について詳細に示した図である。 上記変形例に係る画像処理装置が備える色チャネル別画像生成部が実行するSub−Processにおける処理の流れについて示す図である。
本発明の一実施形態について、図1〜図12を参照して説明する。まず、図1を用いて、本実施形態に係る画像処理装置1について説明すると次のとおりである。
図1に示す画像処理装置1は、入力画像P1を取得し、取得した入力画像P1に基づいて、当該入力画像P1に含まれる物体(オブジェクト)の輪郭を抽出し、その抽出結果を出力するものである。なお、入力画像P1は、静止画像であっても、動画像であっても構わない。
図1に示すように、画像処理装置1は、記憶部10、制御部20、操作部41、および表示部42を備える。
記憶部10は、各種データおよびプログラムを記憶するものである。記憶部10は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリ(例えばフラッシュメモリ)等の記憶装置を組み合わせることにより実現することができる。記憶部10には、例えば、制御部20において実行されるプログラムや、当該プログラムにおいて処理される各種データ等が格納される。
制御部20は、画像処理装置1における各種機能を統括的に制御するものである。制御部20の制御機能は、制御プログラムをCPU(Central Processing Unit)などの処理装置が実行することによって実現される。例えば、制御部20は、入力画像P1を入力とする輪郭抽出処理を実行する機能を備えている。なお、制御部20が輪郭抽出処理を実行するための構成については後述する。
操作部41は、ユーザから各種の入力を受け付けるものであり、例えば、入力用ボタン、キーボード、テンキー、マウスなどのポインティングデバイス、タッチパネル、その他の入力デバイスによって実現できる。操作部41は、受け付けたユーザの操作に応じて操作データを生成し、生成した操作データを制御部20に送信する。
表示部42は、ユーザに対して、各種の情報提供のための画面表示を行うものである。表示部42は、制御部20から受信した画面データに基づいて、表示画面に文字や画像などの各種の情報を表示する。表示部42は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electroluminescence)ディスプレイなどの表示装置によって実現可能である。表示部42には、例えば、制御部20において実行された輪郭抽出処理の実行結果が表示される。
(制御部の詳細について)
次に、図1をさらに参照して、制御部20の詳細について説明する。図1に示すように、制御部20は、輪郭検出部21および画像アプリケーション31を備えている。
輪郭検出部21は、輪郭抽出処理を実現するための機能を提供する。
画像アプリケーション31は、輪郭検出部21において実行された輪郭抽出処理の実行結果を用いて、さらなる画像処理を行うものである。画像アプリケーション31は、例えば、輪郭抽出結果を用いたパターン認識を行って物体の検出および特定を行う機能を提供する。
より具体的には、画像アプリケーション31は、例えば、輪郭を構成する物体が、顔、人物、ランドマーク、文字、およびその他のオブジェクトのいずれであるかを検出可能に構成することができる。
また、入力画像P1に人物が含まれる場合、画像アプリケーション31は、さらなる画像処理を行って、検出した人物の照合処理および認証処理を行うように構成することもできる。
(輪郭検出部の詳細)
以下、図1をさらに参照しながら、輪郭検出部21の詳細について説明する。図1に示すように、輪郭検出部21は、より詳細には、入力画像取得部22、ローカル輪郭抽出部23、グローバル輪郭抽出部26、重み付き和計算部29、および輪郭画像出力部30を備えている。
入力画像取得部22は、カラーの入力画像P1を取得する。入力画像取得部22は、例示的には、操作部41における入力操作に応じて、画像処理装置1に接続されるデジタルカメラ、あるいはデジタルビデオカメラ等の撮像装置から、リアルタイムで(同期をとって)、または、非同期で、入力画像P1を取得する。しかしながら、入力画像P1の供給元は、特に限定されない。例えば、入力画像取得部22は、記憶部10に格納されている画像データを入力画像P1として取得してもよいし、画像処理装置1に接続される周辺機器から入力画像P1を取得してもよいし、有線または無線の通信ネットワークを介して入力画像P1を取得してもよい。
ローカル輪郭抽出部23は、入力画像P1の局所的な画像特性に応じて入力画像P1に含まれる物体の輪郭を抽出するものである。ローカル輪郭抽出部23は、より詳細には、濃淡画像生成部24および局所エッジ計算部25を備える。
濃淡画像生成部24は、入力画像P1から濃淡情報を抽出し、抽出した濃淡情報に基づく濃淡画像を生成する。濃淡情報の抽出は、例えば色空間からの計算(例えばRGBの平均値)から求めても良いし、色空間の一つのチャネル(例えばR)で画像を構成させるようにしても良い。
局所エッジ計算部25は、濃淡画像生成部24が生成した濃淡画像の局所的なコントラスト情報を用いてコントラスト計算(エッジ計算)を行うことにより局所エッジ画像を生成する。局所エッジ計算部25のコントラスト計算の詳細については、後述する。
グローバル輪郭抽出部26は、入力画像P1の大域的な(グローバルな)画像特性に応じて入力画像P1に含まれる物体の輪郭を抽出するものである。グローバル輪郭抽出部26は、より詳細には、顕著マップ画像生成部27およびグローバルエッジ計算部28を備える。
顕著マップ画像生成部27は、入力画像P1の各部分について人間が視覚的に注目すべき度合いである顕著性(Saliency)を算出し、算出した顕著性に基づいて顕著マップ画像(コントラストマップ)を生成する。
例示的には、顕著マップ画像生成部27は、図3の(a)に示す入力画像P1から、図3の(b)に示す顕著マップ画像P21を生成する。図3の(a)に示す入力画像P1には犬が含まれている。
顕著性の観点からいえば、入力画像P1に含まれる犬は、入力画像P1の全体において注目すべきオブジェクトである。顕著マップ画像生成部27は、このような注目すべきオブジェクトが含まれる領域の顕著性を計算し、画像領域と顕著性とのマッピングを行う。例えば、図3の(b)に示す顕著マップ画像P21では、顕著性のより高い領域は、より明るく示しており、顕著性のより低い領域は、より暗く示している。顕著マップ画像生成部27が顕著マップ画像を生成する方法については、詳しくは後述する。
グローバルエッジ計算部28は、顕著マップ画像生成部27が生成した顕著領域マップ画像が示すグローバルな画像情報を用いてコントラスト計算(エッジ計算)を行うことによりグローバルエッジ画像を生成する。グローバルエッジ計算部28のコントラスト計算の詳細については、後述する。
重み付き和計算部29は、ローカル輪郭抽出部23が生成した局所エッジ画像およびグローバル輪郭抽出部26が生成したグローバルエッジ画像の重み付き和を計算することにより、最終的な輪郭画像を生成する。以下において、この最終的な輪郭画像のことを最終的な輪郭画像と称する。なお、重み付き和計算部29における重み付き和の計算では、任意の重み係数を用いることができる。例えば、局所エッジ画像に対する重み係数を、グローバルエッジ画像に対する重み係数よりも小さくしてもよいし、これとは逆に、大きくしてもよい。
また、重み係数の和は、1であってもよいし、1より大きくても、小さくてもよい。なお、以下に説明するいくつかの処理において重み係数を用いているが、これらについても同様である。
輪郭画像出力部30は、重み付き和計算部29が生成した最終的な輪郭画像を所定の場所に出力する。例えば、輪郭画像出力部30は、最終的な輪郭画像を、表示部42に出力したり、画像アプリケーションに出力したりすることができる。また、輪郭画像出力部30は、最終的な輪郭画像を記憶部10に格納してもよい。
(顕著マップ画像生成部の詳細構成について)
次に、図2を用いて、顕著マップ画像生成部27の詳細構成について説明する。図2は、顕著マップ画像生成部27の機能的構成を示す機能ブロック図である。
図2に示すように顕著マップ画像生成部27は、領域分割部271および顕著性値算出部272を備える。
領域分割部271は、任意の画像自動分割アルゴリズムによって入力画像P1(例えば、図4の(a)に示すもの)を複数の領域に分割する。入力画像P1を自動的に分割するための自動分割アルゴリズムとして、例えば、FelzenszwalbとHuttenlocherとによって、2004年に提案された非特許文献「Efficient graph-based image segmentation」(IJCV, 59(2):167-181)に開示されている方法を採用することができる。もちろん、これに限られず、その他の既存の画像自動分割アルゴリズムを利用してもよい。なお、図示はしていないが、領域分割部271は、入力画像P1をどのように分割したかを示す情報である分割情報を局所エッジ計算部25およびグローバルエッジ計算部28に供給する。
顕著性値算出部272は、領域分割部271において画像自動分割アルゴリズムによって複数の領域に分割された入力画像(例えば、図4の(b)に示すもの)に関して、分割された領域ごとに、当該領域とその他の領域との色の差分の重み付き和を算出することで当該領域の顕著性値を算出(検出)する。顕著性値算出部272が、すべての領域についてそれぞれの顕著性値を算出すると、図4の(c)に示す画像の顕著性を得ることができる。顕著性値算出部272は、このようにして得られた画像の顕著性値に基づいて顕著マップ画像を生成し、生成した顕著マップ画像をグローバルエッジ計算部28に供給する。
以上に示したように、上記画像処理装置1によれば、画像ピクセルの顕著性値を迅速かつ有効的に分析できる。画像処理装置1によれば、複雑かつ変化が多い自然画像を有効的に分析することを可能とするとともに、リアルタイム処理において要求される処理能力の要件を満足させることができる。
また、該画像処理装置1において、分割された複数の領域(1,2,…k…m)における領域rの顕著性S(r)は以下の式(1)に定義される。
式(1)において、D(r,r)およびD(r,r)はそれぞれ、領域rと領域rとの空間距離、および、領域rと領域rとの色の差分であり、i、k、mは自然数であり、w(r)は領域rの重み付き値であり、σ は距離要素影響制御パラメータである。
また、該画像処理装置1において、距離要素影響制御パラメータσ は大きいほど、距離要素の影響は小さくなる。一方、距離要素影響制御パラメータσ は小さいほど、距離要素の影響は大きくなる。画像ピクセルの空間座標を0〜1に正規化(線形ズーミング)した場合、前記距離要素影響制御パラメータσ は0.01以上10以下の値を取りうる。好ましくは、距離要素影響制御パラメータσ は0.1以上1.0以下である。σ =0.4のとき、優れた画像顕著性検出(計算)効果を得ることができる。
また、該画像処理装置1において、前記領域rに含まれるピクセルの数を前記領域rの重み付き値w(r)としてもよい。
また、該画像処理装置1において、前記領域rと領域rとの色の差分D(r,r)は以下の式(2)に定義される。
式(2)において、f(C,i)は領域rに含まれるn種類の色のi番目のCの出現頻度であり、D(C1,i,C2,j)は二つの色C1,i,C2,jの色空間におけるユークリッド距離(Euclidean distance)であり、k={1,2}である。
また、顕著性値算出部272において、上記顕著性値は、色チャネルごとに2ビット以上256ビット以下のカラーで計算することができる。採用されたカラーのビット(レベル)が低いほど、計算の量が少なくなるが、精度が悪くなる。採用されたカラーのビット(レベル)が高いほど、計算の量が多くなるが、精度がよくなる。
色チャネルごとに256ビットのフルカラーを採用しなくてもよく、計算を高速化する目的で、例えば、好ましくは色チャネルごとに8ビット以上128ビット以下のカラーで近似することも可能である。
なお、色チャネルごとに12ビットカラーで近似すると、優れた効果を得ることができる。すなわち、検出された画像顕著性の精度を確保しながら、計算の量を大幅に低減することができる。
以上において、顕著マップ画像生成部27の詳細構成について説明したが、これに限られない。顕著マップ画像生成部27では、任意の顕著マップ画像生成手法を採用することができる。
(コントラスト計算)
次に、図5および6を用いて、局所エッジ計算部25およびグローバルエッジ計算部28におけるコントラスト(エッジ計算)について説明する。
図5に、区画W1にエッジ部分が含まれる入力画像P1と、当該区画W1を拡大した拡大図とを示している。なお、図5に示す区画W1は、発明を理解するための単なる例示であり、入力画像P1と、区画W1の拡大図との間で、厳密な意味での画素数の対応や、画素の位置の対応は意識していない。また、区画W1の大きさや、入力画像P1における位置の取り方は任意である。
また、以下において、局所エッジ計算部25がコントラスト計算を行う入力となる画像は、濃淡画像であり、グローバルエッジ計算部28がコントラスト計算を行う入力となる画像は、顕著マップ画像P21である。
以下において、まず、グローバルエッジ計算部28のコントラスト計算について説明する。
グローバルエッジ計算部28は、領域分割部271から供給される分割情報を用いて、領域分割部271における入力画像P1の分割と同じ単位で顕著マップ画像P21を分割する。そして、グローバルエッジ計算部28は、顕著マップ画像P21を分割して得られた複数の領域のそれぞれについて、所定の順番で、コントラスト計算を行う。なお、以下において、コントラスト計算を行う対象となる領域のことを注目領域と称する。
以下において、図5および図6を参照しながら、区画W1における垂直方向のエッジを検出する例について説明する。
図5に示す区画W1は、注目領域であるとする。ここで、グローバルエッジ計算部28は、注目領域である区画W1を、縦(垂直)方向の線Lを境界として、右側領域RRと、左側領域RLとに分割する。グローバルエッジ計算部28は、区画W1に対する右側領域RRおよび左側領域RLへの分割を任意に行うことができる。例示的には、グローバルエッジ計算部28は、区画W1を、右側領域RRおよび左側領域RLへ等分に分割する。
グローバルエッジ計算部28は、右側領域RRと、左側領域RLとのそれぞれの領域について領域に含まれる画素の色の統計を計算することで、右側領域RRと、左側領域RLとのそれぞれの領域について支配的な色と、その度合いとを算出する。
図6を用いて、より具体的に説明すると次のとおりである。図6の(a)は、左側領域RLにおける各画素の色を表現した数値を横軸とし、その頻度を縦軸として表したグラフ(ヒストグラム)である。図6の(b)は、右側領域RRにおける各画素の色を表現した数値を横軸とし、その頻度を縦軸として表したグラフ(ヒストグラム)である。
ここで、横軸の色を表現した数値のなかで最も頻度が高いものを支配的な色(dominant color)と称する。また、色を表現した数値とは、色空間上における色を示すものであり、例えば、YC色空間(輝度および色差成分による色の表現)の何れかのチャネルの値を示すものであってもよい。また、色を表現した数値は、例えば、RGB色空間の何れかのチャネルの値を示すものであってもよい。
なお、色を表現した数値は、色空間の複数のチャネルを統合した複合的なチャネルの値を示すものであってもよい。例えば、RGB色空間の表現におけるR,G,Bチャネルのうちの2つまたは3つを統合した複合的なチャネルの値を示すものであってもよい。
グローバルエッジ計算部28は、次の基準(1)および(2)に従ってコントラスト計算を行ってエッジのスコアを算出する。
(1)右側領域RRと、左側領域RLとの2つの領域の間で、支配的な色の差が大きいほど、区画W1は縦方向のエッジ(輪郭)を含んでいる可能性が高い。
(2)右側領域RRと、左側領域RLとのそれぞれにおいて、より一色的であれば、区画W1は縦方向のエッジ(輪郭)を含んでいる可能性が高い。
そして、グローバルエッジ計算部28は、上記基準(1)および(2)を表わした以下の式(3)から、エッジのスコアを算出する。
(dominant color L - dominant color R) * dominance L * dominance R ・・・(3)
上記式(3)において、(dominant color L - dominant color R)の項は、局所エッジ計算部25は、左側領域RLにおける支配的な色(dominant color L)と、右側領域RRにおける支配的な色(dominant color R)との差分である。この項は、上記基準(1)の支配的な色の差(すなわち、距離)をエッジのスコアに反映するために算出される。なお、この距離は、例示的には、0〜1の値をとるように正規化される。例えば、左側領域RLに含まれる色と右側領域RRに含まれる色との間で最も離れている2つの間の距離を“1”として、この距離を基準に正規化を行ってもよい。
また、dominance Lの項、および、dominance Rの項は、それぞれ、左側領域RLにおける支配的な色の度合い、および、右側領域RRにおける支配的な色の度合いである。これは、上記基準(2)の一色的の度合いをエッジのスコアに反映するために算出される。すなわち、dominance L、または、dominance Rが大きいほど、左側領域RLまたは右側領域RRの領域内の色がより一色的であることを示す。
なお、例示的には、dominance Lおよびdominance Rは、それぞれ、0〜1の値をとるように正規化される。例えば、それぞれの領域に含まれる画素の数に対する支配的な色の数の割合を支配的な色の度合いとすることができる。
以上に説明した3つの項は、単独で、あるいは、2つ以上の組み合わせで用いることも可能である。また、上記式(3)により算出されるエッジのスコアは、0〜1の範囲に正規化されていてもよい。
グローバルエッジ計算部28は、上記式(3)を用いて得られるエッジのスコアを注目領域ごとにマッピングしたグローバルエッジ画像を生成する。なお、グローバルエッジ計算部28は、注目領域である区画W1における水平方向のエッジを検出するため、区画W1を水平方向に(上下に)分割して、上記式(3)に従って上記エッジのスコアを算出してもかまわない。すなわち、グローバルエッジ計算部28は、エッジを検出する方向に応じて、区画W1を任意に2つの領域に分割して、上記式(3)に従って上記エッジのスコアを算出してもかまわない。
また、グローバルエッジ計算部28は、画素ごとに上記コントラスト計算を実行してもよい。例えば、処理対象となる注目画素を含む所定範囲を上述の区画W1として、上記のコントラスト計算を行うことができる。
なお、局所エッジ計算部25においても、上述したグローバルエッジ計算部28のコントラスト計算手法(すなわち、図5および6に示すコントラスト計算手法)と同一のものを採用することができる。すなわち、局所エッジ計算部25は、上記式(3)を用いて得られるスコアをマッピングした局所エッジ画像を生成してもよい。
また、以下の実施形態では、局所エッジ計算部25およびグローバルエッジ計算部28の間で、上述した同一のコントラスト計算手法を採用する例について説明する。しかしながら、これに限られず、局所エッジ計算部25およびグローバルエッジ計算部28の間で、異なるコントラスト計算手法を採用してもかまわない。また、局所エッジ計算部25およびグローバルエッジ計算部28が、上述したコントラスト計算手法以外の計算手法(例えば、従来の計算手法)を用いても構わない。
(顔画像登録処理の流れ)
次に、図7を用いて、画像処理装置1における輪郭抽出処理の流れの一例について説明する。図7は、画像処理装置1における輪郭抽出処理の流れについて例示したフローチャートである。
輪郭抽出処理が開始されると、まず、入力画像取得部22が、入力画像P1を取得する(S10)。
続いて、ローカル輪郭抽出部23およびグローバル輪郭抽出部26によってエッジ画像が生成される。
すなわち、ローカル輪郭抽出部23において、濃淡画像生成部24が、濃淡画像P11を生成すると(S11)、局所エッジ計算部25が、生成された濃淡画像P11を用いたコントラスト計算によって局所エッジ画像P12を生成する(S12)。
その一方で、グローバル輪郭抽出部26において、顕著マップ画像生成部27が、顕著マップ画像P21を生成すると(S21)、グローバルエッジ計算部28が、生成された顕著マップ画像P21を用いたコントラスト計算によってグローバルエッジ画像P22を生成する(S22)。
なお、S11、S12の処理と、S21、S22の処理とは、並列に実行されてもよいし、いずれか一方を先に実行し、他方を後に実行するような逐次実行であってもよい。
次に、重み付き和計算部29が、局所エッジ計算部25が生成した局所エッジ画像P12と、グローバルエッジ計算部28が生成したグローバルエッジ画像P22との重み付き和により最終的な輪郭画像P30を生成する(S30)。その後、輪郭抽出処理は終了する。
(作用・効果)
以上に示したように、本実施形態に係る画像処理装置1は、入力画像P1に示される物体の輪郭を示す輪郭画像P30を生成する画像処理装置1であって、入力画像P1に含まれる領域と該領域の近隣画素との間のコントラストに基づいて、入力画像P1の局所的なエッジを示す局所エッジ画像P12を生成する局所エッジ計算部25と、入力画像P1に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの入力画像P1全体に対する顕著マップ画像P21を生成して、生成した顕著マップ画像P21に含まれるエッジを示すグローバルエッジ画像P22を生成するグローバルエッジ計算部28と、局所エッジ画像P12と、グローバルエッジ画像P22とを重み付け和によって統合することにより輪郭画像P30を生成する重み付け和計算部29と、を備える構成である。
上記構成によれば、局所的なエッジ情報からノイズエッジを除去して、かつ、重要なオブジェクト輪郭を強調した輪郭画像を得ることができる。
〔変形例〕
以下では、図8〜図11を用いて、本発明に係る画像処理装置1の好ましい変形例について説明する。以下に示す変形例に係る画像処理装置1Aは、入力画像P1に対して、平滑度合いを段階的に変更したBilateralフィルタを施して得られた画像(以下、Bilateral画像と称する)を用いて、ローカル輪郭およびグローバル輪郭を取得する。
Bilateralフィルタは、Gaussianフィルタのように、画像を平滑化するためのフィルタである。Gaussianフィルタは、画像に含まれるエッジの部分を含め、画像が全体的に平滑化されてしまうのに対して、Bilateralフィルタは、画像に含まれるエッジの部分を鮮明なままに、エッジ以外の部分を平滑化することができるという特性を有している。
(変形例に係る画像処理装置の構成)
図8に、本変形例に係る画像処理装置1の構成を示す。以下では、図8に示す画像処理装置1Aと、図1に示した画像処理装置1との相違点について説明する。
図8に示す画像処理装置1Aは、図1に示した画像処理装置1が備えるローカル輪郭抽出部23およびグローバル輪郭抽出部26をそれぞれ変形したローカル輪郭抽出部23Aおよびグローバル輪郭抽出部26Aを備える。
ローカル輪郭抽出部23Aは、ローカル輪郭抽出部23において、平滑化画像生成部32を追加するとともに、濃淡画像生成部24および局所エッジ計算部25を、ぞれぞれ、色チャネル別画像生成部24Aおよびローカル輪郭計算部25Aに変更したものである。
グローバル輪郭抽出部26Aは、グローバル輪郭抽出部26において、平滑化画像生成部33を追加するとともに、顕著マップ画像生成部27およびグローバルエッジ計算部28を、それぞれ、顕著マップ画像生成部27Aおよびグローバル輪郭計算部28Aに変更したものである。
なお、図1に示した画像処理装置1のものと同じ機能を有する部材については、同一の符号を付与している。これらの部材については、既に図1を用いて説明済みであるので、ここではその説明を省略する。
図8に示す画像処理装置1Aと、図1に示した画像処理装置1との間で相違する構成についてさらに説明すると次のとおりである。
まず、ローカル輪郭抽出部23Aについて説明する。平滑化画像生成部32は、入力画像P1に対して、平滑度合いを段階的に変更したBilateralフィルタを施して複数のBilateral画像を取得する。
色チャネル別画像生成部24Aは、ローカル輪郭抽出部23Aが生成した複数のBilateral画像のそれぞれについて、色チャネル別に輪郭マップを生成し、生成した輪郭マップに基づいてBilateral画像の輪郭マップを生成する。
ローカル輪郭計算部25Aは、複数のBilateral画像のそれぞれについて生成された輪郭マップに基づいてローカル輪郭画像を生成する。
次に、グローバル輪郭抽出部26Aについて説明する。平滑化画像生成部33は、入力画像P1に対して、平滑度合いを段階的に変更したBilateralフィルタを施して複数のBilateral画像を取得する。なお、平滑化画像生成部33は、平滑化画像生成部32と同様の段階の平滑化度合いで複数のBilateral画像を生成してもよいし、異なる段階の平滑化度合いで複数のBilateral画像を生成してもよい。また、グローバル輪郭抽出部26Aにおいて、平滑化画像生成部32が出力する複数のBilateral画像を流用してもよく、この場合、平滑化画像生成部33は、省略してもよい。
顕著マップ画像生成部27Aは、複数のBilateral画像のそれぞれについて顕著マップ画像を生成する。
グローバル輪郭計算部28Aは、複数のBilateral画像のそれぞれについて生成された顕著マップから輪郭マップを生成し、生成した輪郭マップに基づいてグローバル輪郭画像を生成する。
(変形例の動作の概要)
図9を用いて、変形例の動作の概要について説明する。図9は、本変形例に係る画像処理装置1Aが実行する輪郭抽出処理に含まれる各手順により得られる画像マップデータの流れを示す図である。
図9に示すように、画像処理装置1Aは、入力画像P1から輪郭マップA(以下において、ローカル輪郭P12’と称する)および輪郭マップB(以下において、グローバル輪郭P22’と称する)を生成する。すなわち、ローカル輪郭抽出部23Aが、ローカル輪郭P12’を生成し(PROC11)、グローバル輪郭計算部28Aが、グローバル輪郭P22’を生成する(PROC21)。
また、画像処理装置1Aは、ローカル輪郭P12’およびグローバル輪郭P22’の重み付け和により最終的な輪郭マップP30’を生成する(PROC11、PROC22)。
このように、本変形例では、画像処理装置1Aは、局所的な輪郭情報と、グローバルな輪郭情報とを組み合わせて最終的な輪郭情報を生成する。
また、図9に示した本変形例の輪郭抽出処理は、概要レベルでは、これまで説明した輪郭抽出処理と同様であるようにも見える。しかしながら、ローカル輪郭P12’およびグローバル輪郭P22’の生成方法の詳細が、これまで説明した輪郭抽出処理と異なる。以下において、その詳細について説明する。
[グローバル輪郭の生成]
図10を用いて、グローバル輪郭P22’を生成する方法について説明する。図10は、画像処理装置1Aが、入力画像P1からグローバル輪郭P22’を生成する処理PROC21について詳細に示した図である。
図10に示すように、まず、平滑化画像生成部33は、入力画像P1から、平滑度合いを段階的に変更したBilateralフィルタを適用したN個(Nは、1以上の整数である)のBilateral画像P221(1)〜P221(N)を生成する(PROC221(1)〜P221(N))。
ここで、Bilateral画像P221(1)〜P221(N)にかけて、適用されるフィルタの強度が、より弱いものからより強いものとなっていてもよいし、その逆でも構わない。平滑化画像生成部33が適用するフィルタの強度は、フィルタの制御パラメータを変更することにより任意に設定することができる。
フィルタの強度が弱い場合、Bilateral画像には、強度の強いエッジだけでなく強度の弱いエッジも平滑化されず残る。これに対して、フィルタの強度が強い場合、Bilateral画像には、強度の弱いエッジは平滑化される一方で、強度の強いエッジが残る。
すなわち、このようにして、段階的にフィルタの強度を強めてBilateralフィルタを適用することで得られるBilateral画像P221(1)〜P221(N)には、各段階のフィルタの強度に対応する強度のエッジが含まれる。
次に、顕著マップ画像生成部27Aが、Bilateral画像P221(1)〜P221(N)について、それぞれ顕著領域マップP222(1)〜P222(N)を生成する(PROC222(1)〜PROC222(N))。顕著マップ画像生成部27Aが顕著領域マップP222を生成する方法については、顕著マップ画像生成部27が顕著マップ画像を生成する方法と同様であるので、ここではその説明を省略する。
次に、グローバル輪郭計算部28Aが、顕著領域マップP222(1)〜P222(N)について、それぞれ輪郭マップP223(1)〜P223(N)を生成する(PROC223(1)〜PROC223(N))。
なお、グローバル輪郭計算部28Aは、顕著領域マップP222(1)〜P222(N)に対して、上述したコントラスト計算等を実行することにより輪郭マップP223(1)〜P223(N)を生成することができる。
さらに、グローバル輪郭計算部28Aは、輪郭マップP223(1)〜P223(N)の重み付け和によりグローバル輪郭P22’を生成する(PROC214(1)〜PROC214(N))。なお、グローバル輪郭計算部28Aが重み付け和に用いる重み係数は任意に設定することができる。例えば、重み係数として、フィルタ強度に応じた値を設定することができる。重み係数として、適用されたフィルタ強度に応じて大きな値を設定してもよいし、逆に適用されたフィルタ強度に応じて小さな値を設定してもよい。
[ローカル輪郭の生成]
図11を用いて、ローカル輪郭P12’を生成する方法について説明する。図11は、画像処理装置1Aが、入力画像P1からローカル輪郭P12’を生成する処理PROC11について詳細に示した図である。
図11に示すように、まず、平滑化画像生成部32は、入力画像P1から、平滑度合いを段階的に変更したBilateralフィルタを適用したN個(Nは、1以上の整数である)のBilateral画像P121(1)〜P121(N)を生成する(PROC121(1)〜P121(N))。なお、平滑化画像生成部32におけるBilateral画像の生成については、平滑化画像生成部33について説明したとおりであるので、ここではその説明を省略する。ただし、平滑化画像生成部32は、平滑化画像生成部33が用いたフィルタパラメータ(フィルタ強度)とは異なるフィルタパラメータ(フィルタ強度)を用いることができる。また、平滑化画像生成部32は、平滑化画像生成部33が生成したBilateral画像の数と、異なる数のBilateral画像を生成してもよい。
次に、色チャネル別画像生成部24Aが、Bilateral画像P121(1)〜P121(N)について、それぞれ輪郭マップP122(1)〜P122(N)を生成する(PROC122(1)〜PROC122(N))。なお、Bilateral画像P121(1)〜P121(N)から、輪郭マップP122(1)〜P122(N)を生成するSub−Process:PROC122(1)〜PROC122(N)の詳細については、後述する。
次に、ローカル輪郭計算部25Aが、輪郭マップP122(1)〜P122(N)の重み付け和によりグローバル輪郭P12’を生成する(PROC123(1)〜PROC123(N))。ローカル輪郭計算部25Aが実行するPROC123(1)〜PROC123(N)は、グローバル輪郭計算部28Aが実行するPROC214(1)〜PROC214(N)と、入力となる輪郭マップが異なることを除き同様である。
[Sub−Processの詳細]
図12を用いて、色チャネル別画像生成部24Aが実行するSub−Processについて詳細に説明する。以下では、色チャネル別画像生成部24Aが、入力となるBilateral画像P121の画像成分を、輝度Lおよび色差成分A、Bの各チャネルに分解する構成について説明する。しかしながら、これに限られず、色チャネル別画像生成部24Aは、入力となるBilateral画像P121を、任意の色の表現(色空間)におけるチャネルに分解してよい。例えば、色チャネル別画像生成部24Aは、Bilateral画像P121を、RGB色空間におけるR、G、およびBの各チャネルに分解することができる。
色チャネル別画像生成部24Aは、Bilateral画像P121の画像成分を、L、A、およびBの各チャネルに分解することにより、Lチャネル画像P1221_L、Aチャネル画像P1221_A、および、Bチャネル画像P1221_Bを生成する(PROC1221_L、PROC1221_A、およびPROC1221_B)。
次に、ローカル輪郭計算部25Aが、Lチャネル画像P1221_L、Aチャネル画像P1221_A、および、Bチャネル画像P1221_Bについて、それぞれ、L輪郭マップP1212_L、A輪郭マップP1212_A、およびB輪郭マップP1212_Bを生成する(PROC1222_L、PROC1222_A、およびPROC1222_B)。
なお、ローカル輪郭計算部25Aは、Lチャネル画像P1221_L、Aチャネル画像P1221_A、および、Bチャネル画像P1221_Bに対して、上述したコントラスト計算等を実行することによりL輪郭マップP1212_L、A輪郭マップP1212_A、およびB輪郭マップP1212_Bを生成することができる。
さらに、ローカル輪郭計算部25Aは、L輪郭マップP1212_L、A輪郭マップP1212_A、およびB輪郭マップP1212_Bの重み付け和により、入力となるBilateral画像P121に対応する輪郭マップP122を生成する(PROC1223_L、PROC1223_A、およびPROC1223_B)。ローカル輪郭計算部25Aは、当該重み付け和における重み係数を任意に設定することができる。
なお、以上では、ローカル輪郭P12’生成処理(PROC11)およびグローバル輪郭P22’生成処理(PROC22)の両方において、多段的な平滑化画像を用いる構成について説明した。しかしながら、ローカル輪郭P12’生成処理(PROC11)およびグローバル輪郭P22’生成処理(PROC22)のいずれか一方において、多段的な平滑化画像を用いるように構成することも可能である。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔ソフトウェアによる実現例〕
最後に、画像処理装置1および1Aの各ブロック、特に輪郭検出部21および輪郭検出部21Aは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、画像処理装置1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像処理装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記画像処理装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、画像処理装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、画像に示される対象物の輪郭検出に用いることができるので、プリンタ、スキャナ、デジタルカメラ、デジタルテレビジョン受像機、スマートフォン、パーソナルコンピュータ等のデジタル画像機器や、輪郭検出技術を用いたセキュリティシステム等に好適に利用することができる。
1 画像処理装置
10 記憶部
20 制御部
21 輪郭検出部
22 入力画像取得部
23 ローカル輪郭抽出部(局所エッジ画像生成手段)
24 濃淡画像生成部(局所エッジ画像生成手段)
25 局所エッジ計算部(局所エッジ画像生成手段)
26 グローバル輪郭抽出部(顕著エッジ画像生成手段)
27 顕著マップ画像生成部(顕著エッジ画像生成手段)
28 グローバルエッジ計算部(顕著エッジ画像生成手段)
29 重み付け和計算部(輪郭画像生成手段)
30 輪郭画像出力部

Claims (11)

  1. 入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理装置であって、
    上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成手段と、
    上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成手段と、
    上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成手段と、を備えることを特徴とする画像処理装置。
  2. 上記顕著エッジ画像生成手段は、上記入力画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの上記入力画像全体に対する上記コントラストマップ画像を生成する、請求項1に記載の画像処理装置。
  3. 上記局所エッジ画像生成手段は、所定範囲の領域を所定の方向に分割し得られる2つの領域について、一方の領域における支配的な色と、他方の領域における支配的な色との差を計算して得られた差分を用いて、上記局所エッジ画像を生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 上記局所エッジ画像生成手段は、
    上記差分と、
    上記2つの領域について、それぞれの領域における支配的な色の度合いを乗じて得られた値と、を乗ずることにより得られた結果を用いて、上記局所エッジ画像を生成することを特徴とする請求項3に記載の画像処理装置。
  5. 上記入力画像は、段階的に平滑化が施された複数の平滑化画像であり、
    上記顕著エッジ画像生成手段は、上記平滑化画像ごとに、該平滑化画像に含まれる複数の領域について、該領域と入力画像全体との間のコントラストを算出し、該複数の領域それぞれの該平滑化画像全体に対するコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示すエッジ画像を生成し、上記複数の平滑化画像について生成した該エッジ画像を統合することにより上記顕著エッジ画像を生成することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 上記入力画像は、段階的に平滑化が施された複数の平滑化画像であり、
    上記局所エッジ画像生成手段は、上記複数の平滑化画像のそれぞれについて、該平滑化画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて該平滑化画像の局所的なエッジを示すエッジ画像を生成し、上記複数の平滑化画像について生成した上記エッジ画像を統合することにより上記局所エッジ画像を生成することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  7. 上記局所エッジ画像生成手段は、上記平滑化画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて該平滑化画像の局所的なエッジを示すエッジ画像を生成する際に、
    上記平滑化画像の色チャネルごとにコントラスト計算を実行して得られるエッジ画像である色チャネルエッジ画像を生成するとともに、生成した各チャネルの色チャネルエッジ画像を統合することにより上記平滑化画像の局所的なエッジ画像を生成することを特徴とする請求項6に記載の画像処理装置。
  8. 上記平滑化画像は、バイラテラルフィルタによる平滑化が施されたものであることを特徴とする請求項5から7のいずれか1項に記載の画像処理装置。
  9. 入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理プログラムであって、
    上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、
    上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、
    上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含む処理をコンピュータに実行させるための画像処理プログラム。
  10. 請求項9に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  11. 入力画像に示される物体の輪郭を示す輪郭画像を生成する画像処理方法であって、
    上記入力画像に含まれる領域と該領域の近隣領域との間のコントラストに基づいて、上記入力画像の局所的なエッジを示す局所エッジ画像を生成する局所エッジ画像生成ステップと、
    上記入力画像における注目すべき顕著領域を示すコントラストマップ画像を生成して、生成した該コントラストマップ画像に含まれるエッジを示す顕著エッジ画像を生成する顕著エッジ画像生成ステップと、
    上記局所エッジ画像と、上記顕著エッジ画像とを統合することにより上記輪郭画像を生成する輪郭画像生成ステップと、を含むことを特徴とする画像処理方法。
JP2012201971A 2012-09-13 2012-09-13 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法 Active JP6015267B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012201971A JP6015267B2 (ja) 2012-09-13 2012-09-13 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
EP13183786.6A EP2709063A1 (en) 2012-09-13 2013-09-10 Image processing device, computer-readable recording medium, and image processing method
KR1020130109245A KR101531966B1 (ko) 2012-09-13 2013-09-11 화상 처리장치, 화상 처리프로그램을 기록한 컴퓨터-리더블 기록매체, 및 화상 처리방법
CN201310416847.3A CN103679697A (zh) 2012-09-13 2013-09-13 图像处理装置及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201971A JP6015267B2 (ja) 2012-09-13 2012-09-13 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法

Publications (2)

Publication Number Publication Date
JP2014056507A true JP2014056507A (ja) 2014-03-27
JP6015267B2 JP6015267B2 (ja) 2016-10-26

Family

ID=49118438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201971A Active JP6015267B2 (ja) 2012-09-13 2012-09-13 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法

Country Status (4)

Country Link
EP (1) EP2709063A1 (ja)
JP (1) JP6015267B2 (ja)
KR (1) KR101531966B1 (ja)
CN (1) CN103679697A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139810A (ja) * 2019-05-15 2019-08-22 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム
JP2021108155A (ja) * 2020-05-29 2021-07-29 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018214151A1 (zh) * 2017-05-26 2018-11-29 深圳配天智能技术研究院有限公司 一种图像处理方法、终端设备及计算机存储介质
EP3502955A1 (en) * 2017-12-20 2019-06-26 Chanel Parfums Beauté Method and system for facial features analysis and delivery of personalized advice
EP3503528B1 (en) * 2017-12-21 2020-10-07 Axis AB Determination of a contrast value for a digital image
CN109561260A (zh) * 2018-12-28 2019-04-02 深慧视(深圳)科技有限公司 一种自动曝光控制方法
CN110414333B (zh) * 2019-06-20 2024-07-19 平安科技(深圳)有限公司 一种图像边界的检测方法及装置
WO2021070111A1 (en) 2019-10-11 2021-04-15 3M Innovative Properties Company Apparatus and methods for preprocessing images having elements of interest
CN111080562B (zh) * 2019-12-06 2022-12-20 合肥科大智能机器人技术有限公司 一种基于增强图像对比的变电场所悬挂物识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307537A (ja) * 1991-09-12 1993-11-19 Fuji Photo Film Co Ltd 被写体輪郭線抽出方法
JP2000011188A (ja) * 1998-04-20 2000-01-14 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2000076468A (ja) * 1998-09-03 2000-03-14 Dainippon Screen Mfg Co Ltd 画像の輪郭抽出方法、装置、および記録媒体
JP2001043376A (ja) * 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP2007318408A (ja) * 2006-05-25 2007-12-06 Fuji Xerox Co Ltd 画像処理装置、画像形成装置および画像処理方法
JP2008077626A (ja) * 2006-03-31 2008-04-03 Sony Corp 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
JP2008205603A (ja) * 2007-02-16 2008-09-04 Mitsuba Corp 画像処理装置および画像処理方法
JP2011034178A (ja) * 2009-07-30 2011-02-17 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011509003A (ja) * 2007-12-20 2011-03-17 トムソン ライセンシング 画像取り込み支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683960A (ja) * 1992-09-01 1994-03-25 Matsushita Electric Ind Co Ltd 画像中の濃度境界構成画素抽出方法
KR100817656B1 (ko) * 2005-03-15 2008-03-31 오므론 가부시키가이샤 화상 처리 방법, 3차원 위치 계측 방법 및 화상 처리 장치
CN102609911B (zh) * 2012-01-16 2015-04-15 北方工业大学 基于边缘的图像显著性检测
CN102663714B (zh) * 2012-03-28 2014-06-25 中国人民解放军国防科学技术大学 基于显著性的红外图像强固定模式噪声抑制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307537A (ja) * 1991-09-12 1993-11-19 Fuji Photo Film Co Ltd 被写体輪郭線抽出方法
JP2000011188A (ja) * 1998-04-20 2000-01-14 Fuji Photo Film Co Ltd 画像処理方法および装置
JP2000076468A (ja) * 1998-09-03 2000-03-14 Dainippon Screen Mfg Co Ltd 画像の輪郭抽出方法、装置、および記録媒体
JP2001043376A (ja) * 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP2008077626A (ja) * 2006-03-31 2008-04-03 Sony Corp 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
JP2007318408A (ja) * 2006-05-25 2007-12-06 Fuji Xerox Co Ltd 画像処理装置、画像形成装置および画像処理方法
JP2008205603A (ja) * 2007-02-16 2008-09-04 Mitsuba Corp 画像処理装置および画像処理方法
JP2011509003A (ja) * 2007-12-20 2011-03-17 トムソン ライセンシング 画像取り込み支援装置
JP2011034178A (ja) * 2009-07-30 2011-02-17 Sony Corp 画像処理装置および画像処理方法、並びにプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6016022936; Songhe Feng, De Xu, Xu Yang: 'Attention-driven salient edge(s) and region(s) extraction with application to CBIR' Signal Processing 90 (2010) Volume 90, Issue 1, 201001, P.1-15, European Association for Signal Processing *
JPN6016022937; 坂元 佑一郎: '複雑な背景を持つカラー文書画像からの文字抽出' 電子情報通信学会技術研究報告 Vol.111 No.441 ITS2011-53, IE2011-129 (2012-02), 20120213, P.307-312, 社団法人電子情報通信学会 *
JPN6016022938; 小川 真人: '適応的バイラテラルフィルタを用いた画像融合' 電子情報通信学会論文誌 D Vol.J93-D No.9, 20100901, P.1697-1699, 社団法人電子情報通信学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139810A (ja) * 2019-05-15 2019-08-22 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム
JP2021108155A (ja) * 2020-05-29 2021-07-29 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体
JP7054746B2 (ja) 2020-05-29 2022-04-14 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体

Also Published As

Publication number Publication date
CN103679697A (zh) 2014-03-26
KR101531966B1 (ko) 2015-06-26
JP6015267B2 (ja) 2016-10-26
EP2709063A1 (en) 2014-03-19
KR20140035273A (ko) 2014-03-21

Similar Documents

Publication Publication Date Title
JP6015267B2 (ja) 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
Li et al. Haze and thin cloud removal via sphere model improved dark channel prior
Li et al. Edge-preserving decomposition-based single image haze removal
Gupta et al. Minimum mean brightness error contrast enhancement of color images using adaptive gamma correction with color preserving framework
Kim et al. Optimized contrast enhancement for real-time image and video dehazing
CN108122208B (zh) 用于对对象分割的前景掩模校正的图像处理设备和方法
Singh et al. Image enhancement via median-mean based sub-image-clipped histogram equalization
US20150071532A1 (en) Image processing device, computer-readable recording medium, and image processing method
CN106682632B (zh) 用于处理人脸图像的方法和装置
CN105279746B (zh) 一种基于双边滤波的多曝光图像融合方法
WO2017092431A1 (zh) 基于肤色的人手检测方法及装置
Rahman et al. Image enhancement in spatial domain: A comprehensive study
US9767387B2 (en) Predicting accuracy of object recognition in a stitched image
Chaudhry et al. A framework for outdoor RGB image enhancement and dehazing
Thanh et al. Single image dehazing based on adaptive histogram equalization and linearization of gamma correction
Yeh et al. Efficient image/video dehazing through haze density analysis based on pixel-based dark channel prior
US20150110391A1 (en) Method and apparatus for scene segmentation from focal stack images
CN113221767B (zh) 训练活体人脸识别模型、识别活体人脸的方法及相关装置
US20170061664A1 (en) Method for generating image and image generation system
Wan et al. Joint image dehazing and contrast enhancement using the HSV color space
JP5286215B2 (ja) 輪郭抽出装置、輪郭抽出方法、および輪郭抽出プログラム
CN114862729A (zh) 图像处理方法、装置、计算机设备和存储介质
Amil et al. Bilateral histogram equalization with pre-processing for contrast enhancement
CN113052923A (zh) 色调映射方法、装置、电子设备和存储介质
CN108564534A (zh) 一种基于检索的图像对比度调整方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160912

R150 Certificate of patent or registration of utility model

Ref document number: 6015267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150