JP6307873B2 - 対象線検出装置、方法、及びプログラム - Google Patents

対象線検出装置、方法、及びプログラム Download PDF

Info

Publication number
JP6307873B2
JP6307873B2 JP2013265957A JP2013265957A JP6307873B2 JP 6307873 B2 JP6307873 B2 JP 6307873B2 JP 2013265957 A JP2013265957 A JP 2013265957A JP 2013265957 A JP2013265957 A JP 2013265957A JP 6307873 B2 JP6307873 B2 JP 6307873B2
Authority
JP
Japan
Prior art keywords
line
detection
pixel
target
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013265957A
Other languages
English (en)
Other versions
JP2015121985A (ja
Inventor
悟 牛嶋
悟 牛嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013265957A priority Critical patent/JP6307873B2/ja
Priority to US14/547,260 priority patent/US9256800B2/en
Priority to CN201410790318.4A priority patent/CN104732197B/zh
Publication of JP2015121985A publication Critical patent/JP2015121985A/ja
Application granted granted Critical
Publication of JP6307873B2 publication Critical patent/JP6307873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、対象線検出装置、対象線検出方法、及び対象線検出プログラムに関する。
従来、顔写真画像における両目の夫々の位置を検出し、両目の夫々の位置に基づいて、顎の部位と顎の近傍領域とからなる顎範囲を推定し、非肌色画素を除去した顎範囲内において、顎の位置を検出する画像処理方法が提案されている。この画像処理方法では、推定した顎範囲内の各画素の画素値を、顔の縦方向に沿った軸に対して射影を行って、軸方向の高さ毎の射影情報を得る。そして、射影情報に基づいて、高さ毎のエッジ強度を求め、最も大きいエッジ強度を有する高さが対応する画素の位置を顎の位置として決定している。
また、与えられたカラー画像から顎の位置を算出する顎位置算出装置が提案されている。この装置では、カラー画像から肌色を有する顔を検出し、検出された顔に基づいて、顔に含まれる両目の中心位置および口の中心位置から基準線を算出する。そして、両目の中心位置、口の中心位置、および顎の位置の統計的な位置関係を示すデータを取得し、位置関係を示すデータと算出された基準線から顔の顎の位置である率を算出する。さらに、基準線上に肌色の画素が存在する率を算出し、更に基準線上の輝度変化の率を算出し、算出されたそれぞれの率を組み合わせた結果から、顎の位置を算出している。
また、元画像データの画素ごとに周辺画素との輝度差を求め、輝度の勾配に基づいて、輪郭画像データにおけるその画素の輝度を決定するための輪郭度を評価する画像処理装置が提案されている。この画像処理装置では、輝度の勾配の絶対値が閾値よりも大きい画素の輪郭度を、輝度の勾配の傾き方向に応じて所定の方向に移動させる。
特開2006−133824号公報 特開2009−086824号公報 特開2008−083820号公報
顎位置を検出する従来技術では、エッジ強度や輝度変化率を用いて顎位置を検出しているが、検出対象である顎の近くに、例えば、ほくろ、しみ、しわなど、検出対象以外にエッジ強度や輝度変化率が高くなる箇所が存在する場合もある。このような場合には、検出対象以外の箇所のエッジ強度や輝度変化率が高い部分を、検出対象である顎として誤検出する可能性がある。
また、輝度勾配を用いる従来技術は、輝度勾配の強度が閾値を超えるところを輪郭として取り出す方式である。しかし、例えば、顎やほうれい線などの輝度のコントラストが弱い箇所では、検出対象を検出できない場合がある。
一つの側面として、色差や輝度のコントラストが弱い箇所でも、 精度良く検出対象を示す線を検出することが目的である。
一つの態様では、入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である第1画素と隣接する第2画素の輝度勾配が前記第1方向とは反対の第2方向の場合、前記第1画素又は前記第2画素変化点として検出する。そして、所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する。
一つの側面として、色差や輝度のコントラストが弱い箇所でも、 精度良く検出対象を示す線を検出することができる、という効果を有する。
第1実施形態に係る対象線検出装置の機能的構成を示すブロック図である。 輝度勾配の算出を説明するための図である。 顎を示す線の検出を説明するための図である。 結合線の抽出を説明するための図である。 結合線リストの一例を示す図である。 第1実施形態に係る対象線検出装置として機能するコンピュータの概略構成を示すブロック図である。 第1実施形態における対象線検出処理の一例を示すフローチャートである。 候補抽出処理の一例を示すフローチャートである。 最下座標抽出処理の一例を示すフローチャートである。 前半部分チェック処理の一例を示すフローチャートである。 後半部分チェック処理の一例を示すフローチャートである。 第2実施形態に係る対象線検出装置の機能的構成を示すブロック図である。 顎領域の推定を説明するための図である。 第2実施形態における対象線検出処理の一例を示すフローチャートである。 顔画像のサイズまたはフィルタサイズの変更を説明するための図である。 顔領域のサイズとフィルタサイズとの対応関係を定めたテーブルの一例を示す図である。 フィルタサイズ変更処理の一例を示すフローチャートである。 画像サイズ変更処理の一例を示すフローチャートである。 ほうれい線を示す線の検出を説明するための図である。 第4実施形態における対象線検出処理の一例を示すフローチャートである。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。
<第1実施形態>
まず、第1実施形態について説明する。第1実施形態では、人の顔画像から、検出対象である顎を示す線を検出する場合について説明する。
例えば美容支援の分野などにおいて、人の顔画像から顔の部位を検出し、または人手で選択し、各部位間の距離などに基づいて、顔のバランスを測定することなどが行われている。顔のバランスの測定の一例としては、顔画像から髪の生え際、顎、顔の横部分の輪郭を検出し、生え際から顎までの長さと顔の横幅との比が理想的な数値(例えば、1.46)に近いかどうかを測定する、というものがある。
上記のような測定において、髪の生え際や顔の横部分の輪郭は、顔の部分と髪の毛の部分や背景との間に生じる色や輝度の相違に基づいて、検出することができる。一方、顎の場合は、顎に沿った線より上の顔の部分と、顎に沿った線より下の首の部分とは、いずれも肌色であり、両者に色の相違が少ない。また、顎は、目などと比べ、明確なコントラストを示す箇所でもないため、エッジ強度が弱い。そのため、髪の生え際や顔の横部分の輪郭を検出するような方式で、顎を検出することは困難である。
また、エッジ抽出の手法を応用し、エッジ抽出フィルタの結果において、顎を検出するために予め定めた閾値の範囲内にエッジ強度がある画素の集まりを検出する手法も考えられる。しかし、エッジ強度は、撮影時の照明環境や背景の状況等の影響を受けるため、顎を検出可能な閾値を予め設定しておくことは困難である。なお、顎に限らず、例えばほうれい線など、被写体の凹凸に応じて生じる線であり、画像上での色差や輝度のコントラストが小さい箇所における線を検出対象とする場合には、同様の問題が生じる。
ここで、例えば上記のような顔のバランス測定を行うための顔画像は、多灯照明が可能な撮影スタジオなどではなく、一般的な室内照明のように、前方上方向から光が当たった照明環境において撮影されたものである場合が多い。このように、一方向から光が当たった照明環境で撮影した顔画像では、顔の凹凸に対する光の当たり具合の相違により、領域内の所定方向に向かって輝度が上昇する領域と、所定方向に向かって輝度が低下する領域とが存在する。具体的には、領域が顔の下方向に向かうほど前面に突き出る面の場合には、顔の上から下に向かって輝度が上昇し、領域が顔の下方向に向かうほど背後に後退する面の場合には、顔の上から下に向かって輝度が低下する。
例えば、顎を含む部分では、顎に沿った線より上の顔の領域と、顎に沿った線より下の首の領域とでは、光の当たり具合が相違する。その結果、顔の上から下に向かって輝度が上昇する領域と、顔の上から下に向かって輝度が低下する領域との境界が、画像上の顎を示す線上に表れることになる。
本実施形態では、この点に着目して、画像上での色差や輝度のコントラストが小さい箇所における検出対象を示す線を検出する。
図1に示すように、第1実施形態に係る対象線検出装置10は、画像入力部12、検出部14、抽出部16、及び検出結果出力部18を備える。
画像入力部12は、人物の顔を含む領域が撮影された顔画像が対象線検出装置10に入力されると、入力された顔画像を受け付け、後段の検出部14へ受け渡す。また、画像入力部12は、従来既知の手法により、入力された顔画像から顔領域の検出を行うことで、顔の上下方向を特定し、顔の上下方向と顔画像の上下方向とが一致するように顔画像を回転させる。すなわち、画像入力部12は、90°横向きの顔画像が入力された場合には、顔画像を右または左に90°回転させる。顔画像は、カラー画像であっても、モノクロ画像であってもよい。なお、本実施形態では、前方上方向から光が当たった照明環境において撮影され顔画像が入力されることを前提として説明する。
検出部14は、画像入力部12から受け渡された顔画像から、輝度成分のみを抽出した輝度画像を生成する。また、検出部14は、輝度画像の各画素について、縦方向(顔画像の上下方向)の輝度勾配強度を算出する。具体的には、検出部14は、図2に示すように、輝度画像61に対して、所定サイズ(図2の例では3×3画素サイズ)の縦方向勾配フィルタ70を適用する。なお、ここでは、画像入力部12により、顔の上下方向と顔画像の上下方向とを一致させているが、一致していない場合には、検出部14は、縦方向勾配フィルタ70の向きを、顔画像における顔の上下方向に一致するように回転させてから適用してもよい。
上述のように、本実施形態では、前方上方向から光が当たった照明環境において撮影され顔画像を前提としている。そのため、図2に示すような縦方向勾配フィルタ70を適用することにより、ある画素から見て下方向の画素に向かうほど輝度が上昇する場合、すなわち輝度勾配が下方向(顔の上から下へ向かう方向)となる場合、その画素の輝度勾配強度は正の値(+)となる。一方、ある画素から見て上方向の画素に向かうほど輝度が上昇する場合、すなわち輝度勾配が上方向(顔の下から上へ向かう方向)となる場合、その画素の輝度勾配強度は負の値(−)となる。輝度勾配強度が正の値の画素は、その画素に対応する箇所を含む顔の面が、顔の下方向に向かうほど前面に突き出ている箇所である。一方、輝度勾配強度が負の値の画素は、その画素に対応する箇所を含む顔の面が、顔の下方向に向かうほど背後に後退している箇所である。
なお、上述の上方向及び下方向は、開示の技術の第1方向及び第2方向の一例である。第1方向及び第2方向は、上方向及び下方向に限定されるものではなく、検出対象に応じて異なる。従って、検出対象に応じた方向の勾配フィルタを適用して、検出対象に応じた第1方向及び第2方向の輝度勾配強度を算出すればよい。具体的には、検出対象を示す線と交差する方向の勾配フィルタを適用すればよい。
検出部14は、図3に示すように、輝度画像61に縦方向勾配フィルタ70を適用したフィルタ結果から、輝度勾配強度が正の値の画素、負の値の画素、及びゼロの画素の三値で表した三値画像62を生成する。例えば、検出部14は、輝度勾配強度が正の値の画素を1(白)、負の値の画素を−1(グレー)、ゼロの値の画素を0(黒)とすることができる。
また、検出部14は、フィルタ結果からノイズ成分を除去するために、フィルタ結果を示す三値画像62において、画素値が同一の隣接する画素同士をグルーピングする。検出部14は、図3に示すように、フィルタ結果を示す三値画像62において、グルーピングした領域の面積が所定サイズ以下の小領域に含まれる画素の画素値を0にすることにより、小領域を除去した三値画像63を生成する。
図3に示すように、フィルタ結果を示す三値画像62または小領域を除去した三値画像63では、顎を含む部分において、グレー画素(輝度勾配強度が負の値)の領域、及びグレー画素の領域の下に白画素(輝度勾配強度が正の値)の領域が形成されている。このグレー画素の領域と白画素の領域との境界が、顎を示す線上に現れている。
そこで、検出部14は、上記領域の境界を抽出するために、まず、輝度勾配が上方向である画素と、輝度勾配が下方向である画素との変化点を検出する。具体的には、検出部14は、小領域を除去した三値画像63において、グレー画素のうち、そのグレー画素の上(顔の上方向)の画素もグレー画素で、かつそのグレー画素の下(顔の下方向)の画素が白画素であるグレー画素を、変化点に対応する画素として検出し、マークを付与する。なお、検出部14は、白画素のうち、その白画素の下(顔の下方向)の画素も白画素で、かつその白画素の上(顔の上方向)の画素がグレー画素である白画素を、変化点に対応する画素として検出し、マークを付与してもよい。グレー画素群の領域と、白画素群の領域との上下方向の境界を検出するものであればよい。図3に、輝度画像61において、マークを付与した画素を白画素としたマーク画像64の一例を示す。
抽出部16は、検出部14により検出された変化点に対応する画素のうち、所定距離以内に存在する画素同士を結んだ結合線を抽出する。具体的には、抽出部16は、図4に示すように、マーク画像64において、マークが付与された画素を探索し、探索された画素を起点画素67とする。そして、抽出部16は、起点画素67の周辺画素からマークが付与された画素を探索する。探索できた場合には、抽出部16は、起点画素67及び探索された画素を同じ線を示す画素として、その画素の座標(画素位置、[X,Y])を結合線リストに記録する。また、抽出部16は、探索された画素を新たな起点画素67として、周辺画素からマークが付与された画素を探索する処理を、マークが付与された画素の探索が途切れるまで繰り返す。
図5に、結合線リストの一例を示す。図5の例では、結合線リストは、抽出された結合線毎に、探索された画素の座標を、X座標の値が小さい順に並べた座標リストを有する。また、結合線リストは、結合線毎の長さの情報も含む。結合線の長さは、X方向の長さ(座標リストに含まれるX座標の最大値−X座標の最小値)とすることができる。また、X方向の長さと、Y方向の長さ(座標リストに含まれるY座標の最大値−Y座標の最小値)とを加えた値としてもよい。また、隣接する座標間の距離の総和としてもよい。図3に、抽出した結合線を輝度画像61に重畳した結合線画像65の一例を示す。
マークが付与された画素を探索する際の周辺画素は、起点画素67を中心とした3×3画素、5×5画素等、顔画像のサイズや解像度等に応じて適宜設定することができる。なお、周辺画素の範囲を3×3画素とする場合には、マークが付与された画素同士が隣接している場合のみ、結合線として抽出するものである。また、周辺画素の範囲を5×5画素以上とする場合には、マークが付与された画素同士が1画素以上離れている場合も、結合線として抽出することを許容するものである。周辺画素を5×5画素とする場合には、まず、3×3画素範囲内でマークが付与された画素を探索し、探索できなかった場合に、5×5画素に探索範囲を広げるようにするとよい。
抽出部16は、抽出した結合線の形状及び長さの少なくとも一方に基づいて、結合線から、検出対象である顎を示す対象線を抽出する。具体的には、抽出部16は、結合線リストに記録された各結合線の座標リストに基づいて、下に凸の曲線状の結合線を抽出する。下に凸の曲線状とは、下向きの円弧状、楕円状等である。また、抽出部16は、抽出した下に凸の曲線状の結合線のうち、結合線リストに記録されている長さに基づいて、最長の結合線を、顎を示す対象線として抽出する。
検出結果出力部18は、抽出部16により抽出された顎を示す対象線を、検出結果として出力する。例えば、図3に示すように、輝度画像61に顎を示す対象線を重畳した検出結果画像66として出力することができる。
対象線検出装置10は、例えば図6に示すコンピュータ40で実現することができる。コンピュータ40はCPU42、メモリ44、不揮発性の記憶部46、入出力インターフェース(I/F)47、及びネットワークI/F48を備えている。CPU42、メモリ44、記憶部46、入出力I/F47、及びネットワークI/F48は、バス49を介して互いに接続されている。
記憶部46はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記憶媒体としての記憶部46には、コンピュータ40を対象線検出装置10として機能させるための対象線検出プログラム50が記憶されている。CPU42は、対象線検出プログラム50を記憶部46から読み出してメモリ44に展開し、対象線検出プログラム50が有するプロセスを順次実行する。
対象線検出プログラム50は、画像入力プロセス52、検出プロセス54、抽出プロセス56、及び検出結果出力プロセス58を有する。CPU42は、画像入力プロセス52を実行することで、図1に示す画像入力部12として動作する。また、CPU42は、検出プロセス54を実行することで、図1に示す検出部14として動作する。また、CPU42は、抽出プロセス56を実行することで、図1に示す抽出部16として動作する。また、CPU42は、検出結果出力プロセス58を実行することで、図1に示す検出結果出力部18として動作する。これにより、対象線検出プログラム50を実行したコンピュータ40が、対象線検出装置10として機能することになる。
なお、対象線検出装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に第1実施形態に係る対象線検出装置10の作用について説明する。対象線検出装置10に顔画像が入力されると、対象線検出装置10により、図7に示す対象線検出処理が実行される。
図7に示す対象線検出処理のステップS10で、画像入力部12が、入力された顔画像を受け付ける。また、画像入力部12は、入力された顔画像から顔領域の検出を行うことで、顔の上下方向を特定し、顔の上下方向と顔画像の上下方向とが一致するように顔画像を回転させる。
次に、ステップS12で、検出部14が、顔画像から輝度成分のみを抽出した輝度画像61を生成する。次に、ステップS14で、検出部14が、輝度画像61に対して縦方向勾配フィルタ70を適用する。そして、検出部14は、フィルタ結果から、輝度勾配強度が正の値の画素、負の値の画素、及びゼロの画素の三値で表した三値画像62を生成する。
次に、ステップS16で、検出部14は、フィルタ結果を示す三値画像62において、画素値が同一の隣接する画素同士をグルーピングする。そして、検出部14は、フィルタ結果を示す三値画像62において、グルーピングした領域の面積が所定サイズ以下の小領域に含まれる画素の画素値を0にすることにより、小領域を除去した三値画像63を生成する。
次に、ステップS18で、検出部14は、小領域を除去した三値画像63において、グレー画素のうち、そのグレー画素の上(顔の上方向)の画素もグレー画素で、かつそのグレー画素の下(顔の下方向)の画素が白画素であるグレー画素を、変化点に対応する画素として検出する。そして、検出部14は、変化点に対応する画素にマークを付与する。
次に、ステップS20で、抽出部16が、所定距離以内に存在するマークが付与された画素(変化点に対応する画素)を探索し、探索された画素同士を結合した結合線を抽出する。具体的には、抽出部16は、例えば図4に示すように、起点画素67の右隣の列の所定個(図4の例では5個)の画素からマークが付与された画素を探索する。探索できた場合には、抽出部16は、起点画素67及び探索された画素を同じ結合線を示す画素として、その画素の座標(画素位置、[X,Y])を結合線リストに記録する。また、抽出部16は、探索された画素を新たな起点画素67として、周辺画素からマークが付与された画素を探索する処理を繰り返す。
抽出部16は、マークが付与された画素が探索できなかった場合には、さらに1画素分右の列の所定個の画素から、マークが付与された画素を探索する。右N列分まで探索範囲を広げても、マークが付与された画素が探索できなかった場合には、最初に設定された起点画素67の右側の探索を終了する。抽出部16は、最初に設定された起点画素67について、右側の探索と同様に、左側の探索も行う。抽出部16は、左右両側の探索が終了すると、結合線リストに記録した座標を、X座標が小さい順に並べ替える。さらに、抽出部16は、結合線の長さを求め、結合線リストに記録する。
次に、ステップS22で、抽出部16が、図8に詳細を示す候補抽出処理を結合線毎に実行して、下に凸の曲線状の結合線を抽出する。なお、ここでは、顔画像の左上の画素を原点とし、右に行くほどX座標が大きくなり、下に行くほどY座標が大きくなる画像座標系を用いる。また、結合線リストに記録された座標リストは、図5に示すように、X座標が小さい順に記録されており、X座標が小さい順に、0番目の座標、1番目の座標、・・・、N−1番目の座標とする。なお、Nは、各結合線リストに含まれる座標リストに記録された座標の総数である。
図8に示す候補抽出処理のステップS26で、抽出部16が、各結合線を示す結合線リストに含まれる座標リストに記録された座標のうち、Y座標(Y値)の最大値に対応する最大Y値に0を設定する。また、抽出部16が、最大Y値を有する座標が座標リストの何番目の座標かに対応する最大Y値indexに0を設定する。
次に、ステップS28で、抽出部16が、図9に詳細を示す最下座標抽出処理を実行する。
図9に示す最下座標抽出処理のステップS46で、抽出部16が、変数iに0を設定する。次に、ステップS48で、抽出部16が、iがN(処理中の結合線リストに含まれる座標リストに記録されている座標数)より小さいか否かを判定する。i<Nの場合には、処理はステップS50へ移行する。
ステップS50では、抽出部16が、i番目の座標のY値が、最大Y値に設定されている値を超えているか否かを判定する。i番目の座標のY値>最大Y値の場合には、処理はステップS52へ移行する。ステップS52では、抽出部16が、最大Y値にi番目の座標のY値を設定すると共に、最大Y値indexにiを設定し、処理はステップS54へ移行する。一方、i番目の座標のY値≦最大Y値の場合には、ステップS52をスキップして、処理はステップS54へ移行する。
ステップS54では、抽出部16が、iを1インクリメントして、処理はステップS48へ戻る。ステップS48で、抽出部16が、i≧Nであると判定すると、処理は候補抽出処理へリターンする。このとき、最大Y値indexに設定されたiにより特定される座標が最大Y値を有する座標、すなわち最下座標として抽出される。
次に、図8に示す候補抽出処理のステップS30で、抽出部16が、Nを所定値(例えば「4」)で割った値を「margin」として算出する。次に、ステップS32で、抽出部16が、上記ステップS28で抽出した最下座標が、結合線の端部に偏っていないかを判定する。最下座標が結合線の端部に偏っている場合には、その結合線は、検出対象である顎を示す対象線ではない可能性が高いため、その結合線を対象線の候補として抽出しない。例えば、抽出部16は、最大Y値index≧margin、かつ最大Y値index<(N−margin)か否かを判定する。肯定判定の場合には、最下座標が結合線の端部に偏っていないと判定して、処理はステップS34へ移行する。否定判定の場合には、最下座標が線の端部に偏っていると判定して、その結合線を対象線の候補として抽出することなく、その結合線についての候補抽出処理を終了する。
ステップS34では、抽出部16が、Nを所定値(例えば「8」)で割った値を「step」として算出する。「step」は、座標リストに記録されている座標を間引いて処理する際に、どの程度間引くか(座標を何個飛ばしで処理するか)を定めるための値である。間引くことなく全ての座標を処理対象とする場合には、step=1とすればよい。
次に、ステップS36で、抽出部16が、処理対象とした座標をカウントするための変数allCount、及び処理対象となった座標のうち、下に凸の曲線状という制約を満たす座標をカウントするための変数okCountの各々に0を設定する。
次に、ステップS38で、抽出部16が、図10に詳細を示す前半部分チェック処理を実行する。
図10に示す前半部分チェック処理のステップS56で、抽出部16が、変数iに(最大Y値index−step)を設定する。次に、ステップS58で、抽出部16が、iが0以上か否かを判定する。i≧0の場合には、処理はステップS60へ移行する。
ステップS60では、座標リストのi番目の座標のY値が(i+step)番目の座標のY値より小さいか否かを判定する。i番目の座標のY値<(i+step)番目の座標のY値の場合には、i番目の座標は、下に凸の曲線状という制約を満たす座標であると判定して、処理はステップS62へ移行する。ステップS62では、抽出部16が、okCountに1を加算して、ステップS64へ移行する。一方、i番目の座標のY値≧(i+step)番目の座標のY値の場合には、i番目の座標は、下に凸の曲線状という制約を満たさない座標であると判定して、ステップS62をスキップして、処理はステップS64へ移行する。
ステップS64では、抽出部16が、allCountを1インクリメントする。次に、ステップS66で、抽出部16が、iに(i−step)を設定して、ステップS58へ戻る。ステップS58で、抽出部16が、i<0であると判定すると、座標リストの前半部分、すなわち最下座標よりX値が小さい座標について、下に凸の曲線状という制約を満たすか否かの判定を終了し、処理は候補抽出処理へリターンする。
次に、図8に示す候補抽出処理のステップS40で、抽出部16が、図11に詳細を示す後半部分チェック処理を実行する。
図11に示す後半部分チェック処理のステップS68で、抽出部16が、変数iに(最大Y値index+step)を設定する。次に、ステップS70で、抽出部16が、iがNより小さいか否かを判定する。i<Nの場合には、処理はステップS72へ移行する。
ステップS72では、抽出部16が、座標リストのi番目の座標のY値が(i−step)番目の座標のY値より小さいか否かを判定する。i番目の座標のY値<(i−step)番目の座標のY値の場合には、i番目の座標は、下に凸の曲線状という制約を満たす座標であると判定して、処理はステップS74へ移行する。以下、ステップS74〜S78で、図10に示す前半部分チェック処理のステップS62〜S66と同様に処理する。ステップS70で、抽出部16が、i≧Nであると判定すると、座標リストの後半部分、すなわち最下座標よりX値が大きい座標について、下に凸の曲線状という制約を満たすか否かの判定を終了し、処理は候補抽出処理へリターンする。
次に、図8に示す候補抽出処理のステップS42で、抽出部16が、結合線リストに含まれる座標のうち、所定割合の座標が、下に凸の曲線状という制約を満たしたか否かを判定する。例えば、抽出部16は、okCount/allCount>0.8か否かを判定する。肯定判定の場合には、処理はステップS44へ移行し、抽出部16が、その結合線を対象線の候補として抽出する。否定判定の場合には、その結合線を対象線の候補として抽出することなく、その結合線についての候補抽出処理を終了する。全ての結合線について、対象線の候補として抽出するか否かの判定を終了した場合には、処理は対象線検出処理にリターンする。
次に、図7に示す対象線検出処理のステップS24で、抽出部16が、抽出した対象線の候補となる下に凸の曲線状の結合線のうち、結合線リストに記録されている長さに基づいて、最長の結合線を、顎を示す対象線として抽出する。そして、検出結果出力部18が、抽出部16により抽出された顎を示す対象線を、検出結果として出力し、対象線検出処理は終了する。
以上説明したように、第1実施形態に係る対象線検出装置10によれば、顔の凹凸に対する照明の当たり具合の相違に着目して、輝度勾配が下方向である画素と上方向である画素との変化点に対応する画素を検出する。そして、変化点に対応する画素を結んだ結合線を抽出し、結合線の形状及び長さに基づいて、抽出した結合線の中から、検出対象を示す対象線を抽出する。このため、色差や輝度のコントラストが弱い箇所でも、対象線を抽出することができ、ほくろやしわなどの検出対象以外の線を対象線として誤検出することを抑制し、精度良く対象線を検出することができる。
なお、第1実施形態では、結合線が下に凸の曲線状か否かを、座標値の大小に基づいて判定する場合について説明したが、これに限定されない。例えば、検出対象である顎を想定した下に凸の曲線を用意しておき、この曲線と抽出した結合線の各々とをフィッティングする。そして、曲線との一致度が所定値以上の結合線を、下に凸の曲線状であると判定することができる。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態でも、第1実施形態と同様に、人の顔画像から、検出対象である顎を示す線を検出する場合について説明する。
図12に示すように、第2実施形態に係る対象線検出装置210は、画像入力部12、検出部14、推定部20、抽出部216、及び検出結果出力部18を備える。なお、第1実施形態に係る対象線検出装置10と同一の部分については、同一符号を付して詳細な説明を省略する。
推定部20は、図13に示すように、顔画像または輝度画像61から目領域71を検出し、目領域71の検出結果に基づいて、顎領域72を推定する。目領域71の検出には、例えば辞書方式によるパターンマッチング等の従来既知の手法を用いることができる。また、目領域71の検出結果に基づく顎領域72の推定は、例えば、図13に示すように、目領域71の下で、かつ2つの目領域71各々の中心間の距離の1倍〜1.5倍の範囲を縦幅とする顎領域72を推定することができる。また、顎領域72の横幅は、2つの目領域71の外側の縦の辺間の幅とすることができる。
抽出部216は、第1実施形態における抽出部16と同様に、検出部14により検出された変化点に対応する画素のうち、所定距離以内に存在する画素同士を結んだ結合線を抽出する。また、抽出部216は、抽出した結合線の形状及び長さの少なくとも一方に基づいて、結合線の中から、検出対象である顎を示す対象線を抽出する。この際、抽出部216は、抽出した結合線のうち、推定部20で推定された顎領域72に含まれる結合線から、検出対象である顎を示す対象線を抽出する。
対象線検出装置210は、例えば図6に示すコンピュータ240で実現することができる。コンピュータ240は、バス49を介して互いに接続されたCPU42、メモリ44、記憶部46、入出力I/F47、及びネットワークI/F48を備える。記憶部46には、コンピュータ240を対象線検出装置210として機能させるための対象線検出プログラム250が記憶されている。CPU42は、対象線検出プログラム250を記憶部46から読み出してメモリ44に展開し、対象線検出プログラム250が有するプロセスを順次実行する。
対象線検出プログラム250は、画像入力プロセス52、検出プロセス54、推定プロセス60、抽出プロセス256、及び検出結果出力プロセス58を有する。CPU42は、推定プロセス60を実行することで、図12に示す推定部20として動作する。また、CPU42は、抽出プロセス256を実行することで、図12に示す抽出部216として動作する。他のプロセスについては、第1実施形態における対象線検出プログラム50と同様である。これにより、対象線検出プログラム250を実行したコンピュータ240が、対象線検出装置210として機能することになる。
なお、対象線検出装置210は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に第2実施形態に係る対象線検出装置210の作用について説明する。対象線検出装置210に顔画像が入力されると、対象線検出装置210により、図14に示す対象線検出処理が実行される。なお、第1実施形態における対象線検出処理と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップS18の処理が終了すると、処理はステップS80へ移行し、推定部20が、顔画像または輝度画像61から目領域71を検出し、目領域71の検出結果に基づいて、顎領域72を推定する。次に、ステップS20で、抽出部216が、検出された変化点に対応する画素のうち、所定距離以内に存在する画素同士を結んだ結合線を抽出する。次に、ステップS22で、抽出部216が、上記ステップS80で推定された顎領域72に含まれる結合線について、図8に示す候補抽出処理を実行する。そして、抽出部216は、顎領域72に含まれる結合線の中から、下に凸の曲線状の結合線を、検出対象である顎を示す対象線の候補として抽出する。
次に、ステップS24で、抽出部216が、対象線の候補として抽出した結合線のうち、最長のものを検出対象である顎を示す対象線を抽出し、検出結果として出力して、対象線検出処理は終了する。
なお、上記の対象線検出処理では、輝度画像全体から変化点を検出し、変化点を結合した結合線を抽出した上で、推定した顎領域に含まれる結合線が下に凸の曲線状の結合線か否か判定する場合について説明した。しかし、結合線を抽出する前に顎領域を推定して、顎領域内の変化点を結合して結合線を抽出するようにしてもよい。さらに、変化点を検出する前に顎領域を推定して、顎領域内から変化点を検出するようにしてもよい。
以上説明したように、第2実施形態に係る対象線検出装置210によれば、検出対象が検出される領域を推定してから、検出対象を示す線を抽出する。このため、第1実施形態の効果に加え、処理量を削減することができると共に、背景などに下に凸の長い線が写り込んでいるような場合にも、誤検出を抑制することができる。
<第3実施形態>
次に、第3実施形態について説明する。第3実施形態でも、第1実施形態と同様に、人の顔画像から、検出対象である顎を示す線を検出する場合について説明する。
図1に示すように、第3実施形態に係る対象線検出装置310は、画像入力部12、検出部314、抽出部16、及び検出結果出力部18を備える。なお、第1実施形態に係る対象線検出装置10と同一の部分については、同一符号を付して詳細な説明を省略する。
検出部314は、第1実施形態の検出部14と同様に、画像入力部12から受け渡された顔画像から、輝度成分のみを抽出した輝度画像を生成する。検出部314は、輝度画像の各画素について、上下方向の輝度勾配強度を、例えば図2に示すような縦方向勾配フィルタ70を適用する。
ここで、顔画像に含まれる顔領域のサイズと、適用する縦方向勾配フィルタ70のサイズとが適切に対応していない場合には、輝度勾配強度の算出精度が低下し、対象線の検出精度が低下する恐れがある。例えば、顔領域のサイズに対して縦方向勾配フィルタ70のサイズが大きすぎる場合には、輝度勾配強度の値にノイズが加わってしまう場合がある。一方、顔領域のサイズに対して縦方向勾配フィルタ70のサイズが小さすぎる場合には、算出される輝度勾配強度が局所的な値となり、所望の境界を検出できない場合がある。
そこで、検出部314は、顔領域のサイズ、すなわち輝度画像61のサイズ、及び縦方向勾配フィルタ70のサイズの少なくとも一方を変更して、顔領域のサイズと、縦方向勾配フィルタ70のサイズとを適切に対応させる。
具体的には、検出部314は、従来既知の手法を用いて、輝度画像61から、例えば矩形の顔領域を検出する。検出部314は、図15の上段に示すように、検出した顔領域のサイズに対応するフィルタサイズを選択する。検出部314は、例えば図16に示すような、顔領域のサイズとフィルタサイズとの適切な対応関係を、予め実験等により定めたテーブルを参照して、フィルタサイズを選択することができる。
または、検出部314は、図15の下段に示すように、検出された顔領域のサイズが、用意されたフィルタのサイズに対応するサイズとなるような倍率を算出し、算出した倍率を用いて、輝度画像61のサイズを変更(図15中、61A)する。また、検出部314は、輝度画像61のサイズ及びフィルタサイズの両方を変更して、顔領域のサイズとフィルタサイズとが適切な対応関係となるようにしてもよい。
対象線検出装置310は、例えば図6に示すコンピュータ340で実現することができる。コンピュータ340は、バス49を介して互いに接続されたCPU42、メモリ44、記憶部46、入出力I/F47、及びネットワークI/F48を備える。記憶部46には、コンピュータ340を対象線検出装置310として機能させるための対象線検出プログラム350が記憶されている。CPU42は、対象線検出プログラム350を記憶部46から読み出してメモリ44に展開し、対象線検出プログラム350が有するプロセスを順次実行する。
対象線検出プログラム350は、画像入力プロセス52、検出プロセス354、抽出プロセス56、及び検出結果出力プロセス58を有する。CPU42は、検出プロセス354を実行することで、図1に示す検出部314として動作する。他のプロセスについては、第1実施形態における対象線検出プログラム50と同様である。これにより、対象線検出プログラム350を実行したコンピュータ340が、対象線検出装置310として機能することになる。
なお、対象線検出装置310は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に第3実施形態に係る対象線検出装置310の作用について説明する。対象線検出装置310に顔画像が入力されると、対象線検出装置310により、図7に示す対象線検出処理が実行される。ただし、ステップS14で、輝度画像61に縦方向勾配フィルタ70を適用する際に、図17に示すフィルタサイズ変更処理、または図18に示す画像サイズ変更処理が実行される。
図17に示すフィルタサイズ変更処理のステップS84で、検出部314が、輝度画像61から、例えば矩形の顔領域を検出する。次に、ステップS86で、検出部314が、顔領域のサイズとフィルタサイズとの対応関係のレベルを示す変数Lに1を設定する。顔領域のサイズとフィルタサイズとの対応関係、及びそのレベルは、例えば図16に示すようなテーブルで定められているものとする。また、図16の例では、顔領域のサイズ及びフィルタサイズが小さい順に、レベル1、レベル2、・・・と定められている。
次に、ステップS88で、検出部314が、Lが図16に示すテーブルに定められた最大レベルか、または、検出された顔領域のサイズが、レベルLの顔領域のサイズより小さいか否かを判定する。肯定判定の場合には、処理はステップS92へ移行し、検出部314が、レベルNのフィルタサイズを、適用する縦方向勾配フィルタ70のフィルタサイズとして設定する。一方、ステップS88が否定判定の場合には、ステップS90へ移行し、検出部314が、Lを1インクリメントして、処理はステップS88へ戻る。
図18に示す画像サイズ変更処理では、ステップS94で、検出部314が、用意された縦方向勾配フィルタ70のフィルタサイズに対応するレベルを目標レベルに設定する。次に、ステップS96で、検出部314が、輝度画像61から、例えば矩形の顔領域を検出する。
次に、ステップS98で、検出部314が、上記ステップS94で設定した目標レベルの顔領域のサイズを、上記ステップS96で検出した顔領域のサイズで割って、倍率を算出する。次に、ステップS100で、検出部314が、輝度画像61の変更後の幅及び高さが、下記に示すサイズとなるように、輝度画像61のサイズを変更する。
変更後の幅=変更前の幅×倍率の平方根
変更後の高さ=変更前の高さ×倍率の平方根
以上説明したように、第3実施形態に係る対象線検出装置310によれば、顔領域のサイズとフィルタサイズとを適切に対応させる。このため、第1実施形態の効果に加え、輝度勾配の算出精度を向上させることができ、対象線の検出精度が向上する。
なお、第3実施形態においても、第2実施形態のように、検出対象を含む領域を推定する推定部を設けてもよい。
また、第3実施形態では、画像サイズを変更する際、検出部314において、輝度画像のサイズを変更する場合について説明したが、これに限定されない。画像入力部で、上記と同様の処理により、顔画像を適切なサイズに変更した上で、検出部へ受け渡すようにしてもよい。
<第4実施形態>
次に、第4実施形態について説明する。第4実施形態では、人の顔画像から、検出対象として、ほうれい線を示す線を検出する場合について説明する。
図1に示すように、第4実施形態に係る対象線検出装置410は、画像入力部12、検出部414、抽出部416、及び検出結果出力部18を備える。なお、第1実施形態に係る対象線検出装置10と同一の部分については、同一符号を付して詳細な説明を省略する。
検出部414は、第1実施形態の検出部14と同様に、画像入力部12から受け渡された顔画像から、輝度成分のみを抽出した輝度画像を生成する。検出部414は、輝度画像の各画素について、上下方向の輝度勾配強度を、例えば図2に示すような縦方向勾配フィルタ70を適用して算出する。この際、検出部414は、図19に示すように、縦方向勾配フィルタ70の方向(ここでは上方向または下方向)と、検出対象であるほうれい線とが交差するように、輝度画像61を所定角度回転する(図19中、61B)。
ここで、ほうれい線とは、鼻の両脇から唇の両端に伸びる線であり、頬周辺のくぼみが線として現れたものである。そこで、検出部414は、まず、輝度画像61から2つの目領域と鼻領域を検出する。鼻領域の検出には、例えば、特開2006−38689号公報記載の手法のような従来既知の手法を用いることができる。検出部414は、2つの目領域及び鼻領域各々の中心を結ぶ三角形の辺のうち、右目領域と鼻領域とを結ぶ辺が、縦になるように、輝度画像を回転する。これにより、右頬(顔画像の左側)のほうれい線が、概ね水平方向に伸びる上に凸の曲線状の線として現れる。
また、ほうれい線より上(回転後の輝度画像61Bの上方向)の領域は、下方向に向かうほど背後に後退する面であり、下に向かって輝度が低下する。一方、ほうれい線より下(回転後の輝度画像61Bの下方向)の領域は、下方向に向かうほど前面に突き出る面であり、下に向かって輝度が上昇する。すなわち、輝度画像61Bの上から下に向かって輝度が低下する領域と、輝度が上昇する領域との境界が、ほうれい線上に表れることになる。従って、図2に示す縦方向勾配フィルタ70を、回転後の輝度画像61Bに適用することで(図19中、63B)、ほうれい線に相当する境界を検出することができる。
また、上述のように、ほうれい線より上(回転後の輝度画像61Bの上方向)の領域は、下方向に向かうほど背後に後退する面であり、ほうれい線より下(回転後の輝度画像61Bの下方向)の領域は、下方向に向かうほど前面に突き出る面である。従って、検出部414は、検出対象が顎の場合と同様に、上側に輝度勾配強度が負の値の領域、下側に輝度勾配強度が正の値の領域との境界に対応する変化点を検出する。
また、検出部414は、左頬(顔画像の右側)のほうれい線を検出する際には、2つの目領域及び鼻領域各々の中心を結ぶ三角形の辺のうち、左目領域と鼻領域とを結ぶ辺が、縦になるように、輝度画像61を回転する。
抽出部416は、第1実施形態における抽出部16と同様に、検出部414により検出された変化点に対応する画素のうち、所定距離以内に存在する画素同士を結んだ結合線を抽出する(図19中、64B)。また、抽出部416は、抽出した結合線の中から、上に凸の曲線状の結合線を、対象線の候補として抽出する。上に凸か否かは、第1実施形態における候補抽出処理と同様に、座標値の大小を順次比較することで判定することができる。また、抽出部416は、対象線の候補となる結合線が複数存在する場合には、鼻領域に最も近い座標を持つ結合線を抽出する。
対象線検出装置410は、例えば図6に示すコンピュータ440で実現することができる。コンピュータ440は、バス49を介して互いに接続されたCPU42、メモリ44、記憶部46、入出力I/F47、及びネットワークI/F48を備える。記憶部46には、コンピュータ440を対象線検出装置410として機能させるための対象線検出プログラム450が記憶されている。CPU42は、対象線検出プログラム450を記憶部46から読み出してメモリ44に展開し、対象線検出プログラム450が有するプロセスを順次実行する。
対象線検出プログラム450は、画像入力プロセス52、検出プロセス454、抽出プロセス456、及び検出結果出力プロセス58を有する。CPU42は、検出プロセス454を実行することで、図1に示す検出部414として動作する。また、CPU42は、抽出プロセス456を実行することで、図1に示す抽出部416として動作する。他のプロセスについては、第1実施形態における対象線検出プログラム50と同様である。これにより、対象線検出プログラム450を実行したコンピュータ440が、対象線検出装置410として機能することになる。
なお、対象線検出装置410は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に第4実施形態に係る対象線検出装置410の作用について説明する。対象線検出装置410に顔画像が入力されると、対象線検出装置410により、図20に示す対象線検出処理が実行される。なお、第1実施形態における対象線検出処理と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップS12の処理が終了すると、処理はステップS102へ移行する。ステップS102では、検出部414が、輝度画像61から2つの目領域と鼻領域を検出する。そして。検出部414は、2つの目領域及び鼻領域各々の中心を結ぶ三角形の辺のうち、右目領域と鼻領域とを結ぶ辺が、縦になるように、輝度画像を回転する。
次に、第1実施形態の対象線検出処理と同様に、ステップS14〜S20の処理を実行する。次に、ステップS104で、図8に示す候補抽出処理を実行する。ただし、第4実施形態では、結合線が上に凸の曲線状か否かを判定する。そこで、図8に示す候補抽出処理において、最大Y値は最小Y値と読み替え、最小Y値の初期値には大きな値(例えば、画像の縦幅、無限大等)を設定する。また、図8に示す候補抽出処理において、最下座標は最上座標(その結合線を示す結合線リストに含まれる座標リスト内の座標のうち、Y値が最小のもの)と読み替える。
また、図9のステップS50では、座標リストのi番目の座標のY値<最小Y値か否かを判定する。また、図10のステップS60では、座標リストのi番目の座標のY値>(i+step)番目の座標のY値か否かを判定する。また、図11のステップS72では、座標リストのi番目の座標のY値<(i−step)番目の座標のY値か否かを判定する。
次に、ステップS106で、抽出部416が、対象線の候補となる結合線から、鼻領域に最も近い座標を持つ結合線を、ほうれい線を示す対象線として抽出する。そして、検出結果出力部18が、抽出部416により抽出されたほうれい線を示す対象線を、検出結果として出力し、対象線検出処理は終了する。
以上説明したように、第4実施形態に係る対象線検出装置410によれば、ほうれい線の検出においても、顎を検出する場合と同様に、精度良く対象線を検出することができる。
なお、第4実施形態では、検出対象の線と勾配フィルタの方向とが交差するように、輝度画像または顔画像を回転させる場合について説明したが、勾配フィルタを回転させた上で、輝度画像に適用するようにしてもよい。例えば、2つの目領域及び鼻領域各々の中心を結ぶ三角形の辺のうち、右目領域または左目領域と鼻領域とを結ぶ辺と、勾配フィルタの方向とを一致させるように、勾配フィルタを回転させることができる。
また、第4実施形態においても、第2実施形態のように、検出対象を含む領域を推定する推定部を設けてもよい。また、第3実施形態のように、顔画像のサイズとフィルタサイズとが適切に対応するように、顔画像のサイズまたはフィルタサイズを変更してもよい。
また、上記第1〜第3実施形態では、検出対象を顎とする場合、第4実施形態では、検出対象をほうれい線とする場合について説明したが、これに限定されない。開示の技術は、輝度勾配が第1方向となる領域と、第1方向とは反対の第2方向となる領域との境界に生じる線であれば、他の検出対象についても適用可能である。上記のような輝度勾配が変化する境界に生じる線を抽出し、その線の形状及び長さの少なくとも一方が、検出対象の特徴を示すものか否かを判定すればよい。
また、上記では、対象線検出プログラム50、250、350、450が記憶部46に予め記憶(インストール)されている態様を説明したが、CD−ROMやDVD−ROM等の記憶媒体に記録された形態で提供することも可能である。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
入力画像の輝度成分から得られる輝度画像(61)において、輝度勾配が第1方向である画素と、輝度勾配が前記第1方向とは反対の第2方向である画素との変化点を検出する検出部と、
所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する抽出部と、
を含む対象線検出装置。
(付記2)
前記検出対象を顎とした場合に、前記抽出部は、前記変化点同士を結んだ線から、下に凸の曲線状で、かつ最長の線を、前記検出対象を示す線として抽出する付記1記載の対象線検出装置。
(付記3)
目の位置の検出結果に基づいて、前記顎の位置を推定する推定部を含み、
前記抽出部は、前記推定部で推定された顎の位置を含む領域から、前記検出対象を示す線を抽出する付記2記載の対象線検出装置。
(付記4)
前記検出部は、前記輝度画像に輝度勾配フィルタを適用して各画素の輝度勾配を算出する際に、前記輝度画像に含まれる顔領域のサイズに基づいて、前記輝度画像または前記輝度勾配フィルタのサイズを変更する付記1〜付記3のいずれか1項記載の対象線検出装置。
(付記5)
コンピュータに、
入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である画素と、輝度勾配が前記第1方向とは反対の第2方向である画素との変化点を検出し、
所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する
ことを含む処理を実行させる対象線検出方法。
(付記6)
前記検出対象を顎とした場合に、前記検出対象を示す線を抽出する際に、前記変化点同士を結んだ線から、下に凸の曲線状で、かつ最長の線を、前記検出対象を示す線として抽出する付記5記載の対象線検出方法。
(付記7)
前記コンピュータに、目の位置の検出結果に基づいて、前記顎の位置を推定することを含む処理を実行させ、
前記検出対象を示す線を抽出する際に、推定された顎の位置を含む領域から、前記検出対象を示す線を抽出する付記6記載の対象線検出方法。
(付記8)
前記輝度画像に輝度勾配フィルタを適用して各画素の輝度勾配を算出する際に、前記輝度画像に含まれる顔領域のサイズに基づいて、前記輝度画像または前記輝度勾配フィルタのサイズを変更する付記5〜付記7のいずれか1項記載の対象線検出装置。
(付記9)
コンピュータに、
入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である画素と、輝度勾配が前記第1方向とは反対の第2方向である画素との変化点を検出し、
所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する
ことを含む処理を実行させるための対象線検出プログラム。
(付記10)
前記検出対象を顎とした場合に、前記検出対象を示す線を抽出する際に、前記変化点同士を結んだ線から、下に凸の曲線状で、かつ最長の線を、前記検出対象を示す線として抽出する付記9記載の対象線検出プログラム。
(付記11)
前記コンピュータに、目の位置の検出結果に基づいて、前記顎の位置を推定することを含む処理を実行させ、
前記検出対象を示す線を抽出する際に、推定された顎の位置を含む領域から、前記検出対象を示す線を抽出する付記10記載の対象線検出プログラム。
(付記12)
前記輝度画像に輝度勾配フィルタを適用して各画素の輝度勾配を算出する際に、前記輝度画像に含まれる顔領域のサイズに基づいて、前記輝度画像または前記輝度勾配フィルタのサイズを変更する付記9〜付記11のいずれか1項記載の対象線検出プログラム。
10、210、310、410 対象線検出装置
12 画像入力部
14、314、414 検出部
16、216、416 抽出部
18 検出結果出力部
20 推定部
40、240、340、440 コンピュータ
42 CPU
44 メモリ
46 記憶部
50、250、350、450 対象線検出プログラム

Claims (6)

  1. 入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である第1画素と隣接する第2画素の輝度勾配が前記第1方向とは反対の第2方向の場合、前記第1画素又は前記第2画素変化点として検出する検出部と、
    所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する抽出部と、
    を含む対象線検出装置。
  2. 前記検出対象を顎とした場合に、前記抽出部は、前記変化点同士を結んだ線から、下に凸の曲線状で、かつ最長の線を、前記検出対象を示す線として抽出する請求項1記載の対象線検出装置。
  3. 目の位置の検出結果に基づいて、前記顎の位置を推定する推定部を含み、
    前記抽出部は、前記推定部で推定された顎の位置を含む領域から、前記検出対象を示す線を抽出する請求項2記載の対象線検出装置。
  4. 前記検出部は、前記輝度画像に輝度勾配フィルタを適用して各画素の輝度勾配を算出する際に、前記輝度画像に含まれる顔領域のサイズに基づいて、前記輝度画像または前記輝度勾配フィルタのサイズを変更する請求項1〜請求項3のいずれか1項記載の対象線検出装置。
  5. コンピュータに、
    入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である第1画素と隣接する第2画素の輝度勾配が前記第1方向とは反対の第2方向の場合、前記第1画素又は前記第2画素変化点として検出し、
    所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する
    ことを含む処理を実行させる対象線検出方法。
  6. コンピュータに、
    入力画像の輝度成分から得られる輝度画像において、輝度勾配が第1方向である第1画素と隣接する第2画素の輝度勾配が前記第1方向とは反対の第2方向の場合、前記第1画素又は前記第2画素変化点として検出し、
    所定距離以内に存在する前記変化点同士を結んだ線の形状及び長さの少なくとも一方に基づいて、前記変化点同士を結んだ線から、検出対象を示す線を抽出する
    ことを含む処理を実行させるための対象線検出プログラム。
JP2013265957A 2013-12-24 2013-12-24 対象線検出装置、方法、及びプログラム Active JP6307873B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013265957A JP6307873B2 (ja) 2013-12-24 2013-12-24 対象線検出装置、方法、及びプログラム
US14/547,260 US9256800B2 (en) 2013-12-24 2014-11-19 Target line detection device and method
CN201410790318.4A CN104732197B (zh) 2013-12-24 2014-12-17 目标线检测设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013265957A JP6307873B2 (ja) 2013-12-24 2013-12-24 対象線検出装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015121985A JP2015121985A (ja) 2015-07-02
JP6307873B2 true JP6307873B2 (ja) 2018-04-11

Family

ID=53400378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013265957A Active JP6307873B2 (ja) 2013-12-24 2013-12-24 対象線検出装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US9256800B2 (ja)
JP (1) JP6307873B2 (ja)
CN (1) CN104732197B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528796B (zh) * 2015-12-08 2018-03-27 武汉大学 一种穿墙探测雷达在多运动目标场景下对虚假目标实时剔除的方法
JP6337949B1 (ja) * 2016-12-15 2018-06-06 オムロン株式会社 スジ状領域検出装置およびスジ状領域検出方法
CN112972889B (zh) * 2017-12-29 2024-06-25 深圳硅基仿生科技股份有限公司 图像处理装置和方法及视网膜刺激器
CN109389024B (zh) * 2018-01-30 2020-09-04 长城汽车股份有限公司 基于影像识别路锥的方法、装置、存储介质以及车辆
CN109697703A (zh) * 2018-11-22 2019-04-30 深圳艺达文化传媒有限公司 视频的背景叠加方法及相关产品
CN112287731B (zh) * 2019-07-25 2023-02-17 毫末智行科技有限公司 目标的三元图像构建方法和装置及检测方法和装置
JP7412321B2 (ja) * 2020-12-08 2024-01-12 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法
US11854131B2 (en) * 2021-01-13 2023-12-26 Adobe Inc. Content-specific-preset edits for digital images

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559714A1 (en) * 1990-11-30 1993-09-15 Cambridge Animation Systems Limited Animation
US6095989A (en) * 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
EP1134696A3 (en) * 1995-03-29 2004-08-18 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
JP2000306109A (ja) * 1999-04-21 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> 文字位置変化検出装置
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US7123761B2 (en) * 2001-11-20 2006-10-17 Konica Corporation Feature extracting method, subject recognizing method and image processing apparatus
JP2005165983A (ja) * 2003-12-05 2005-06-23 Seiko Epson Corp 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP2005202841A (ja) * 2004-01-19 2005-07-28 Seiko Epson Corp 画像処理方法及び装置
JP4544891B2 (ja) * 2004-03-30 2010-09-15 幸靖 吉永 線抽出のための画像処理方法及びそのプログラム、線集中度画像フィルタ
JP2006133824A (ja) 2004-11-02 2006-05-25 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
CN101030256B (zh) * 2006-02-28 2010-05-12 东软集团股份有限公司 车辆图像分割方法和装置
JP4701144B2 (ja) * 2006-09-26 2011-06-15 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP4874914B2 (ja) 2007-09-28 2012-02-15 富士フイルム株式会社 顎位置算出装置、それを用いた画像処理装置および顎位置算出方法並びにプログラム
JP5029545B2 (ja) * 2008-09-10 2012-09-19 大日本印刷株式会社 画像処理方法および装置
JP5538868B2 (ja) * 2009-12-22 2014-07-02 キヤノン株式会社 画像処理装置、その画像処理方法及びプログラム
US8823829B2 (en) * 2010-09-16 2014-09-02 Canon Kabushiki Kaisha Image capture with adjustment of imaging properties at transitions between regions
JP5683888B2 (ja) * 2010-09-29 2015-03-11 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5724454B2 (ja) * 2011-02-25 2015-05-27 村田機械株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2015121985A (ja) 2015-07-02
US20150178586A1 (en) 2015-06-25
CN104732197B (zh) 2018-06-12
US9256800B2 (en) 2016-02-09
CN104732197A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
JP6307873B2 (ja) 対象線検出装置、方法、及びプログラム
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
US9020251B2 (en) Image processing apparatus and method
CN106960449B (zh) 基于多特征约束的异源配准方法
JP6406900B2 (ja) 画像処理方法、画像処理装置、プログラム、記録媒体、生産装置、及び組立部品の製造方法
JP5898014B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
KR20090037967A (ko) 자세 추정 방법 및 시스템, 자세 추정 및 대조 방법 및 시스템, 물체 자세 조명 추정 방법 및 시스템, 물체 조명 추정 방법 및 시스템, 대조 시스템, 물체 상위도 계산 방법, 물체 대조 방법, 및 이들을 위한 프로그램이 기록된 컴퓨터 판독가능한 기록 매체
JP2020525926A5 (ja)
TWI500904B (zh) 立體攝影機及用來測量立體攝影機與基準面之距離的自動測距方法
JP5476264B2 (ja) カメラトラッキング装置およびそのプログラム
KR20150059701A (ko) 비접촉식 지문 인식하는 방법 및 이를 수행하기 위한 전자 기기
CN108898148A (zh) 一种数字图像角点检测方法、系统及计算机可读存储介质
JP2013030183A (ja) 環境認識装置及びプログラム
KR20190080388A (ko) Cnn을 이용한 영상 수평 보정 방법 및 레지듀얼 네트워크 구조
JP6526527B2 (ja) 識別装置及び認証システム
JP6942566B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2011165170A (ja) 対象物検出装置及びプログラム
JP6754717B2 (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
JP2015026117A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体
JP3638845B2 (ja) 画像処理装置及び方法
JP5760523B2 (ja) 走路推定装置及びプログラム
JP5035139B2 (ja) 眼画像処理装置
JP6278757B2 (ja) 特徴量生成装置、特徴量生成方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6307873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150