JP2007072676A - 画像処理装置、マスク作成方法及びプログラム - Google Patents
画像処理装置、マスク作成方法及びプログラム Download PDFInfo
- Publication number
- JP2007072676A JP2007072676A JP2005257857A JP2005257857A JP2007072676A JP 2007072676 A JP2007072676 A JP 2007072676A JP 2005257857 A JP2005257857 A JP 2005257857A JP 2005257857 A JP2005257857 A JP 2005257857A JP 2007072676 A JP2007072676 A JP 2007072676A
- Authority
- JP
- Japan
- Prior art keywords
- line
- pixel
- image
- extracted
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000000605 extraction Methods 0.000 claims description 150
- 238000011156 evaluation Methods 0.000 claims description 62
- 239000000284 extract Substances 0.000 claims description 25
- 238000005520 cutting process Methods 0.000 claims description 19
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 210000004204 blood vessel Anatomy 0.000 description 46
- 230000008569 process Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 30
- 238000003384 imaging method Methods 0.000 description 19
- 238000009826 distribution Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
Abstract
【解決手段】エッジ抽出された画像から、被写体の輪郭に対応する画素の列を抽出し、その近似線に基づいてマスクの境界線を取得する。これにより、撮像画像ごとにしきい値を調節しながら画像を2値化する方式に比べて簡易な処理でマスクを作成できる。
【選択図】 図12
Description
下記の特許文献1には、近赤外光を照射して手指の血管のパターンを撮像し、これを予め登録された血管のパターンと照合することにより個人を認証する装置が記載されている。
そこで通常は、撮像画像から認証に必要な被写体のみを切り出すマスク処理が行われる。下記の特許文献2に記載される装置では、撮像画像に含まれる各画素値の画素の数を表したヒストグラムを作成し、これに基づいて被写体と背景部分とを区別するしきい値を取得し、そのしきい値を用いて撮像画像を2値化することによりマスクを作成している。
上記区分部において区分された最長の区間を形成する画素に基づいて、上記第1の画素抽出部において抽出された画素の列の近似線を取得する近似線取得部と、上記第1の画素抽出部において抽出された画素のうち、上記近似線取得部において取得された近似線との誤差が所定の範囲内にある画素の列を抽出する第2の画素抽出部と、上記第2の画素抽出部において抽出された画素の列の近似線に基づいて、上記マスクの第1境界線を取得する第1の境界線取得部とを有する。
図1は、本発明の実施形態に係る画像処理装置の構成の一例を示す図である。
図1に示す画像処理装置は、制御部10と、光源20と、光学系30と、撮像部40と、操作部50と、記憶部60とを有する。
光源20は、例えば発光ダイオードやハロゲンランプ等によって構成される。
制御部10は、例えばコンピュータによって構成されており、記憶部60に格納されるプログラムPRGに基づいて上記の制御や信号処理を実行する。
記憶部60は、例えばRAM(random access memory)やROM(read only memory)、不揮発性メモリ、ハードディスク等の記憶装置によって構成される。
図1に示す制御部10は、画像処理に係わる機能的な構成要素として、画像取得部101と、マスク作成部102と、領域特定部103と、エッジ強調部104と、評価値取得部105と、判定部106と、登録部107と、照合部108とを有する。
領域特定部103は、本発明の領域特定部の一実施形態である。
エッジ強調部104は、本発明のエッジ強調部の一実施形態である。
評価値取得部105は、本発明の評価値取得部の一実施形態である。
判定部106は、本発明の判定部の一実施形態である。
画像取得部101は、撮像部40において撮像された画像を順次に取得する。すなわち画像取得部101は、操作部50から入力される指示に応じてテンプレートの登録処理や照合処理が開始されると、光源20や撮像部40の動作を制御することにより、被写体FGに近赤外線を照射し、その投影画像を撮像し、撮像画像のデータを取り込む。
マスク作成部102は、画像取得部101において取り込まれた撮像画像から被写体FGを切り出すためのマスクを作成する。
図2(B)を見ると、指の部分において確かに血管の像が太く抽出されているが、それ以外の部分(指の輪郭や背景など)においても血管と同様に像が抽出されている。このような不要な像を後の処理で除去する方法も考えられるが、その場合、背景に応じて抽出される像が変化したり、血管像とそれ以外の像の特徴がほとんど等しくなったりすると、不要な像だけ除去するのは困難である。しかも、不要な像を残したまま処理を進めれば、常に画像の全体に対して処理を行わなければならなくなるため、計算量が多くなる。
図3に示すように、マスク処理を施すことによって、指の輪郭や背景など、血管でない部分の情報を除去することができる。また、マスク処理によって切り出される領域が既知であることから、マスク処理された中間画像にフィルタリング等の処理を施す際に、画像全体のうち必要な部分のみを処理すれば良い。そのため、画像全体を処理する場合に比べて計算量を減らすことが可能である。
エッジ強調部104は、画像取得部101において取り込まれた撮像画像のエッジを強調する。
画像のエッジの強調には、例えばガウシアンフィルタやラプラシアンフィルタなどの画像フィルタを用いる。すなわち、ガウシアンフィルタによって画像に含まれるノイズ成分を除去した後、ラプラシアンフィルタによって画素値の変化を強調する。これにより、画像に含まれる点状のノイズ成分が除去され、線状のエッジ成分が強調される。
図4(A)はエッジ強調処理前の画像、図4(B)はエッジ強調処理後の画像を示す。また図4(C)は図4(B)に示す画像の画素値を3次元で図解した図である。
図4の例から分かるように、撮像部40において撮像された画像にエッジ強調処理を施すと、指の血管(特に静脈)部分の画素値が他の部分に比べて突出する。
図4と図5を比較して分かるように、画素値のビット制限を撤廃した場合、元の画像における濃淡の違いがエッジ強調処理後の画像に敏感に現れており、濃い血管の画素値は大きく、薄い血管の画素値は小さくなっている。
そこでエッジ強調部104は、例えば図4の画像に示すようなビット制限を撤廃し、エッジ強調処理後の画素値のビット長を適切な長さに設定する。これにより、図5に示すような血管の濃淡の違いを敏感に表した画像が評価値取得部105に供給される。
そこで、次に述べる領域特定部103では、輪郭部分の影響を排除した状態で評価値Evが取得されるように、指の輪郭より確実に内側の領域を切り出すマスクを作成する。
以上が、エッジ強調部104についての説明である。
領域特定部103は、マスク作成部102において作成されたマスクの更に内側の領域を特定し、この特定した領域をエッジ強調処理後の画像から切り出す評価値取得用のマスクを作成する。
図6(A)は、マスク作成部102において作成されるマスクの一例を示す。図6(A)の黒い部分はマスクによって除去される領域を示し、白い部分はマスクによって切り取られる領域を示す。
図6(B)は、領域特定部103において特定される被写体FGの内側の領域の一例を示す。図6(B)の白い部分は、領域特定部103において特定される被写体FGの内側の領域を示す。また、灰色の部分は、図6(A)に示すマスクの境界線より内側であって、領域特定部103において特定される領域からは除外される部分を示す。
以上が、領域特定部103の説明である。
評価値取得部105は、エッジ強調部104においてエッジを強調された画像に含まれる画素の値に基づいて、撮像部40から入力した画像に含まれるエッジの強度及び/又は量に関する評価値Evを取得する。例えば、エッジ強調処理後の画像に含まれる全画素の値の合計を算出し、これを評価値Evとして取得する。
ただし、本実施形態に係る評価値取得部105は、エッジ強調処理後の画像に含まれる全画素のうち、領域特定部103において特定された被写体FGの内部領域に含まれる画素の値に基づいて評価値Evを取得し、この領域外の画素の値は評価値Evの決定に際して利用しない。すなわち、領域特定部103によって作成されたマスクにより切り出される、純粋な血管像を含んだ領域の画素値に基づいて、評価値Evを取得する。
図7(A)はエッジ強調処理前の画像を示す。また図7(B),(C)は、エッジ強調処理後の画像から被写体FGの内側領域をマスク処理によって切り出した画像を示す。
エッジ強調処理後の画像から領域特定部103で特定された領域のみを切り出すと、図7(B),(C)の画像に示すように被写体FGの輪郭の影響が排除され、被写体FGの内部に存在する血管の像だけが浮き彫りになる。この血管の像においては、元の画像における血管の太さや濃さに応じて画素値が大きく変化している。
評価値取得部105は、このように血管の濃淡の状態が適切に反映された画像における画素値の合計を、評価値Evとして算出する。この評価値Evは、テンプレート登録処理や照合処理に相応しい被写体FGの特徴を示す値となる。
図8(A)は、被写体FGを含む撮像画像を示し、図8(C)は、この図8(A)に示す画像にエッジ強調処理とマスク処理を施した後の画像を示す。
図8(B)は、被写体FGを含まない撮像画像を示し、図8(D)は、この図8(B)に示す画像にエッジ強調処理とマスク処理を施した後の画像を示す。
両者の画素値の合計を比較すると、図8(C)の画像は‘2434244’、図8(D)の画像は‘1177685’となった。このように、被写体FGを含む場合と含まない場合とでは、画素値の合計に大きな差異がある。したがって、評価値取得部105により取得される評価値Ev(すなわちエッジ強調処理及びマスク処理を施した画像の画素値の合計)は、その値の違いによって、被写体FGの有無を表すことができる。
図9に示すように、撮像画像に被写体FGが含まれていない場合、エッジ強調処理とマスク処理を施した後の画像には、一定の画素値(図9の例では‘500’)より小さい範囲にほとんど画素が分布している。一方、撮像画像に被写体FGが含まれている場合は、小さい画素値から大きい画素値まで広い範囲に画素が分布している。
図10(A),(B)は、図8(C),(D)と同じ画像であり、しきい値以下の画素値をゼロにしない場合の画像を示す。
他方、図10(C),(D)は、それぞれ図10(A),(B)の画像に含まれるしきい値‘255’以下の画素値を全てゼロにした場合の画像を示す。
撮像画像に被写体FGが含まれる場合は、図10(A)と図10(C)を比較して分かるように、しきい値以下の画素値をゼロにしてもエッジの主要な特徴(すなわち血管の像)が維持されている。これに対し、撮像画像に被写体FGが含まれていない場合は、図10(B)と図10(D)を比較して分かるように、しきい値以下の画素値をゼロにするとエッジの大半が消えてしまい、エッジの特徴が大きく変化する。
しきい値を設けない場合、被写体FGを含む画像(図10(A))の評価値Evは‘2434244’、被写体を含まない画像(図10(B))の評価値Evは‘1177685’となった。これに対して、しきい値‘255’以下の画素値をゼロにした場合、被写体FGを含む画像(図10(C))の評価値Evは‘2145659’、被写体FGを含まない画像(図10(D))の評価値Evは‘117921’になった。この図11から明らかなように、エッジ強調処理後の画像において所定のしきい値以下の画素値を除外して評価値Evを算出することにより、被写体FGの有無に応じた評価値Evの差異をより明確にすることができる。
以上が、評価値取得部105の説明である。
判定部106は、評価値取得部105において取得された評価値Evに基づいて、マスク作成部102で作成されたマスクが適切に被写体FGの像を切り出しているか否かを判定する。例えば、所定のしきい値と評価値Evとを比較し、当該比較結果に応じて、血管の像を切り出しているか否か判定する。
登録部107は、マスク作成部102で作成されたマスクが適切に被写体FGの像を切り出していると判定部106において判定された場合、このマスクを用いて撮像画像にマスク処理を施し、マスク処理された画像から血管パターンの情報を抽出し、これをテンプレートDATとして記憶部60に格納する。
また、登録部107は、判定部106においてマスクが血管の像を切り出していないと判定された場合、上記のテンプレート登録処理を停止する。
照合部108は、マスク作成部102で作成されたマスクが適切に被写体FGの像を切り出していると判定部106において判定された場合、このマスクを用いて撮像画像にマスク処理を施し、マスク処理された画像から血管パターンの情報を抽出し、この抽出した情報と記憶部60に格納されるテンプレートDATと照合する。
また、照合部108は、判定部106においてマスクが血管の像を切り出していないと判定された場合、上記の照合処理を停止する。
図12は、マスク作成部102の構成の一例を示す図である。図12に示すマスク作成部102は、エッジ抽出部201と、画素抽出部202と、中間点抽出部203と、区分部204と、近似線取得部205と、中間点抽出部206と、境界線取得部207,208と、マスク生成部209とを有する。
エッジ抽出部201は、本発明のエッジ抽出部の一実施形態である。
画素抽出部202は、本発明の画素抽出部の一実施形態である。
中間点抽出部203は、本発明の第1の中間点抽出部の一実施形態である。
区分部204は、本発明の区分部の一実施形態である。
近似線取得部205は、本発明の近似線取得部の一実施形態である。
中間点抽出部206は、本発明の第2の中間点抽出部の一実施形態である。
境界線取得部207は、本発明の第1の境界線取得部の一実施形態である。
境界線取得部208は、本発明の第3の境界線取得部の一実施形態である。
エッジ抽出部201は、画像取得部101において取得された撮像画像Spのエッジを抽出する。エッジの抽出には種々の手法を用いることが可能であるが、ここでは一例として‘sobelオペレータ’を利用してエッジの画素を抽出する例を説明する。‘sobelオペレータ’は、ノイズ耐性を有する汎用的なエッジ抽出用のオペレータであり、エッジ抽出対象の画像Iに対して次式に示す2つのフィルタfH,fGを適用する。
画素抽出部202は、エッジ抽出部201においてエッジを抽出された画像から、被写体FGの上側の輪郭を形成していると予想されるエッジ画素の列(第1画素の列)、並びに、被写体FGの下側の輪郭を形成していると予想されるエッジ画素の列(第2画素の列)をそれぞれ抽出する。
このように座標軸を定義した場合に、画像平面上には、画素抽出の際の基準となる2種類の基準直線(第1基準直線、第2基準直線)が設定される。
第1基準直線は、通常の条件で撮像が行われた場合に被写体FGの像の内部を通るように設定される。例えば、画像のy座標の中心付近を通り、x軸と平行な直線に設定される。
第2基準直線は複数本存在し、その各々がy軸と平行な直線に設定される。複数の第2基準直線は、好適には一定の間隔で配列される。
例えば、画素抽出部202は、第1基準直線と第2基準直線との交点から上方向及び下方向へ順にエッジ画素を探索していき、上方向で初めに見つかったエッジ画素を第1画素、下方向で初めに見つかったエッジ画素を第2画素として抽出する。
中間点抽出部203は、上述した複数の第2基準直線の各々において第1画素と第2画素との間に位置する中間点の列を抽出する。中間点抽出部203が抽出する中間点は、同一の第2基準直線上に位置する第1画素からの距離と第2画素からの距離とが所定の比を有する。以下の例において、この中間点は、同一の第2基準直線に位置する第1画素及び第2画素と等距離にあるものとする。
区分部204は、中間点抽出部203において抽出された中間点の列を、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分する。すなわち区分部204は、連続的に連なる中間点によって1の区間が形成されるように、抽出された中間点の列を区分する。
近似線取得部205は、区分部204において区分された最長の区間に属する中間点に基づいて、中間点抽出部203において抽出された中間点の列の近似線を取得する。例えば最小自乗法などによって、最長区間を形成する中間点の列に適合する1次の近似関数(あるいは2次以上の近似関数)を求める。
中間点抽出部206は、中間点抽出部203において抽出された中間点のうち、近似線取得部205において取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する。
境界線取得部207は、中間点抽出部206において抽出された中間点と、画素抽出部202において抽出された第1画素及び第2画素とに基づいて、マスクの上下の境界線を取得する。
すなわち、中間点抽出部206において抽出された中間点の列と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、マスクの上側の境界線(第1境界線)を取得し、当該第2基準直線に位置する第2画素の列の近似線に基づいて、マスクの下側の境界線(第2境界線)を取得する。
例えば、第1画素の列の近似線を第1基準直線に向かって所定の距離だけシフトさせた線をマスクの上側の境界線として取得し、第2画素の列の近似線を第1基準直線に向かって所定の距離だけシフトさせた線をマスクの下側の境界線として取得する。
例えば、中間点抽出部206において抽出された中間点の列の近似線と、x座標値を変数として上述した第1画素及び第2画素の間隔を近似する関数とを算出し、これらに基づいて上下の境界線を取得しても良い。
境界線取得部208は、被写体FGの上下の輪郭線が互いに近づいてくる部分、すなわち指先の部分をマスクによって除外するための境界線を取得する。
境界線取得部208は、被写体FGの上下の輪郭線が互いに近づいてくる部分を判定するため、判定領域を設定する。この判定領域は、y軸に平行な左右の2つの辺及びx軸に平行な上下の2つの辺に囲まれており、境界線取得部207で取得された上側境界線の一部と下側境界線の一部とを両方に含むように上下2つの辺の位置が決められている(図21参照)。
境界線取得部208は、上記の判定領域を、画像の所定の位置(例えば中央付近)からx軸に沿って右側へ順に移動させ、その移動した各位置において、判定領域に含まれるエッジ画素の数を計数する。そして、この計数値が所定のしきい値に達する位置において判定領域を通るy軸と平行な線を、マスクの右側境界線として取得する。
マスク生成部209は、境界線取得部207において取得された上下の境界線と、境界線取得部208において取得された左右の境界線とに基づいて、マスク画像Smskを生成する。例えば、境界線の外側領域の画素値を‘0’、境界線の内側領域の画素値を‘1’に設定したマスク画像を生成する。このマスク画像Smskと、処理対象の画像とのAND演算を行うことにより、処理対象の画像に含まれる被写体FGの内部領域が切り出され、他の領域の画素値が‘0’になる。
まずエッジ抽出部201において、撮像画像Spのエッジが抽出される。
図14は、エッジ抽出部201によってエッジ抽出された画像の一例を示す図である。図14(A)はエッジ抽出前の撮像画像であり、これに‘sobelオペレータ’によるエッジ抽出処理を施した画像が図14(B)である。エッジ抽出後の画像では、指の輪郭が大まかに抽出されている。
撮像画像Spのエッジが抽出されると、次に画素抽出部202において、第1基準直線より上の領域に含まれる第1画素の列、並びに、この第1基準直線より下の領域に含まれる第2画素の列が抽出される。第1画素及び第2画素は、複数の第2基準直線の各々から1つずつ抽出する。第1画素は、第2基準直線上の第1基準直線より上の領域において第1基準直線に最も近いエッジ画素であり、第2画素は、第2基準直線上の第1基準直線より下の領域において第1基準直線に最も近い画素である。
r0,r1,r2,…,rn−1;
と表し、同じ第1基準直線の中心から左方向へ順番に並ぶm本の第2基準直線を
l0,l1,l2,…,lm−1;
と表す。
また、右の(i+1)番目の第2基準直線riに位置する第1画素の座標を
(xri,yd ri);
と表し、同じ第2基準直線riに位置する第2画素の座標を
(xri,yu ri);
と表す。
また、左の(j+1)番目の第2基準直線ljに位置する第1画素の座標を
(xlj,yd lj);
と表し、同じ第2基準直線ljに位置する第2画素の座標を
(xlj,yu lj);
と表す。
右方向へ抽出を行う場合は、まず第2基準直線r0が選択される。第1基準直線と第2基準直線r0との交点から上下の方向へ順にエッジ画素が探索され、上側で最初に見つかったエッジ画素が第1画素(xr0,yd r0)、下側で最初に見つかった画素が第2画素(xr0,yu r0)として抽出される。
第2基準直線r0における画素の抽出が終わると、次にその右隣の第2基準直線r1が選択され、これと第1基準直線との交点から上下の方向へ順にエッジ画素が探索される。上側で最初に見つかったエッジ画素が第1画素(xr1,yd r1)、下側で最初に見つかった画素が第2画素(xr1,yu r1)として抽出される。
以下、同様な処理が右端の第2基準直線rn−1まで行われると、次には第2基準直線l0,l1,…,lm−1の順に中心から左方向へ処理が行われる。
画素抽出部202において第1画素及び第2画素が抽出されると、中間点抽出部203では、第1画素及び第2画素の中間点が抽出される。
第2基準直線r0に位置する中間点Cr0は、第1画素(xr0,yd r0)及び第2画素(xr0,yu r0)に基づいて、次式のように表される。
第2基準直線r0における指幅Wr0は、第1画素(xr0,yd r0)及び第2画素(xr0,yu r0)に基づいて、次式のように表される。
図15において、丸の点は2つの画素(第1画素、第2画素)の座標から求められた中間点を示し、三角の点は補間によって求められた中間点を示す。
この場合、中間点抽出部203では、第2基準直線ri+1の中間点Cri+1を、第2基準直線riの中間点Criと同じy座標を有する点に補間する。
これらをx座標値の昇順に並べて表すと、次式のようになる。
中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)が抽出されると、次に区分部204では、指の中心線に対して明らかにずれている中間点を見分けるために、中間点の列を連続区間に区分する。すなわち、中間点抽出部203において抽出された中間点の列を、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分する。
ここで第2基準直線が等しい間隔dxで並んでいるものとすると、隣接する2つの中間点Ck及びCk+1の距離は、次式で表されるy座標のずれdykによって評価できる。
図16は、図15に示す中間点の列が区分部204によって連続区間に区分される例を示す図である。図16の例では、3つの連続区間(左から順にA1,A2,A3)に区分されている。
中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)が連続区間に区分されると、次に近似線取得部205では、区分された連続区間(1つのみの場合もあり得る)の中で最長の区間に属する中間点に基づいて、中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)の近似線を取得する。例えば、最長の連続区間を‘P’とし、その区間を構成する第p番目の中間点Cpから第q番目の中間点Cq(Cp,Cp+1,…,Cq−1,Cq)に基づいて、例えば1次関数(直線)の近似線が計算される。
近似線取得部205において中間点の最長の連続区間に基づく近似線が取得されると、次に中間点抽出部206では、中間点抽出部203において抽出された全体の中間点(Clm−1,…,Cl0,Cr0,…,Crn−1)の中から、近似線取得部205において取得された近似線との誤差が所定の範囲内にある中間点の列が抽出される。
このような誤認識が生じると、指の幅が他の部分に比べて著しく異なったり、指の中心線が実体から大きくずれてしまう。そこで、中間点抽出部206では、比較的正しく指の中心線を表していると推定される近似線取得部205の近似直線と、中間点抽出部203において抽出された各中間点との誤差が算出される。そして、この誤差が所定のしきい値dLthrより大きい中間点については、指の中心線を構成しない中間点と見なされて、次のステップST107で用いる中間点の候補から除外される。
最長の連続区間に基づく近似線との誤差が所定範囲内にある中間点の列が抽出されると、次に境界線取得部207では、中間点抽出部206において抽出された中間点の列と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、マスクの上側の境界線(第1境界線)が取得され、当該第2基準直線に位置する第2画素の列の近似線に基づいて、マスクの下側の境界線(第2境界線)が取得される。
ここで、中間点抽出部206により抽出されたZ個の中間点の列を改めて
C0,C1,…,Cz−1;
と表し、これに対応するz個の指幅を改めて
Z0,C1,…,Cz−1;
と表す。境界線取得部207では、このZ個の中間点に基づいて、指の中心の近似線(例えば1次関数)を求めるとともに、Z個の指幅に基づいて、x座標を変数とする指幅の近似関数(例えば1次関数)を求める。
両者を比較して分かるように、中間点抽出部206で抽出された中間点に基づいて近似線を取得することにより、最長連続区間の中間点のみに基づいて近似線を取得する場合と比べて、中間点と近似線との誤差を全体的に小さくすることができる。
x座標の値が‘i’(i=0,…,319)のとき、上述の近似計算によって得られる中間点のy座標を‘CFi’、指幅のy座標を‘wFi’、指の上側輪郭のy座標を‘EDi’、指の下側輪郭のy座標を‘EUi’とすると、次式の関係が成立する。
図20(A)の近似線は、指の輪郭とよく一致しているが、これをそのままマスクの境界線に用いると、輪郭に現れる強いエッジに血管の像が影響を受ける可能性がある。そこで、指の上側輪郭の近似線を所定のオフセットOfsだけ下方向へシフトし、指の下側輪郭の近似線をオフセットOfsだけ上方向へシフトするように、式(11),(12)を修正する。
上記の処理によってマスクの上下の境界線が取得されると、次に境界線取得部208では、指先から外部を除外するための左右の境界線が取得される。
判定領域の中心は、例えば、境界線取得部207において近似された中間点に設定される。判定領域の左右の辺は、中間点(i,CFi)から、x軸方向にそれぞれ所定の距離dxだけ離れている。また、判定領域の上下の辺は、境界線取得部207において近似された指幅wFiの半分に所定の距離dyを加えた長さ、すなわち‘dy+(wFi)/2’だけ中間点(i,CFi)から離れている。
このように設定された判定領域は、図21(B),(C)に示すように、境界線取得部207で取得された上側境界線の一部及び下側境界線の一部を含んでいる。
マスクの左側境界線も、右側境界線と同様な処理によって取得可能である。
このようにして第1画素及び第2画素が抽出されると、次に、第2基準直線(lm−1,…,l0,r0,…rn−1)の各々において第1画素と第2画素との間に位置し、かつ当該第1画素からの距離と当該第2画素からの距離とが所定の比を有する中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)が抽出される。
この中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)は、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分される。そして、区分された最長の区間を形成する中間点に基づいて、中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)の近似線が取得される。
次いで、元の中間点の列(Clm−1,…,Cl0,Cr0,…,Crn−1)から、上記の近似線との誤差が所定の範囲内にあるz個の中間点の列(C0,…,Cz−1)が抽出される。
そして、このz個の中間点の列(C0,…,Cz−1)と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、マスクの上側の境界線が取得され、当該第2基準直線に位置する第2画素の列の近似線に基づいて、マスクの下側の境界線が取得される。
このように、エッジ抽出された画像から、被写体の輪郭に対応する画素の列を抽出し、その近似線に基づいてマスクの境界線を取得するため、撮像画像ごとにしきい値を調節しながら画像を2値化する方式に比べて簡易な処理でマスクを作成できる。
これにより、被写体の輪郭に直線的でない複雑な形状の部分(例えば指先)があっても、近似計算を行うことなくその輪郭の内側を切り出す境界線を取得できるため、処理の簡易化と高速化を図ることができる。
したがって、例えばテンプレート登録処理や認証処理を行っている最中に装置から指を離してしまった場合など、処理対象の被写体像が撮像画像に含まれていないことを的確に判別できる。これにより、マスク処理の後に続く各種の処理(テンプレート登録処理や照合処理など)の無駄な実行を止めることができるため、消費電力を低減できる。
次に、本発明の第2の実施形態について説明する。
第2の実施形態に係る画像処理装置では、エッジ画素の分布に基づいて被写体の境界線の位置が推定される。
エッジ抽出部211は、本発明のエッジ抽出部の一実施形態である。
境界線取得部212は、本発明の第2の境界線取得部の一実施形態である。
画素抽出部213は、本発明の第1の画素抽出部の一実施形態である。
区分部214は、本発明の区分部の一実施形態である。
近似線取得部215は、本発明の近似線取得部の一実施形態である。
画素抽出部216は、本発明の第2の画素抽出部の一実施形態である。
境界線取得部217は、本発明の第1の境界線取得部の一実施形態である。
境界線取得部218は、本発明の第3の境界線取得部の一実施形態である。
以下では、図22に示すマスク作成部102Aの各構成要素を説明する。
エッジ抽出部211は、先に述べたエッジ抽出部201と同様な構成要素であり、例えば‘sobelオペレータ’を用いて撮像画像Spのエッジを抽出する。
境界線取得部212は、平行な2つの辺によって挟まれる帯状の領域を、画像のy軸に対して平行に移動させ、その移動した各位置において、当該領域に含まれるエッジ画素を計数する。そして、その計数値が最も大きくなる位置において当該領域に含まれる上記辺と平行な線に応じて、マスクの上側の境界線を取得する。
画素抽出部213は、エッジ抽出部211においてエッジを抽出された画像から、被写体FGの下側の輪郭を形成していると予想されるエッジ画素の列を抽出する。
すなわち、画素抽出部213は、境界線取得部212において取得されたマスクの上側の境界線より下の領域に含まれており、所定の複数の第2基準直線に位置し、かつ、第2基準直線の各々において第1基準直線と最も近い位置にあるエッジ画素を抽出する。
例えば、画素抽出部213は、マスクの上側境界線と第2基準直線との交点から下方向へ順にエッジ画素を探索していき、初めに見つかったエッジ画素を抽出する。
区分部214は、画素抽出部213において抽出されたエッジ画素の列を、隣接するエッジ画素同士が所定の距離内にある1つ若しくは複数の区間に区分する。すなわち区分部214は、連続的に連なるエッジ画素によって1まとまりの区間が形成されるように、抽出されたエッジ画素の列を区分する。
近似線取得部215は、区分部214において区分された最長の区間に属するエッジ画素に基づいて、画素抽出部213で抽出されたエッジ画素の列の近似線を取得する。例えば最小自乗法などによって、最長区間を形成するエッジ画素の列に適合する1次の近似関数(あるいは2次以上の近似関数)を求める。
画素抽出部216は、画素抽出部213において抽出されたエッジ画素のうち、近似線取得部215において取得された近似線との誤差が所定の範囲内にあるエッジ画素の列を抽出する。
境界線取得部217は、画素抽出部216において抽出されたエッジ画素の列の近似線に基づいて、マスクの下側の境界線を取得する。
例えば、画素抽出部216において抽出されたエッジ画素の列の近似線を、マスクの上側の境界線に向かって所定の距離だけシフトさせた線を、マスクの下側の境界線として取得する。
境界線取得部218は、先に説明した境界線取得部208と同様な動作によって、被写体FGの上下の輪郭線が互いに近づいてくる部分、すなわち指先の部分をマスクによって除外するための境界線を取得する。
マスク生成部219は、先に説明したマスク生成部209と同様な動作により、境界線取得部212,217,218で取得される境界線を有したマスク画像Smskを生成する。
まずエッジ抽出部201において、撮像画像Spのエッジが抽出される。
撮像画像Spのエッジが抽出されると、次に境界線取得部212において、被写体FGの上側の境界線が取得される。
この図24において、点線で囲まれた領域は、撮像装置の指との接触面であり、図の例では、この接触面より上の領域(y座標が小さい領域)に指は存在しない。
図24の例では、画像の上側の輪郭が装置と指の接触面である。
図25(A)は、エッジ抽出後の画像であり、図25(B)は、この画像に含まれるエッジ画素の数をy座標ごとに計数した分布図を示す。エッジ画素数が最大となるy座標の直線と、接触面によって形成されるエッジの輪郭線とがよく一致している。
図26(A)において点線で囲まれた領域は、エッジ画素の計数を行う領域を示す。また図26(B)は、図26(A)において円で囲まれた領域を拡大した図である。
図26の例では、注目しているy座標(y=100)の前後に幅dy(dy=5)を持つ領域が、エッジ画素の計数を行う領域として設定されている。つまり、
100−dy ≦ y ≦ 100+dy ;
の領域内に含まれるエッジ画素の数が計数される。このように計数範囲に幅を持たせることによって、エッジ抽出された画像に多少の乱れが生じていても、接触面の位置を安定に求めることが可能となる。
この図からも分かるように、y軸方向に幅を持った領域内の画素数を計数することによって、画素数の激しい変化が緩和され、かつ最大ピークの位置(y=92)が明瞭に現れている。
ただし、y軸方向に幅dy(dy=5)を持たせたことにより、y軸方向にその分の幅が生じるため、マスクの境界線は、最大ピークの位置よりオフセットdofs(dofs=10)だけ下側に設定されている(図27(A))。これにより、マスクの上側の境界線が被写体FGの境界より内側に設定される。
上述のようにしてマスクの上側の境界線が取得されると、次に画素抽出部213において、被写体FGの下側の輪郭を形成していると予想されるエッジ画素の列が抽出される。すなわち、マスクの上側の境界線より下の領域に含まれており、所定の複数の第2基準直線に位置し、かつ、第2基準直線の各々において第1基準直線と最も近い位置にあるエッジ画素が抽出される。
例えば、マスクの上側境界線と第2基準直線との交点から下方向へ順にエッジ画素が探索され、初めに見つかったエッジ画素が抽出される(図28(A))。
このようなエッジ画素が、第2基準直線ごとに1つずつ抽出される。もし、ある第2基準直線上にエッジ画素がない場合は、その隣の第2基準直線において抽出されたエッジ画素と同じy座標を有するエッジ画素を、エッジ画素のない第2基準直線上に補間しても良い。
ステップST203においてエッジ画素の列が抽出されると、次に区分部214では、指の輪郭線に対して明らかにずれているエッジ画素を見分けるために、エッジ画素の列の連続区間を求める。すなわち、画素抽出部213において抽出されたエッジ画素の列を、隣接するエッジ画素同士が所定の距離内にある1つ若しくは複数の区間に区分する。
エッジ画素の列が連続区間に区分されると、次に近似線取得部215では、区分された連続区間(1つのみの場合もあり得る)の中で最長の区間に属するエッジ画素に基づいて、エッジ画素の列の近似線を取得する。
近似線取得部215においてエッジ画素の最長の連続区間に基づく近似線が取得されると、次に画素抽出部216では、画素抽出部213において抽出された全体のエッジ画素の中から、近似線取得部205において取得された近似線との誤差が所定の範囲内にあるエッジ画素の列が抽出される。
最長の連続区間に基づく近似線との誤差が所定範囲内にあるエッジ画素の列が抽出されると、次に境界線取得部217では、画素抽出部216において抽出されたエッジ画素の列の近似線に基づいて、マスクの下側の境界線が取得される。
すなわち、画素抽出部216において抽出されたエッジ画素の列の近似線(例えば1次関数による直線)を所定のオフセットだけ上方向へシフトしたものが、マスクの下側の境界線として取得される(図28(B))。
上記の処理によってマスクの上下の境界線が取得されると、次に境界線取得部208では、指先から外部を除外するための左右の境界線が取得される。この手法は、例えば、先に説明したステップST108と同様である。
例えば評価値取得部105は、エッジ強調部104においてエッジを強調された画像に含まれる全画素のうち、エッジの強度が所定のしきい値を超える画素の数に基づいて、評価値Evを取得しても良い。図9の分布図からも分かるように、被写体FGを含む画像は被写体FGを含まない画像に比べて強いエッジを多く含んでいる。そのため、エッジ強調処理及びマスク処理を施した後の画像において、あるしきい値より大きい画素値を有する画素(すなわちエッジの強度が所定のしきい値を超える画素)の数を評価値Evとして取得しても、被写体FGの有無を精度良く判定することが可能である。
また、評価値取得部105は、エッジ強調部104においてエッジを強調された画像に含まれる全画素のうち、エッジの強度が最も高い画素の値に基づいて、評価値Evを取得しても良い。具体例を挙げると、図10(C)に示す画像において画素値の最大値は'2257'、図10(D)に示す画像において画素値の最大値は'428'になっている。領域特定部103により特定された領域で被写体FGの輪郭の影響が十分に排除されているのであれば、上記の例のように、被写体FGの有無に応じて画素値の最大値に大きな差異が生じる。したがって、単純に画素値の最大値(すなわちエッジの強度が最も高い画素の値)に基づいて評価値Evを取得しても、被写体FGの有無を精度良く判定することが可能である。
Claims (17)
- 入力される画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、
上記入力画像のエッジを抽出するエッジ抽出部と、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した第1領域に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第1画素の列、並びに、上記第1領域の反対側で上記第1基準直線に接する第2領域に含まれており、上記複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第2画素の列を、上記エッジ抽出部において抽出されたエッジの中から抽出する画素抽出部と、
上記複数の第2基準直線の各々において上記第1画素と上記第2画素との間に位置し、かつ当該第1画素からの距離と当該第2画素からの距離とが所定の比を有する中間点の列を抽出する第1の中間点抽出部と、
上記第1の中間点抽出部において抽出された中間点の列を、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分する区分部と、
上記区分部において区分された最長の区間を形成する中間点に基づいて、上記第1の中間点抽出部において抽出された中間点の列の近似線を取得する近似線取得部と、
上記第1の中間点抽出部において抽出された中間点のうち、上記近似線取得部において取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する第2の中間点抽出部と、
上記第2の中間点抽出部において抽出された中間点の列と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、上記マスクの第1境界線を取得し、当該第2基準直線に位置する第2画素の列の近似線に基づいて、上記マスクの第2境界線を取得する第1の境界線取得部と
を有する画像処理装置。 - 上記第1の境界線取得部は、上記第1画素の列の近似線を上記第1基準直線に向かって所定の距離だけシフトさせた線を上記第1境界線として取得し、上記第2画素の列の近似線を上記第1基準直線に向かって所定の距離だけシフトさせた線を上記第2境界線として取得する、
請求項1に記載の画像処理装置。 - 上記第1基準直線と平行な2つの辺及び上記第2基準直線と平行な2つの辺に囲まれ、その内部に上記第1境界線の一部及び上記第2境界線の一部を含んだ領域を、上記入力画像上の所定位置から上記第1基準直線に対して平行な一の方向へ順に移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で抽出されたエッジの画素数を計数し、当該計数値が所定のしきい値に達する位置において当該領域を通る上記第2基準直線と平行な線を、上記マスクの第3境界線として取得する第3の境界線取得部を有する、
請求項1に記載の画像処理装置。 - 上記第1の中間点抽出部は、上記複数の第2基準直線の一部において上記画素抽出部が上記第1画素及び上記第2画素の一方若しくは両方を抽出できなかった場合に、当該一部の第2基準直線に隣接する他の第2基準直線において抽出した中間点に基づいて、当該一部の第2基準直線の中間点を補間する、
請求項1に記載の画像処理装置。 - 上記第1境界線取得部は、上記第2の中間点抽出部において抽出された中間点と、当該抽出された中間点を挟んで同一の第2基準直線に位置する第1画素及び第2画素の間隔とに基づいて、上記第1境界線及び上記第2境界線を取得する、
請求項1に記載の画像処理装置。 - 上記入力画像のエッジを強調するエッジ強調部と、
上記マスクによって切り出された被写体の更に内側の領域を特定する領域特定部と、
上記エッジ強調部においてエッジを強調された画像中の上記領域特定部において特定された領域に含まれる画素の値に基づいて、当該領域に含まれるエッジの強度及び/又は量に関する評価値を取得する評価値取得部と、
上記評価値取得部において取得された評価値に基づいて、上記マスクが上記被写体の像を切り出しているか否かを判定する判定部と
を有する、
請求項1に記載の画像処理装置。 - 入力される画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、
上記入力画像のエッジを抽出するエッジ抽出部と、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した2つの領域の一方に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い画素の列を、上記エッジ抽出部において抽出されたエッジの中から抽出する第1の画素抽出部と、
上記第1の画素抽出部において抽出された画素の列を、隣接する画素同士が所定の距離内にある1つ若しくは複数の区間に区分する区分部と、
上記区分部において区分された最長の区間を形成する画素に基づいて、上記第1の画素抽出部において抽出された画素の列の近似線を取得する近似線取得部と、
上記第1の画素抽出部において抽出された画素のうち、上記近似線取得部において取得された近似線との誤差が所定の範囲内にある画素の列を抽出する第2の画素抽出部と、
上記第2の画素抽出部において抽出された画素の列の近似線に基づいて、上記マスクの第1境界線を取得する第1の境界線取得部と
を有する画像処理装置。 - 平行な2つの辺によって挟まれる帯状の領域を、上記第2基準直線に対して平行に移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる上記辺と平行な線に応じて、上記マスクの第2境界線を取得する第2の境界線取得部を有し、
上記取得された第2境界線を上記第1基準直線として設定する、
請求項7に記載の画像処理装置。 - 上記第1の境界線取得部は、上記第2の画素抽出部において抽出された画素の列の近似線を上記第2境界線に向かって所定の距離だけシフトさせた線を上記第1境界線として取得し、
上記第2の境界線取得部は、上記エッジの画素数の計数値が最も大きくなる位置において上記領域に含まれる上記辺と平行な線を上記第1境界線に向かって所定の距離だけシフトさせた線を上記第2境界線として取得する、
請求項8に記載の画像処理装置。 - 上記第1基準直線と平行な2つの辺及び上記第2基準直線と平行な2つの辺に囲まれ、その内部に上記第1境界線の一部及び上記第2境界線の一部を含んだ領域を、上記入力画像上の所定位置から上記第1基準直線に対して平行な一の方向へ順に移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で抽出されたエッジの画素数を計数し、当該計数値が所定のしきい値に達する位置において当該領域を通る上記第2基準直線と平行な線を、上記マスクの第3境界線として取得する第3の境界線取得部を有する、
請求項8に記載の画像処理装置。 - 上記入力画像のエッジを強調するエッジ強調部と、
上記マスクによって切り出された被写体の更に内側の領域を特定する領域特定部と、
上記エッジ強調部においてエッジを強調された画像中の上記領域特定部において特定された領域に含まれる画素の値に基づいて、当該領域に含まれるエッジの強度及び/又は量に関する評価値を取得する評価値取得部と、
上記評価値取得部において取得された評価値に基づいて、上記マスクが上記被写体の像を切り出しているか否かを判定する判定部と
を有する、
請求項8に記載の画像処理装置。 - 与えられた画像から所定の被写体の像を切り出すマスクを作成するマスク作成方法であって、
上記与えられた画像のエッジを抽出する第1の工程と、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した第1領域に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第1画素の列、並びに、上記第1領域の反対側で上記第1基準直線に接する第2領域に含まれており、上記複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第2画素の列を、上記第1の工程において抽出されたエッジの中から抽出する第2の工程と、
上記複数の第2基準直線の各々において上記第1画素と上記第2画素との間に位置し、かつ当該第1画素からの距離と当該第2画素からの距離とが所定の比を有する中間点の列を抽出する第3の工程と、
上記第3の工程において抽出された中間点の列を、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分する第4の工程と、
上記第4の工程において区分された最長の区間を形成する中間点に基づいて、上記第3の工程において抽出された中間点の列の近似線を取得する第5の工程と、
上記第3の工程において抽出された中間点のうち、上記第5の工程において取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する第6の工程と、
上記第6の工程において抽出された中間点の列と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、上記マスクの第1境界線を取得し、当該第2基準直線に位置する第2画素の列の近似線に基づいて、上記マスクの第2境界線を取得する第7の工程と
を有するマスク作成方法。 - 与えられた画像から所定の被写体の像を切り出すマスクを作成するマスク作成方法であって、
上記与えられた画像のエッジを抽出する第1の工程と、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した2つの領域の一方に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第1画素の列を、上記第1の工程において抽出されたエッジの中から抽出する第2の工程と、
上記第2の工程において抽出された第1画素の列を、隣接する第1画素同士が所定の距離内にある1つ若しくは複数の区間に区分する第3の工程と、
上記第3の工程において区分された最長の区間を形成する第1画素に基づいて、上記第2の工程において抽出された第1画素の列の近似線を取得する第4の工程と、
上記第2の工程において抽出された第1画素のうち、上記第4の工程において取得された近似線との誤差が所定の範囲内にある第1画素の列を抽出する第5の工程と、
上記第5の工程において抽出された第1画素の列の近似線に基づいて、上記マスクの第1境界線を取得する第6の工程と
を有するマスク作成方法。 - 平行な2つの辺によって挟まれる帯状の領域を、上記第2基準直線に対して平行に移動させ、その移動した各位置において、当該領域に含まれる上記第1の工程で抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる上記辺と平行な線に応じて、上記マスクの第2境界線を取得する第7の工程を更に有し、
上記取得された第2境界線を上記第1基準直線として設定する、
請求項13に記載のマスク作成方法。 - 入力される画像から所定の被写体の像を切り出すマスクを作成する画像処理装置に、
上記入力画像のエッジを抽出する第1のステップと、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した第1領域に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第1画素の列、並びに、上記第1領域の反対側で上記第1基準直線に接する第2領域に含まれており、上記複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第2画素の列を、上記第1のステップにおいて抽出されたエッジの中から抽出する第2のステップと、
上記複数の第2基準直線の各々において上記第1画素と上記第2画素との間に位置し、かつ当該第1画素からの距離と当該第2画素からの距離とが所定の比を有する中間点の列を抽出する第3のステップと、
上記第3のステップにおいて抽出された中間点の列を、隣接する中間点同士が所定の距離内にある1つ若しくは複数の区間に区分する第4のステップと、
上記第4のステップにおいて区分された最長の区間を形成する中間点に基づいて、上記第3のステップにおいて抽出された中間点の列の近似線を取得する第5のステップと、
上記第3のステップにおいて抽出された中間点のうち、上記第5のステップにおいて取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する第6のステップと、
上記第6のステップにおいて抽出された中間点の列と同じ第2基準直線に位置する第1画素の列の近似線に基づいて、上記マスクの第1境界線を取得し、当該第2基準直線に位置する第2画素の列の近似線に基づいて、上記マスクの第2境界線を取得する第7のステップと
を実行させるプログラム。 - 入力される画像から所定の被写体の像を切り出すマスクを作成する画像処理装置に、
上記与えられた画像のエッジを抽出する第1のステップと、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第1基準直線に接した2つの領域の一方に含まれており、上記入力画像の平面上に設定される平行な複数の第2基準直線上に位置し、かつ上記複数の第2基準直線の各々において上記第1基準直線に最も近い第1画素の列を、上記第1のステップにおいて抽出されたエッジの中から抽出する第2のステップと、
上記第2のステップにおいて抽出された第1画素の列を、隣接する第1画素同士が所定の距離内にある1つ若しくは複数の区間に区分する第3のステップと、
上記第3のステップにおいて区分された最長の区間を形成する第1画素に基づいて、上記第2のステップにおいて抽出された第1画素の列の近似線を取得する第4のステップと、
上記第2のステップにおいて抽出された第1画素のうち、上記第4のステップにおいて取得された近似線との誤差が所定の範囲内にある第1画素の列を抽出する第5のステップと、
上記第5のステップにおいて抽出された第1画素の列の近似線に基づいて、上記マスクの第1境界線を取得する第6のステップと
を実行させるプログラム。 - 平行な2つの辺によって挟まれる帯状の領域を、上記第2基準直線に対して平行に移動させ、その移動した各位置において、当該領域に含まれる上記第1のステップで抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる上記辺と平行な線に応じて、上記マスクの第2境界線を取得する第7のステップを上記画像処理装置に実行させ、
上記取得された第2境界線を上記第1基準直線として設定する、
請求項16に記載のプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005257857A JP4305431B2 (ja) | 2005-09-06 | 2005-09-06 | 画像処理装置、マスク作成方法及びプログラム |
US11/718,784 US8311332B2 (en) | 2005-09-06 | 2006-08-31 | Image processing system, mask fabrication method, and program |
PCT/JP2006/317205 WO2007029591A1 (ja) | 2005-09-06 | 2006-08-31 | 画像処理装置、マスク作成方法及びプログラム |
CN2006800011724A CN101052989B (zh) | 2005-09-06 | 2006-08-31 | 图像处理装置以及掩模作成方法 |
EP06797165.5A EP1923831A4 (en) | 2005-09-06 | 2006-08-31 | IMAGE PROCESSING DEVICE, AND METHOD AND MASK PROCESSING PROGRAM |
KR1020077009530A KR101266422B1 (ko) | 2005-09-06 | 2006-08-31 | 화상 처리 장치, 마스크 작성 방법 및 프로그램 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005257857A JP4305431B2 (ja) | 2005-09-06 | 2005-09-06 | 画像処理装置、マスク作成方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007072676A true JP2007072676A (ja) | 2007-03-22 |
JP4305431B2 JP4305431B2 (ja) | 2009-07-29 |
Family
ID=37835710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005257857A Expired - Fee Related JP4305431B2 (ja) | 2005-09-06 | 2005-09-06 | 画像処理装置、マスク作成方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US8311332B2 (ja) |
EP (1) | EP1923831A4 (ja) |
JP (1) | JP4305431B2 (ja) |
KR (1) | KR101266422B1 (ja) |
CN (1) | CN101052989B (ja) |
WO (1) | WO2007029591A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008139884A1 (ja) * | 2007-05-16 | 2008-11-20 | Sony Corporation | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123206A (ja) * | 2006-11-10 | 2008-05-29 | Sony Corp | 登録装置、照合装置、登録方法、照合方法及びプログラム |
JP5396004B2 (ja) * | 2007-01-31 | 2014-01-22 | オリンパス株式会社 | 蛍光観察装置および蛍光観察装置の作動方法 |
JP2008287436A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP2008287428A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP2008287433A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP5244654B2 (ja) * | 2009-03-04 | 2013-07-24 | 日立オムロンターミナルソリューションズ株式会社 | 指認証装置 |
JP5312166B2 (ja) * | 2009-04-13 | 2013-10-09 | キヤノン株式会社 | 画像処理装置及び制御方法及びプログラム |
JP5380231B2 (ja) * | 2009-09-30 | 2014-01-08 | 富士フイルム株式会社 | 医用画像表示装置および方法ならびにプログラム |
JP5507962B2 (ja) * | 2009-11-05 | 2014-05-28 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
JP5570866B2 (ja) * | 2010-04-30 | 2014-08-13 | オリンパス株式会社 | 画像処理装置、画像処理装置の作動方法、および画像処理プログラム |
JP5620194B2 (ja) * | 2010-08-24 | 2014-11-05 | オリンパス株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP5871571B2 (ja) | 2011-11-11 | 2016-03-01 | 株式会社Pfu | 画像処理装置、矩形検出方法及びコンピュータプログラム |
JP5854774B2 (ja) * | 2011-11-11 | 2016-02-09 | 株式会社Pfu | 画像処理装置、直線検出方法及びコンピュータプログラム |
JP5822664B2 (ja) | 2011-11-11 | 2015-11-24 | 株式会社Pfu | 画像処理装置、直線検出方法及びコンピュータプログラム |
US9384711B2 (en) | 2012-02-15 | 2016-07-05 | Microsoft Technology Licensing, Llc | Speculative render ahead and caching in multiple passes |
US9230517B2 (en) | 2012-05-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Virtual surface gutters |
US9286122B2 (en) | 2012-05-31 | 2016-03-15 | Microsoft Technology Licensing, Llc | Display techniques using virtual surface allocation |
US9177533B2 (en) | 2012-05-31 | 2015-11-03 | Microsoft Technology Licensing, Llc | Virtual surface compaction |
US9235925B2 (en) * | 2012-05-31 | 2016-01-12 | Microsoft Technology Licensing, Llc | Virtual surface rendering |
US8843759B2 (en) * | 2012-08-28 | 2014-09-23 | At&T Intellectual Property I, L.P. | Methods, systems, and computer program products for media-based authentication |
US9307007B2 (en) | 2013-06-14 | 2016-04-05 | Microsoft Technology Licensing, Llc | Content pre-render and pre-fetch techniques |
US9558392B2 (en) * | 2015-02-12 | 2017-01-31 | Korecen Co., Ltd. | Finger vein authentication system |
JP6198990B2 (ja) * | 2015-04-01 | 2017-09-20 | 三菱電機株式会社 | 作業指示システム |
CN105718214B (zh) * | 2015-10-21 | 2019-02-26 | 深圳芯启航科技有限公司 | 指纹掩膜图像的存取方法及装置 |
WO2022005650A1 (en) * | 2020-05-26 | 2022-01-06 | Air-Clenz Systems, LLC | Exhaled air purification unit and system for indoor multi-person venues or environments |
JP7551419B2 (ja) * | 2020-09-23 | 2024-09-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN118154455B (zh) * | 2024-05-06 | 2024-07-05 | 中铁七局集团第三工程有限公司 | 基于图像处理的掌子面位移测量方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5321770A (en) * | 1991-11-19 | 1994-06-14 | Xerox Corporation | Method for determining boundaries of words in text |
CA2077970C (en) * | 1991-11-19 | 1999-02-23 | Daniel P. Huttenlocher | Optical word recognition by examination of word shape |
US5369714A (en) * | 1991-11-19 | 1994-11-29 | Xerox Corporation | Method and apparatus for determining the frequency of phrases in a document without document image decoding |
JPH06282652A (ja) | 1993-03-29 | 1994-10-07 | Olympus Optical Co Ltd | 画像の輪郭抽出装置 |
JP3825222B2 (ja) * | 2000-03-24 | 2006-09-27 | 松下電器産業株式会社 | 本人認証装置および本人認証システムならびに電子決済システム |
JP3431593B2 (ja) * | 2000-10-31 | 2003-07-28 | 株式会社東芝 | コンテンツ生成装置、電子透かし検出装置、コンテンツ生成方法、電子透かし検出方法及び記録媒体 |
JP4389489B2 (ja) | 2003-05-06 | 2009-12-24 | ソニー株式会社 | 画像処理方法、および画像処理装置 |
JP2005056282A (ja) | 2003-08-06 | 2005-03-03 | Sony Corp | 画像処理方法、画像処理装置、およびプログラム |
JP4251067B2 (ja) | 2003-12-01 | 2009-04-08 | 株式会社日立製作所 | 個人認証装置及び個人認証用の血管パターン抽出装置 |
JP4992212B2 (ja) * | 2005-09-06 | 2012-08-08 | ソニー株式会社 | 画像処理装置、画像判定方法及びプログラム |
-
2005
- 2005-09-06 JP JP2005257857A patent/JP4305431B2/ja not_active Expired - Fee Related
-
2006
- 2006-08-31 KR KR1020077009530A patent/KR101266422B1/ko not_active IP Right Cessation
- 2006-08-31 EP EP06797165.5A patent/EP1923831A4/en not_active Withdrawn
- 2006-08-31 CN CN2006800011724A patent/CN101052989B/zh not_active Expired - Fee Related
- 2006-08-31 WO PCT/JP2006/317205 patent/WO2007029591A1/ja active Application Filing
- 2006-08-31 US US11/718,784 patent/US8311332B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008139884A1 (ja) * | 2007-05-16 | 2008-11-20 | Sony Corporation | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP2008287432A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
US8270681B2 (en) | 2007-05-16 | 2012-09-18 | Sony Corporation | Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration |
Also Published As
Publication number | Publication date |
---|---|
KR101266422B1 (ko) | 2013-05-22 |
CN101052989B (zh) | 2010-09-29 |
KR20080052507A (ko) | 2008-06-11 |
EP1923831A1 (en) | 2008-05-21 |
CN101052989A (zh) | 2007-10-10 |
EP1923831A4 (en) | 2013-10-02 |
JP4305431B2 (ja) | 2009-07-29 |
US8311332B2 (en) | 2012-11-13 |
WO2007029591A1 (ja) | 2007-03-15 |
US20090129635A1 (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4305431B2 (ja) | 画像処理装置、マスク作成方法及びプログラム | |
KR102561723B1 (ko) | 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법 | |
AU2016214084B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US20030039382A1 (en) | Fingerprint recognition system | |
KR101626837B1 (ko) | 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치 | |
JP2011159035A (ja) | 生体認証装置、生体認証方法およびプログラム | |
JP2004206444A (ja) | 個人認証方法および虹彩認証装置 | |
WO2008140539A1 (en) | Methods for gray-level ridge feature extraction and associated print matching | |
KR102174083B1 (ko) | 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법 | |
JP4809155B2 (ja) | 手の甲認証システム及び手の甲認証方法 | |
Raghavendra et al. | Exploring dorsal finger vein pattern for robust person recognition | |
CN113609953A (zh) | 一种非接触式的掌静脉区域识别方法、系统及存储介质 | |
KR101601187B1 (ko) | 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법 | |
KR101582467B1 (ko) | 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치 | |
KR101021134B1 (ko) | 지문의 방향 특징을 추출하는 장치 및 방법 | |
JP4992212B2 (ja) | 画像処理装置、画像判定方法及びプログラム | |
JP2011258209A (ja) | 手の甲認証システム及び手の甲認証方法 | |
KR100698723B1 (ko) | 지문 중심점 부위 특징점을 이용한 고속 매칭 | |
KR100647362B1 (ko) | 지문 인식 방법 | |
KR101767051B1 (ko) | 퍼지 추론 기반 지정맥 영상 추출 방법 및 그 장치 | |
KR101626835B1 (ko) | 지정맥 영상의 혈관증강처리 방법 및 그 장치 | |
Porwik et al. | A new efficient method of fingerprint image enhancement | |
CN112801034A (zh) | 一种指静脉识别装置 | |
Vasquez et al. | Features extraction in images on finger veins with hybrid curves | |
KR100607580B1 (ko) | 지문 특징데이터 추출알고리즘에 있어서의 방향 필터링방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090420 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4305431 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |