JP2004329825A - 画像処理方法、および画像処理装置 - Google Patents
画像処理方法、および画像処理装置 Download PDFInfo
- Publication number
- JP2004329825A JP2004329825A JP2003164372A JP2003164372A JP2004329825A JP 2004329825 A JP2004329825 A JP 2004329825A JP 2003164372 A JP2003164372 A JP 2003164372A JP 2003164372 A JP2003164372 A JP 2003164372A JP 2004329825 A JP2004329825 A JP 2004329825A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- filter
- unit
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 269
- 238000009826 distribution Methods 0.000 claims abstract description 67
- 238000013507 mapping Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 119
- 230000008569 process Effects 0.000 claims description 114
- 238000003384 imaging method Methods 0.000 claims description 67
- 238000003379 elimination reaction Methods 0.000 claims description 17
- 230000008030 elimination Effects 0.000 claims description 14
- 238000012935 Averaging Methods 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 47
- 238000004891 communication Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 29
- 210000004204 blood vessel Anatomy 0.000 description 25
- 238000003860 storage Methods 0.000 description 24
- 230000007850 degeneration Effects 0.000 description 15
- 238000000605 extraction Methods 0.000 description 13
- 210000003462 vein Anatomy 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000009467 reduction Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 8
- 230000004069 differentiation Effects 0.000 description 7
- 238000003708 edge detection Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 102000001554 Hemoglobins Human genes 0.000 description 2
- 108010054147 Hemoglobins Proteins 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008802 morphological function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Input (AREA)
Abstract
【解決手段】分布データ生成部1802により分布データを生成し、特定部1803により第2の範囲を特定し、マッピング部1804により第2の範囲を第1の範囲にマッピングし、構成要素1805〜1812等により第1の範囲r1内に規定された閾値を基に2値化して第3の画像データを生成するので、被検体h毎に画素値の分布データd1が異なる場合であっても、適切に2値化処理できる。
【選択図】 図3
Description
【発明の属する技術分野】
本発明は、例えば、被検体を撮像して得られた画像データを処理する画像処理方法、および画像処理装置に関するものである。
【0002】
【従来の技術】
従来、例えば生体(被検体)を撮像して得られた画像データを用いて個人識別する識別装置が知られている(例えば、特許文献1参照)。
上述した従来の識別装置では、例えば被検体の手の透過光を撮像して、その画像データの画素値について予め決められた閾値を基に2値化画像データを生成して識別処理を行う。例えば識別装置は、2値化画像データの内の血管の配置を示すパターンを基に識別処理を行う。
【0003】
【特許文献1】
特開平10_127609号公報
【0004】
【発明が解決しようとする課題】
ところで、撮像データの画素値の分布は被検体毎に異なる。例えば脂肪成分の多い被検体の撮像データは、脂肪成分の少ない被検体の撮像データと比べて画素値の分布データが広範囲に広がり画素値の平均値が比較的高い。
上述した従来の識別装置は、予め決められた閾値を基に2値化処理を行うので、例えば脂肪成分の少ない被検体の画像データでは適切な2値化画像データを生成できるが、脂肪成分の多い被検体の画像データでは、偏った画素値を有する2値化画像データを生成してしまい、適切に2値化処理できない場合があり、改善が望まれている。
【0005】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、被検体毎に画素値の分布データが異なる場合であっても、適切に2値化処理できる画像処理方法、および画像処理装置を提供することにある。
【0006】
【課題を解決するための手段】
前記目的を達成するために、本発明の第1の観点は、被検体を撮像して得られた第1の画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、前記画素データの分布を示す分布データを生成する第1の工程と、前記第1の工程で生成した前記分布データに基いて、前記第1の範囲のうち2値化対象とする第2の範囲を特定する第2の工程と、前記複数の画素データのうち、前記第2の工程で特定した前記第2の範囲にある画素データを前記第1の範囲にマッピングして、当該マッピングした前記画素データで構成される第2の画像データを生成する第3の工程と、前記第3の工程で生成した前記第2の画像データを、前記第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する第4の工程とを有する。
【0007】
本発明の第1の観点によれば、第1の工程では、被検体を撮像して得られた第1の画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、画素データの分布を示す分布データを生成する。
第2の工程では、第1の工程で生成した分布データに基いて、第1の範囲のうち2値化対象とする第2の範囲を特定する。
第3の工程では、複数の画素データのうち、第2の工程で特定した第2の範囲にある画素データを第1の範囲にマッピングして、当該マッピングした画素データで構成される第2の画像データを生成する。
第4の工程では、第3の工程で生成した第2の画像データを、第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する。
【0008】
さらに、前記目的を達成するために、本発明の第2の観点は、被検体を撮像して得られた第1の画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、前記画素データの分布を示す分布データを生成する分布データ生成手段と、前記分布データ生成手段が生成した前記分布データに基いて、前記第1の範囲のうち2値化対象とする第2の範囲を特定する特定手段と、前記複数の画素データのうち、前記特定手段が特定した前記第2の範囲にある画素データを前記第1の範囲にマッピングして、当該マッピングした前記画素データで構成される第2の画像データを生成するマッピング手段と、前記マッピング手段で生成した前記第2の画像データを、前記第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する2値化手段とを有する。
【0009】
【発明の実施の形態】
本発明に係る画像処理装置は、被検体を撮像して得られた画像データを基に、画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、画素データの分布を示す分布データを生成し、2値化対象とする第2の範囲を特定し、その第2の範囲内の画素データを第1の範囲にマッピングして、そのマッピングした画素データで構成される画像データを生成し、その画像データを第1の範囲内で規定された閾値を基に2値化して2値化画像データを生成する。
【0010】
以下、本発明に係る画像処理装置の第1実施形態として、被検体hとしての生体中の血管が形成された部位を撮像して画像データを生成し、その画像データを画像処理して血管情報を抽出し、認証処理を行うデータ処理装置を説明する。
【0011】
図1は、本発明に係るデータ処理装置の第1実施形態を示す全体の概念図である。
本実施形態に係るデータ処理装置1は、図1に示すように、撮像系101、抽出部102、および認証部103を有する。データ処理装置1は本発明に係る画像処理装置に相当する。
【0012】
撮像系101は、被検体hを撮像して画像データを生成し、その画像データを信号S11として抽出部102に出力する。
撮像系101は、詳細には照射部1011および光学レンズ1012を有する。
照射部1011は、例えばハロゲンランプ等より構成され、制御信号により被検体hの一部に電磁波、例えば近赤外線を照射する。
【0013】
例えば被検体hとしての生体に電磁波を照射した場合、波長領域600nm〜1300nm程度の赤色から赤外領域の近赤外線は、他の波長領域の電磁波と比較して透過性が高い。この波長領域では血中のヘモグロビンによる光吸収が支配的である。
【0014】
例えば被検体hとして手の甲側から近赤外線を照射し、掌側から透過光を撮像した場合に、電磁波は血中のヘモグロビンにより吸収されるため、掌側表面近傍の太い血管に相当する領域が、血管に相当する領域以外の領域よりも暗い画像データが得られる。
【0015】
血管の静脈は、成長過程で形成され後天性のものであり、この血管の形状は個人差が大きい。本実施形態では、この血管を撮像して得られた画像データを個人特有の識別情報として認証処理に用いる。
【0016】
光学レンズは1012は、被検体hからの透過光を撮像部11に結像する。
撮像部11は、光学レンズ1012により結像された透過光を基に画像データS11を生成する。例えば撮像部11は、CCD(Charge−coupled device :電荷結合素子)型画像センサや、C−MOS(Complementary metal−oxide semiconductor)型画像センサにより構成され、画像データS11を抽出部102に出力する。この際、画像データS11はRGB(red−green−blue)信号であってもよいし、それ以外の色やグレースケール等の画像データであってもよい。
【0017】
抽出部102は、画像データS11を基に画像処理を行い、認証に用いる画像データ、例えばスケルトン画像データを抽出して信号S102として認証部103に出力する。
認証部103は、抽出部102による信号S102を基に、予め記憶する登録画像データと照合処理を行い、認証処理を行う。
【0018】
図2は、図1に示したデータ処理装置のハードウェア的なブロック図である。データ処理装置1は、例えば図2に示すように、撮像部11、入力部12、出力部13、通信インタフェース(I/F)14、RAM(Random access Memory)15、ROM(Read only memory)16、記憶部17、およびCPU18を有する。
撮像部11、入力部12、出力部13、通信インタフェース(I/F)14、RAM15、ROM16、記憶部17、およびCPU18は、バスBSにより接続されている。
【0019】
撮像部11は、CPU18の制御により、被検体hの画像データを生成し信号S11として出力する。
入力部12は、例えばユーザの操作に応じた信号をCPU18に出力する。例えば入力部12は、キーボード、マウス、およびタッチパネル等により構成される。
出力部13は、CPU18の制御により所定のデータに応じた出力を行う。例えば出力部13はディスプレイ等の表示装置等により構成される。
【0020】
通信インタフェース(I/F)14は、CPU18の制御により、例えば不図示の通信ネットワークを介して、他のデータ処理装置とデータ通信を行う。
RAM15は、例えばCPU18のワークスペースとして用いられる。
ROM16は、例えば初期値や初期パラメータ等のデータを記憶し、そのデータはCPU18により利用される。
【0021】
記憶部17は、CPU18により所定のデータの書込みおよび読出しが行われる。例えば記憶部17は、HDD(Hard disk drive)等の記憶装置で構成される。
記憶部17は、例えば図2に示すように、プログラムPRG、画像データDP等を有する。
プログラムPRGは、本実施形態に係る機能、例えば抽出部102および認証部103等の機能を含み、CPU18により実行されることで、その機能が実現される。
画像データD_Pは、例えば認証処理に用いられる登録画像データ等の画像データである。
【0022】
図3は、図1に示したデータ処理装置の機能ブロック図である。
例えばCPU18は、図3に示すようにプログラムPRGを実行することにより、抽出部102の機能として、グレースケール変換部1801、分布データ生成部1802、特定部1803、マッピング部1804、ガウシアンフィルタ1805、ガウシアンラプラシアン1806、第1の縮退処理部1807、第1の膨張処理部1808、第2の膨張処理部1809、第2の縮退処理部1810、ローパスフィルタ部1811、マスク部1812、およびスケルトン部1813の機能を実現する。
本発明はこの形態に限られるものではない。例えば図3に示す構成要素の機能をハードウェアにより実現してもよい。
【0023】
分布データ生成部1802は本発明に係る分布データ生成手段に相当し、特定部1803は本発明に係る特定手段に相当し、マッピング部1804は本発明に係るマッピング手段に相当し、ローパスフィルタ部1811は本発明に係るフィルタ処理手段に相当し、ガウシアンフィルタ1805、ガウシアンラプラシアン1806、第1の縮退処理部1807、第1の膨張処理部1808、第2の膨張処理部1809、第2の縮退処理部1810、ローパスフィルタ部1811、マスク部1812、およびスケルトン部1813が、本発明に係る2値化手段に相当する。
【0024】
グレースケール変換部1801は、撮像部11からのRGBの信号S11を基にグレースケールに変換して信号S1801として、分布データ生成部1802に出力する。詳細にはグレースケール変換部1801は、RGB信号を白から黒までの所定の階調、例えば256階調に変換する。
【0025】
本実施形態では、撮像部11はRGBの信号S11を生成し、グレースケール変換部1801がその信号S11をグレースケールに変換処理を行ったが、この形態に限られるものではない。例えば、撮像部11がグレースケールの画像データS11を生成した場合には、グレースケール変換部1801を設けない。
【0026】
図4は、図1に示したデータ処理装置の動作を説明するための図である。
本実施形態では、撮像部11は、例えば被検体hの生体の指を撮像して図4(a)に示すようなRGB画像データS11を出力する。
グレースケール変換部1801は、その画像データS11を基に、例えば図4(b)に示すような、グレースケールの画像データS1802を生成し、分布データ生成部1802に出力する。
【0027】
分布データ生成部1802は、グレースケール変換部1801からの信号S1801を基に、画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、画素データの分布を示す分布データd1を生成し、信号S1802として特定部1803に出力する。
【0028】
詳細には分布データ生成部1802は、信号S1801を基に、例えば横軸cを階調の値(画素値ともいう),縦軸fをその画素データの数(度数ともいう)とすると、図4(c)に示すように第1の範囲r1として256階調の範囲の画素値を示す画素データについて、分布データd1としてヒストグラムを生成する。図4(c)では小さな画素値は黒に相当し、大きな画素値は白に相当する。
分布データ生成部1802は、詳細には第1の範囲r1内の各画素値について、画素値を持つ画素データの数を示す分布データd1を生成する。
【0029】
図5は、図3に示した特定部の動作を説明するための図である。
特定部1803は、信号S1802を基に、第1の範囲r1のうち予め決められた数の画素データが持つ画素値のなかで最大の画素値以下の範囲を、2値化対象とする第2の範囲r2として特定し、信号S1803として出力する。
【0030】
詳細には特定部1803は、例えば図5(a)に示すように、分布データd1について、第1の範囲r1内のうち、予め決められた閾値V_thの数の画素値r11,r12,r13,r14のなかで最大の画素値r11以下の範囲を第2の範囲r2として特定する。
例えば特定部1803は、図5(a)に示すような分布データd1の場合には0〜110の画素値の範囲を第2の範囲r2として特定する。
【0031】
ところで、被検体hの画素値の分布データは被検体h毎に異なる。例えば脂肪成分の多い被検体hの画像データのヒストグラムd1’は、脂肪成分の少ない被検体の画像データと比べて、図5(b)に示すように分布データd1’が広範囲に広がり画素値の平均値が比較的高い。
特定部1803は、例えば図5(b)に示すような分布データd1’の場合には、第1の範囲r1内のうち、予め決められた閾値V_thの数の画素値r11’,r12’,r13’,r14’のなかで最大の画素値r11’以下の範囲を第2の範囲r2’として特定する。
【0032】
マッピング部1804は、信号S1803を基に、複数の画素データのうち、特定部1803が特定した第2の範囲r2にある画素データを第1の範囲r1にマッピングして、当該マッピングした画素データで構成される第2の画像データを生成し信号S1804として出力する。
【0033】
詳細にはマッピング部1804は、例えば図4(c)に示すように0〜110の画素値の範囲を第2の範囲r2とする場合には、図4(d)に示すように画素データを0〜256の画素値の範囲である第1の範囲r1に拡大することでマッピングを行い、図4(e)に示すように血管情報を含まない画像データのうち中心部分を拡大して第2の画像データS1804を生成する。
【0034】
図6は、図1に示したデータ処理装置のマッピング処理に係る動作を説明するためのフローチャートである。図4〜6を参照しながら、分布データ生成部1802,特定部1803,マッピング部1804の動作を中心に説明する。
【0035】
撮像部11では、被検体hを撮像して画像データS11をグレースケール変換部1801に出力する。画像データS11は、グレースケール変換部1801により256階調のグレースケールに変換され、信号S1801として分布データ生成部1802に入力される。
【0036】
ステップST1において、分布データ生成部1802では、信号S1801を基に、例えば図4(c)に示すように、画像データSを構成し予め規定された第1の範囲r1内の画素値を示す複数の画素データについて、その画素値を持つ画素データの数を示す分布データd1を生成し信号S1802として特定部1803として出力される。
【0037】
ステップST2において、特定部1803では、図4(c)に示すように、信号S1802を基に、第1の範囲r1内のうち予め決められた数、例えば閾値V_thの画素データが持つ画素値のなかで最大の画素値r11以下の範囲を、2値化対象とする第2の範囲r2として特定し、信号S1803としてマッピング部1804に出力する。
【0038】
ステップST3において、マッピング部1804は、図4(d)に示すように、信号S1803を基に複数の画素データのうち、特定部1803が特定した第2の範囲r2にある画素データを第1の範囲r1にマッピングして、当該マッピングした画素データで構成される第2の画像データを生成し、信号S1804として出力する。
【0039】
ステップST4において、例えば後述する構成要素1805〜1812等によりマッピング部1804で生成した第2の画像データS1804を、第1の範囲r1内に規定された閾値、例えば100階調を基に2値化して第3の画像データを生成する。
【0040】
上述したように本実施形態では、例えば図4(c),図4(d)に示すように、分布データ生成部1802により分布データを生成し、特定部1803により第2の範囲を特定し、マッピング部1804により第2の範囲にある画素データを第1の範囲にマッピングし、後述する構成要素1805〜1812等により第1の範囲r1内に規定された閾値を基に2値化して画像データを生成するので、被検体h毎に画素値の分布データd1が異なる場合であっても、適切に2値化処理できる。
【0041】
また、特定した第2の範囲にある画素データを第1の範囲にマッピングするのでコントラストが強くなり、適切に2値化処理を行うことができる。
【0042】
本実施系形態に係るデータ処理装置1は、上述した工程で生成した画像データにノイズ除去処理後、エッジ強調処理を行う。例えば、データ処理装置1は信号S1804を基に複数の異なるノイズ除去処理のうち、いずれかのノイズ除去処理を行い、ノイズ除去処理の後、エッジ強調処理を行う。
【0043】
図7は、図1に示したデータ処理装置のフィルタ処理に係る機能ブロック図である。
CPU18は、例えばプログラムPRGを実行することにより、図7に示す選択部1814および複数のノイズ除去フィルタ1815の機能を実現する。
ノイズ除去フィルタ1815は、本発明に係るノイズ除去手段に相当する。
【0044】
選択部1814は、ノイズ除去フィルタ1815のうちの複数の異なるノイズ除去処理を行うノイズ除去フィルタのうち、いずれかのノイズ除去フィルタを選択させる信号S1814をノイズ除去フィルタ1815に出力する。
例えば選択部1814は、信号S1804のノイズ分布特性を検出し、検出結果を基にノイズ特性に適したノイズ除去フィルタを選択させる信号S1814を出力する。
また、例えば選択部1814は、ユーザの操作に応じた入力部12からの信号を基にノイズ除去フィルタを選択させる信号S1814を出力してもよい。
【0045】
ノイズ除去フィルタ1815は、複数のノイズ除去処理用のフィルタ、例えばガウシアンフィルタ1815_1、メディアンフィルタ1815_2、最大値フィルタ1815_3、最小値フィルタ1815_4、2次元適応ノイズ除去フィルタ1815_5、近傍フィルタ1815_6、平均化フィルタ1815_7、ガウシアンローパスフィルタ1815_8、2次元ラプラシアン近似フィルタ1815_9、およびガウシアンラプラシアンフィルタ1815_10を有し、例えば選択部1814からの信号S1814に応じていずれかの(少なくとも1つの)ノイズ除去フィルタを選択し、その選択したノイズ除去フィルタで信号S1804をノイズ除去処理を行い、画像データS1806を生成する。
【0046】
以下、フィルタ処理を説明する。一般的に2次元平面の格子点(n1,n2)を変数とする画像データu(n1,n2)をフィルタh(n1,n2)でフィルタ処理を行い、数式(1)に示すように画像データv(n1,n2)を生成する。ここで畳込み積分(コンボリューション)を’*’と表す。
【0047】
【数1】
【0048】
ガウシアンフィルタ1815_1は、例えば標準偏差σを用いて数式(2)に示すようにガウス関数hg(n1,n2)を畳込み処理を行う。詳細には数式(3),(1)に示すように、ガウシアンフィルタh(n1,n2)を用いてノイズ除去処理を行う。
【0049】
【数2】
【0050】
【数3】
【0051】
図8は、ガウシアンフィルタを説明するための図である。
ガウシアンフィルタ1815_1は平滑化フィルタであり、例えば図8に示すように注目画素データを中心に、2次元のガウス分布に応じた重み付けで演算を行い平滑化処理を行う。例えば注目画素データ(0,0)として図8に図示する。
【0052】
メディアンフィルタ1815_2は、例えば注目画素データを中心にn×nの局所領域の画素データを順番に並べた場合に、順番が真ん中の画素データの画素値を注目画素データの画素値とする。
【0053】
最大値フィルタ1815_3は、例えば注目画素を中心にn×nの局所領域の画素データのうち、最大値の画素値を注目画素データの画素値とする。
最小値フィルタ1815_4は、例えば注目画素を中心にn×nの局所領域の画素データのうち、最小値の画素値を注目画素データの画素値とする。
【0054】
2次元適応ノイズ除去フィルタ1815_5は、例えばいわゆるWienerフィルタであり、画像データを基に、画像データとの平均2乗誤差を最小化するフィルタ処理を行い、画像を改善する。
【0055】
近傍フィルタ1815_6は、画像データのうちの例えばn×n画素の画素値を基に出力ピクセルを計算するフィルタ処理である。例えば詳細には近傍フィルタ1815_6は、そのデータに応じて近傍の値から最大値、最小値、および標準偏差を基にフィルタ処理を行う。
【0056】
平均化フィルタ1815_7は、画像データのうちの例えばn×n画素の画素値の平均値を計算し出力ピクセルとするフィルタ処理を行う。
【0057】
ガウシアンローパスフィルタ1815_8は、ノイズ除去および平滑化処理を行う。詳細には、ガウシアンローパスフィルタ1815_8は、画像データをガウシアン型の重み付けを基に平滑化処理を行う。
【0058】
2次元ラプラシアン近似フィルタ1815_9は、画像データを基に2次微分処理を行い、エッジ検出などを行う。
【0059】
ガウシアンラプラシアンフィルタ1815_10は、ガウシアンフィルタにラプラシアン(2次微分)を演算させるフィルタ処理である。以下詳細に説明する。
【0060】
ラプラシアンは、2次元ユークリッド座標系では例えば数式(4)に示すように表現できる。
【0061】
【数4】
【0062】
また、ラプラシアンは、例えば所定の数αを用いて数式(5)に示すように3×3のマトリクス表示を行うことができる。ここで注目画素をマトリクスの中心とする。
【0063】
【数5】
【0064】
ガウシアンフィルタのラプラシアンは、例えば標準偏差σを用いて数式(6)に示すようにガウス関数hg(n1,n2)を畳込み処理を行う。詳細には数式(7),(1)に示すように、ガウシアンラプラスフィルタh(n1,n2)を用いてノイズ除去処理を行う。
【0065】
【数6】
【0066】
【数7】
【0067】
また、ガウシアンフィルタのラプラシアンは、所定の値αを用いて、マトリクス表示を行うと例えば数式(8)に示すように表現できる。ここで注目画素をマトリクスの中心とする。
【0068】
【数8】
【0069】
図9は、ガウシアンラプラシアンフィルタを説明するための図である。簡単な説明のため画像データを1次元として説明する。
エッジは画素値(明るさ)の変化によって生じる面と面との境界である。エッジは空間微分を行うことにより検出可能である。例えば空間微分には1次微分と2次微分がある。
【0070】
例えば図9(a)に示すステップ形状の画素値f(x)の場合を説明する。ここで縦軸を画素値、横軸をx軸とする。
エッジ領域は、詳細には図9(b)に示すように、第1の画素値f1と第2の画素値f2間は所定の幅Lで連続的に変化する。画像データf(x)を1次微分処理すると、例えば図9(c)に示すように境界領域において所定の幅Lで急激に変化する。
例えばエッジ検出処理は、この1次微分処理後の画像のf’(x)の急激な変化を検出して、エッジを特定する。
【0071】
また、エッジ検出処理は2次微分処理(ラプラシアン)により検出してもよい。
例えば画像データが図9(d)に示す画素値f(x)の場合には、図9(e)に示す1次微分値f’(x)と、図9(f)に示す2次微分値f’’(x)が得られる。
この2次微分値f’’(x)は、エッジのスロープ中で傾きが最も大きい点で符号が変化する。したがって、2次微分がx軸を横切る点(ゼロ交差点という)P_crは、エッジの位置を示す。この画像データは2次元データであり、実際のエッジ検出の際には、2次微分処理した画像データのうちゼロ交差点P_crの位置をエッジとして特定する。
【0072】
例えば選択部1814が、ノイズ除去処理としてガウシアンフィルタ1815_1およびガウシアンラプラシアンフィルタ1815_10を選択した場合を説明する。例えば図3に示すように、ガウシアンラプラシアン1806をガウシアンフィルタ1815_1、ガウシアンラプラシアンフィルタ1806をガウシアンラプラシアンフィルタ1815_10とする。
【0073】
図10は、図1に示したデータ処理装置のノイズ除去処理を説明するための図である。図11は、図1に示したデータ処理装置の動作を説明するためのフローチャートである。図10,11を参照しながらデータ処理装置の動作、特にノイズ除去処理に関する動作を説明する。
【0074】
ステップST11において、例えば選択部1814は、信号S1804のノイズ分布特性を検出し、検出結果を基にそのノイズ特性に適したノイズ除去フィルタを選択させる信号S1814をノイズ除去フィルタ1815に出力する。例えば選択部1814はノイズ除去処理としてガウシアンフィルタ1815_1およびガウシアンラプラシアンフィルタ1815_10を選択させる信号S1814をノイズ除去フィルタに出力する。
【0075】
ステップST12において、ノイズ除去フィルタ1815では、信号S1814を基にいずれかの(少なくとも1つの)ノイズ除去フィルタを選択し、その選択したノイズ除去フィルタで信号S1804をノイズ除去処理を行い、画像データS1806を生成する。
例えばノイズ除去フィルタ1815は、ガウシアンフィルタ1815_1およびガウシアンラプラシアンフィルタ1815_10を選択する。説明の便宜上、ガウシアンフィルタ1805およびガウシアンラプラシアンフィルタ1806として説明する。
【0076】
ステップST12において、ガウシアンフィルタ1805は、例えば図10(a)に示す信号S1804を基に数式(1),(3)に示すノイズ除去処理を行い、例えば図10(b)に示す画像データS1805を生成してガウシアンラプラシアンフィルタ1806に出力する。
【0077】
ステップST13において、ガウシアンラプラシアンフィルタ1806は、例えば図10(b)に示すような信号S1805を基にエッジ強調処理を行い、例えば図10(c)に示すような画像データS1806を生成して出力する。この画像データS1806は2値化画像データである。
ガウシアンラプラシアンフィルタ1806は、2値化処理を行う際に例えば図4(c)に示す第1の範囲r1内に規定された閾値を基に2値化処理を行う。
ステップST1〜ST4それぞれは、本発明に係る第1〜第4の工程それぞれに相当する。
【0078】
以上説明したように、複数のノイズ除去処理のうちいずれかのノイズ除去処理を選択する選択部1814と、例えばノイズ除去フィルタ1815として、ガウシアンフィルタ1815_1、メディアンフィルタ1815_2、最大値フィルタ1815_3は、最小値フィルタ1815_4、2次元適応ノイズ除去フィルタ1815_5、近傍フィルタ1815_6、平均化フィルタ1815_7、ガウシアンローパスフィルタ1815_8、2次元ラプラシアン近似フィルタ1815_9、ガウシアンラプラシアンフィルタ1815_10とを設け、例えば選択部1814により選択されたフィルタが信号S1804を基にノイズ除去処理を行い、その後ガウシアンラプラシアンフィルタ1806によりエッジ強調処理を行い2値化するので、例えば画像データS1804から被検体hの生体の乱反射や撮像部11等のデバイスに起因するノイズを除去し、予め決められた第1の範囲r1の閾値を基に、適切に2値化した画像データを生成することができる。
【0079】
また、選択部1814は、ノイズ特性に応じたフィルタを選択するので高精度にノイズを除去することができる。
また、例えば被検体hの血管を含む部位を透過光を撮像して生成した画像データをガウシアンフィルタ処理およびガウシアンラプラシアンフィルタ処理を行うことで高精度にノイズを除去処理でき、また適切に2値化処理して血管を示すパターンを視認可能な画像を生成することができる。
【0080】
図12は、図1に示したデータ処理装置の動作を説明するための概念図である。
本実施形態に係るデータ処理装置1は、上述した処理で生成した2値化画像データS1806を基に、例えば図12(a)に示すように、所定の大きさの領域ar_th1より小さいノイズ成分の画素を図12(b)に示すように除去処理を行う。
【0081】
また、データ処理装置1は、例えば図12(c)に示す2値化画像データS1806を基に、所定の距離ar_th2内の同じ画素値の画素データg21,g22を接続する処理を行い、例えば図12(d)に示す線形状のパターンg2を有する画像データを生成する。本実施形態では、この線形状のパターンは血管を示すパターンに相当する。
【0082】
詳細には、データ処理装置1は、画像データを構成する、画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最小の画素データを所定の画素データとする縮退処理と、縮退処理による画素データ毎に、当該画素データの周囲の第1の領域より大きい第2の領域内の画素データのうち最大の画素データを所定の画素データとして膨張処理を行い、線形状のパターンを含む画像データを生成する。
本実施形態では、例えばモルフォロジ関数を用いて上述の機能を実現する。
【0083】
図13は、図1に示したデータ処理装置の縮退処理および膨張処理を説明するための図である。
第1の縮退(erode)処理部1807は、画像データS1806を基に、画像データS1806を構成する画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1807を生成し、第1の膨張処理部1808に出力する。
詳細には、第1の縮退処理部1807は、例えば図13(a)に示すように、第1の領域として、注目画素データg_attを中心とした十字形状のエレメントEL1内の画素データのうち最小の画素データを注目画素g_attの画素値とする。本実施形態では図13(b)に示すように最小値0を注目画素データg_attとする。
【0084】
第1の膨張処理(dilate)処理部1808は、画像データS1807を基に、画像データS1807を構成する、画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1808を生成し、第2の膨張処理部1809に出力する。
【0085】
詳細には第1の膨張処理部1808は、例えば図13(a)に示すように、第1の領域として注目画素データg_attを中心とした十字形状のエレメントEL1内の画素データのうち最大の画素データを注目画素g_attの画素値とする。本実施形態では図13(c)に示すように最大値1を注目画素データg_attとする。
【0086】
第2の膨張処理部1809は、画像データS1808を基に、画像データS1808を構成する画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域より大きい第2の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1809を生成し、第2の縮退処理部1810に出力する。
【0087】
詳細には、第2の膨張処理部1809は、例えば図13(d)に示すように、第1の領域より大きい第2の領域として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最大の画素データを注目画素g_attの画素値とする。本実施形態では例えば図13(e)に示すように最大値1を注目画素データg_attとする。
本実施形態では3×3のエレメントを例に説明するが、この形態に限られるものではない。例えば5×5や7×7等の所望の大きさであってもよい。
【0088】
第2の縮退処理部1810は、画像データS1809を基に、画像データS1809を構成する、画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域より大きい第2の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1810を生成する。
【0089】
詳細には、第2の縮退処理部1810は、例えば図13(d)に示すように、第1の領域より大きい第2の範囲として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最小の画素データを注目画素g_attの画素値とする。本実施形態では図13(f)に示すように最小値0を注目画素データg_attとする。
【0090】
図14は、図1に示したデータ処理装置の動作を説明するための図である。図15は、図1に示したデータ処理装置の動作を説明するためのフローチャートである。図10,14,15を参照しながらデータ処理装置の動作、特に縮退処理および膨張処理を中心に説明する。
【0091】
ステップST21において、第1の縮退処理部1807は、例えば図10(c)に示す画像データS1806を基に、例えば図13(a)に示すように第1の領域として、注目画素データを中心とした十字形状のエレメントEL1内の画素データのうち最小の画素データを注目画素g_attの画素値とし、図14(a)に示すような画像S1807を生成する。
第1の縮退処理部1807は、この第1の縮退処理の結果、所定の大きさより小さい画素データを除去した画像データS1807を生成する。
【0092】
ステップST22において、第1の膨張処理部1808は、例えば図14(a)に示す画像データS1807を基に、例えば図13(a)に示すように、第1の領域として注目画素データg_attを中心とした十字形状のエレメントEL1内の画素データのうち最大の画素データを注目画素g_attの画素値とし、図14(b)に示す画像データS1808を生成する。
【0093】
ステップST23において、第2の膨張処理部1809は、例えば図14(b)に示す画像データS1808を基に、例えば図13(d)に示すように、第1の領域より大きい第2の領域として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最大の画素データを注目画素g_attの画素値とし画像データS1808を生成する。
【0094】
上述したステップST22およびST23の処理により、第1の膨張処理部1808および第2の膨張処理部は、所定の距離ar_th2内の同じ画素値の画素データを接続し、線形状のパターンを有する画像データを生成する。
【0095】
ステップST24において、第2の縮退処理部1810は、例えば画像データS1809を基に、例えば図13(d)に示すように、第1の領域より大きい第2の領域として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最小の画素データを注目画素g_attの画素値として、例えば図14(c)に示すような画像データS1810を生成する。
【0096】
以上説明したように、画像データS1806を構成する、画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1807を生成する第1の縮退処理部1807と、画像データS1807を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1808を生成する第1の膨張処理部1808と、画像データS1808を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域より大きい第2の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1809を生成する第2の膨張処理部1809と、画像データS1809を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域より大きい第2の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1810を生成する第2の縮退処理部1810とを設けたので、線形状のパターンを残し、ノイズ成分としての微小なパターンを除去できる。
【0097】
ローパスフィルタ部1811は、例えば画像データS1810を基に、線形状のパターンを残すフィルタ処理を行い画像データS1811を生成する。
詳細にはローパスフィルタ部1811は、例えば画像データS1810を2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分が、線形状のパターンを残させる閾値よりも低周波数成分データを特定し、特定したデータを逆2次元フーリエ変換処理を行い画像データS1811を生成する。
【0098】
図16は、図1に示したデータ処理装置の第1のローパスフィルタ処理の動作を説明するための図である。図16を参照しながらローパスフィルタ部1811の動作を説明する。
本実施形態に係るローパスフィルタ部1811は、高精度に線形状のパターンを抽出するために複数回、例えば3回、閾値を変化させてローパスフィルタ処理を行う。
【0099】
線形状のパターンを残させる周波数成分の閾値を説明する。
ローパスフィルタ部1811は、例えば横軸をフーリエ空間のx成分、縦軸をフーリエ空間のy成分とすると図16(a)に示すようにフーリエ空間上で閾値の基準となる領域ar_refを設定する。
【0100】
本実施形態では、例えば図16(a)に示すように、原点Oを中心として、360×360のフーリエ空間上で菱形の基準領域ar_refを設定する。図16(b)に示すように基準領域ar_refを含み、基準領域ar_refを所定の拡大率で拡大した領域ar_ref’を設定し、その領域ar_ref’をローパスフィルタとする。
第1のローパスフィルタ処理では、例えば図16(c)に示すように、フーリエ空間上で高周波成分を示す領域ar_hをカットするように、ローパスフィルタを設定する。この領域ar_hは実空間上では、例えば幾何学的に対称なパターン、例えば略円形状のパターン等に相当する。この領域ar_hをカットすることで、上述した幾何学的に対称なパターンを除去することができる。
【0101】
閾値として例えば図16(c)に示すように2次元フーリエ空間上で、(180,150),(150,180),(−150,180)、(−180,150),(−180,−150),(−150,180),(150,−180),(180,−150)で囲まれる領域ar_LPF1を設定する。領域ar_LPF1は実空間上では、例えば線形状のパターンに相当する。この領域ar_LPF1を特定することで、線形状のパターンを特定することができる。
【0102】
ローパスフィルタ部1811は、画像データとして例えば図16(d)に示す画像データS101を基に、図16(c)に示すようにフーリエ空間上で領域ar_LPF1内の低周波数成分データを特定する。そして例えば特定した低周波成分データに逆2次元フーリエ変換処理を施すと、例えば図16(e)に示す画像S102が得られる。例えば画像データS102の画素値に対して2値化処理(例えば5捨6入)を行うと、図16(f)に示す画像データS103が得られる。
【0103】
図17は、ローパスフィルタ部の第2のローパスフィルタ処理の動作を説明するための図である。
ローパスフィルタ部1811は、ローパスフィルタ処理の閾値としての領域ar_LPF1より大きい領域を設定して、複数回フィルタ処理を行う。
ローパスフィルタ部1811は、例えば上述したように図17(a)に示す領域ar_LPF1より大きい領域、例えば図17(b)に示すように領域ar_LPF2を設定する。
第2のローパスフィルタ処理では、詳細には閾値として例えば図17(b)に示すように、2次元フーリエ空間上で(180,156),(156,180),(−156,180),(−180,156),(−180,−156),(−156,−180),(156,−180),(180,−156)で囲まれる領域ar_LPF2を設定する。
【0104】
第2のローパスフィルタ処理において、ローパスフィルタ部1811は、例えば第1のローパスフィルタ処理後の画像データとして、図16(c),図17(c)に示す画像データS102を基に、図17(b)に示すフーリエ空間上で領域ar_LPF2内の低周波数成分データを特定する。例えば特定した低周波成分データに逆2次元フーリエ変換処理を施すと、図17(d)に示す画像S104が得られる。例えば画像データS104の画素値に対して2値化処理(例えば5捨6入)を行うと、図17(e)に示す画像データS105が得られる。
【0105】
図18は、ローパスフィルタ部の第3のローパスフィルタ処理の動作を説明するための図である。
ローパスフィルタ部1811は、第3のローパスフィルタ処理として、例えば上述したように図18(a)に示す領域ar_LPF2より大きい領域、例えば図18(b)に示すように領域ar_LPF3を設定する。
第3のローパスフィルタ処理では、詳細には閾値として例えば図18(b)に示すように、2次元フーリエ空間上で(180,157),(157,180),(−157,180),(−180,157),(−180,−157),(−157,−180),(157,−180),(180,−157)で囲まれる領域ar_LPF3を設定する。
【0106】
第3のローパスフィルタ処理において、ローパスフィルタ部1811は、例えば第2のローパスフィルタ処理後の画像データとして、図17(d),図18(a)に示す画像データSを104を基に、図18(b)に示すフーリエ空間上で領域ar_LPF3内の低周波数成分データを特定する。
例えば特定した低周波成分データに逆2次元フーリエ変換処理を施すと、例えば図18(d)に示す画像S106が得られる。例えば画像データS106の画素値に対して2値化処理(例えば5捨6入)を行うと、図18(e)に示す画像データS107が得られる。
【0107】
図19,20は、図1に示したデータ処理装置のローパスフィルタ部の動作を説明するための図である。図21は図1に示したデータ処理装置のローパスフィルタ部の動作を説明するためのフローチャートである。図14,19〜21を参照しながらローパスフィルタ部1811の動作を説明する。
【0108】
ステップST31において、ローパスフィルタ部1811は、第1のローパスフィルタ処理として、例えば図14(c),図19(a)に示す画像データS1810を2次元フーリエ変換処理を行い、例えば図16(c)に示すように、フーリエ空間上で高周波成分である隅ar_hをカットするように領域ar_LPF1を設定し、その領域ar_LPF1内の低周波成分データを特定し、逆2次元フーリエ変換処理を行い図19(b)に示す画像データS18011を生成する(ST32)。例えば画像データS18011を2値化処理(例えば5捨6入)を行うと図19(c)に示す画像データS18103が得られる。
【0109】
ステップST33において、第2のローパスフィルタ処理として、ローパスフィルタ部1811は、図19(b),(d)に示す画像データS18102を基に2次元フーリエ変換処理を行い、例えば領域ar_LPF1より大きい領域、例えば図17(b)に示す領域ar_LPF2の領域を設定し、その領域ar_LPF2内の低周波成分データを特定し、逆2次元フーリエ変換処理を行い図19(e)に示す画像データS18014を生成する(ST33)。例えば画像データS18014を2値化処理(例えば5捨6入)を行うと図19(f)に示す画像データS18105が得られる。
【0110】
ステップST34において、第3のローパスフィルタ処理として、ローパスフィルタ部1811は、図19(e),図20(a)に示す画像データS18104を基に2次元フーリエ変換処理を行い、例えば領域ar_LPF2よりも大きい領域、例えば図18(b)に示す領域ar_LPF3の領域を設定し(ST34)、その領域ar_LPF3内の低周波成分データを特定し(ST35)、逆2次元フーリエ変換処理を行い図20(b)に示す画像データS18106を生成し、画像データS18106を2値化処理(例えば5捨6入)を行い図19(f)に示す画像データS1811を生成する。
【0111】
以上説明したように、ローパスフィルタ部1811が、画像データ内の線形状のパターンを残すように、画像データを2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分が線形状のパターンを残させる閾値よりも低周波数成分データを特定し、その特定した低周波数成分データを逆2次元フーリエ変換処理することで線形状のパターンを抽出することができる。また、その閾値より高周波成分データを除去することで、幾何学的に対称なパターン、例えば略円形状のパターンを除去することができる。
【0112】
また、ローパスフィルタ部1811は、フィルタ領域ar_LPFを大きくして複数回、ローパスフィルタ処理を行うので、より高精度に線形状のパターンを抽出することができる。
【0113】
図22は、図1に示したデータ処理装置のマスク部およびスケルトン部の動作を説明するための図である。
データ処理装置1は、画像データ中から認証に用いる領域を抽出する。本実施系形態では、データ処理装置1は画像データ中の血管を示すパターンを含む領域を、認証に用いる領域として抽出する。
【0114】
マスク部1812は、例えば図20(c)に示す画像データS1811中の認証に用いる領域P_Nを抽出し、認証に用いないパターンP_ctを除去する。詳細には、マスク部1812は、画像データS1811を基に、画像データS1811中の認証に用いる領域P_Nを抽出するために、図22(a)に示すようにマスクパターンP_Mを生成し、画像データS1811からマスクパターンP_Mで示される領域を抽出し、例えば図22(b)に示す画像データS1812を生成する。
【0115】
スケルトン部1813は、画像データS1812を基に、スケルトン処理を行い画像データS1813を生成する。またスケルトン部1813は、画像データS1813を信号S102として認証部103に出力する。
詳細には、スケルトン部1813は、例えば図22に示す画像データS1812を基にモルフォロジ関数を用いて縮退処理を行い、図22(c)に示すように、注目するパターン、例えば血管を示すパターンを細らせてパターンの中心部分のみを抽出した画像データS1813を生成する。図22(c)に示す画像データS1813は、簡単な説明のため白と黒を反転した画像を示す。
【0116】
認証部103は、抽出部102による信号S102を基に、例えば予め記憶部17に記憶する登録画像データD_Pと照合処理を行い、認証処理を行う。
【0117】
図23は、図1に示したデータ処理装置の全体の動作を説明するためのフローチャートである。図23を参照しながら、データ処理装置1の動作を簡単に説明する。本実施形態では、被検体hの生体、例えば指を撮像して画像データを生成し、画像データ中の指の静脈を示すパターンを抽出し、そのパターンを基に認証処理を行う場合を説明する。
【0118】
ステップST101において、CPU18は、例えば撮像系101の照射部1011から被検体hの指に近赤外線を照射させる。撮像部11では、被検体h,光学レンズ1012を介して入力された透過光を基にRBGの画像データS11を生成する。
ステップST102において、グレースケール変換部1801では、RGBの信号S11を基に例えば256階調のグレースケールに変換して信号S1801として分布データ生成部1802に出力する。
【0119】
本実施形態では、撮像系101は、RGBの画像データS11を生成したが、この形態に限られるものではない。例えば、撮像系101がグレースケールの画像データS11を生成した場合には、ステップST102のグレースケール変換部1801の処理を行わずに、画像データS11を分布データ生成部1802に出力する。
【0120】
ステップST103において、分布データ生成部1802では、信号S1801を基に、例えば横軸cを階調の値(画素値ともいう),縦軸fをその画素データの数(度数ともいう)とすると、例えば図4(c)に示すように第1の範囲r1として256階調の範囲の画素値を示す画素データについて、分布データd1としてヒストグラムを生成する。
ステップST101は本発明に係る第1の工程に相当し、ステップST102は本発明に係る第2の工程に相当する。
【0121】
ステップST104において、特定部1803では、信号S1802を基に例えば図5(a)に示すように、分布データd1について第1の範囲r1内のうち、予め決められた閾値V_thの数の画素値r11,r12,r13,r14のなかで最大の画素値r11以下の範囲を第2の範囲r2として特定し、信号S1803として出力する。
【0122】
マッピング部1804は、信号S1803を基に、複数の画素データのうち、特定部1803が特定した第2の範囲r2にある画素データを第1の範囲r1にマッピングして、当該マッピングした画素データで構成される第2の画像データを生成し、信号S1804としてガウシアンフィルタ1805に出力する。
詳細にはマッピング部1804は、例えば図4(c)に示すように0〜110の画素値の範囲を第2の範囲r2とする場合には、図4(d)に示すように画素データを0〜256の画素値の範囲である第1の範囲r1に拡大することでマッピングを行い、図4(e)に示すように血管情報を含む画像データのうち中心部分を拡大して第2の画像データS1804を生成する(ST105)。
ステップST104〜ST105が本発明に係る第3の工程に相当する。
【0123】
ステップST106において、例えば選択部1814は、信号S1804のノイズ分布特性を検出し、検出結果を基に複数のノイズ除去フィルタのうち、そのノイズ特性に適した、いずれかの(少なくとも1つの)ノイズ除去フィルタを選択させる信号S1814をノイズ除去フィルタ1815に出力する。例えば選択部1814はノイズ除去処理としてガウシアンフィルタ1815_1およびガウシアンラプラシアンフィルタ1815_10を選択させる信号S1814をノイズ除去フィルタ1815に出力する。
ノイズ除去フィルタ1815では、信号S1814に応じていずれかのノイズ除去フィルタを選択し、例えばガウシアンフィルタ1815_1およびガウシアンラプラシアンフィルタ1815_10を選択する。説明の便宜上、それぞれをガウシアンフィルタ1805およびガウシアンラプラシアンフィルタ1806として説明する。
【0124】
ガウシアンフィルタ1805は、例えば図10(a)に示す信号S1804を基に数式(1),(3)に示すノイズ除去処理を行い、例えば図10(b)に示す画像データS1805を生成してガウシアンラプラシアンフィルタ1806に出力する。
【0125】
ステップST107において、ガウシアンラプラシアンフィルタ1806は、例えば図10(b)に示す信号S1805を基にエッジ強調処理を行い、例えば図10(c)に示す画像データS1806を生成して出力する。この際、画像データS1806は2値化画像データである。
ガウシアンラプラシアンフィルタ1806は、2値化処理を行う際に例えば図4(c)に示す第1の範囲r1内に規定された閾値を基に2値化処理を行う。
ステップST106,ST107は本発明に係る第5の工程に相当する。
【0126】
ステップST108において、第1の縮退処理部1807は、例えば図10(c)に示す画像データS1806を基に、例えば図13(a)に示すように第1の領域として、注目画素データを中心とした十字形状のエレメントEL1内の画素データのうち最小の画素データを注目画素g_attの画素値とし、図14(a)に示すような画像S1807を生成する。
【0127】
ステップST109において、第1の膨張処理部1808は、例えば図14(a)に示す画像データS1807を基に、例えば図13(a)に示すように第1の領域として、注目画素データg_attを中心とした十字形状のエレメントEL1内の画素データのうち最大の画素データを注目画素g_attの画素値とし、図14(b)に示す画像データS1808を生成する。
【0128】
ステップST110において、第2の膨張処理部1809は、例えば図14(b)に示す画像データS1808を基に、例えば図13(d)に示すように第1の領域より大きい第2の領域として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最大の画素データを注目画素g_attの画素値とし画像データS1809を生成する。
【0129】
ステップST111において、第2の縮退処理部1810は、例えば画像データS1809を基に、例えば図13(d)に示すように、第1の領域より大きい第2の領域として、注目画素データg_attを中心とした3×3矩形状のエレメントEL2内の画素データのうち最小の画素データを注目画素g_attの画素値として、例えば図14(c)に示すような画像データS1810を生成する。
【0130】
ステップST112において、ローパスフィルタ部1811は、第1のローパスフィルタ処理として、例えば図14(c),図19(a)に示す画像データS1810を2次元フーリエ変換処理を行い、例えば図16(c)に示すように、フーリエ空間上で高周波成分である隅ar_hをカットするように領域ar_LPF1を設定し、その領域ar_LPF1内の低周波成分データを特定し、逆2次元フーリエ変換処理を行い図19(b)に示す画像データS18011を生成する。
【0131】
第2のローパスフィルタ処理として、ローパスフィルタ部1811は、図19(b),(d)に示す画像データS18102を基に2次元フーリエ変換処理を行い、例えば領域ar_LPF1よりも大きい領域、例えば図17(b)に示す領域ar_LPF2の領域を設定し、その領域ar_LPF2内の低周波成分データを特定し、逆2次元フーリエ変換処理を行い図19(e)に示す画像データS18014を生成する。
【0132】
第3のローパスフィルタ処理として、ローパスフィルタ部1811は、図19(e),図20(a)に示す画像データS18104を基に2次元フーリエ変換処理を行い、例えば領域ar_LPF2よりも大きい領域、例えば図18(b)に示す領域ar_LPF3の領域を設定し、その領域ar_LPF3内の低周波成分データを特定し、逆2次元フーリエ変換処理を行い図20(b)に示す画像データS18016を生成し、画像データS18016を2値化処理(例えば5捨6入)を行い(ST113)、図19(f)に示す画像データS1811を生成する。
ステップST112は、本発明に係る第6の工程に相当する。
【0133】
ステップST114において、マスク部1812は、画像データS1811を基に画像データS1811中の認証に用いる領域P_Nを抽出するために、図22(a)に示すようにマスクパターンP_Mを生成し、画像データS1811からマスクパターンP Mで示される領域を抽出し、例えば図22(b)に示す画像データS1812を生成する。
【0134】
ステップST114において、スケルトン部1813は、例えば図22に示す画像データS1812を基にモルフォロジ関数を用いて縮退処理を行い、図22(c)に示すように、注目するパターン、例えば血管を示すパターンを細らせてパターンの中心部分のみを抽出した画像データS1813を生成し、信号S102として認証部103に出力する。
認証部103では、信号S102を基に、例えば予め記憶部17に記憶する登録画像データD_Pと照合処理を行い、認証処理を行う。
【0135】
以上説明したように、データ処理装置1は、例えば図5(a)や図5(b)に示すように、分布データ生成部1802により分布データを生成し、特定部1803により第2の範囲を特定し、マッピング部1804により第2の範囲を第1の範囲にマッピングし、構成要素1805〜1812等により第1の範囲r1内に規定された閾値を基に2値化して第3の画像データを生成するので、被検体h毎に画素値の分布データd1が異なる場合であっても、適切に2値化処理できる。
【0136】
また、複数のノイズ除去処理のうちいずれかのノイズ除去処理を選択する選択部1814と、例えば複数の異なる種類のノイズ除去フィルタを有するノイズ除去フィルタ1815とを設け、例えば選択部1814により選択されフィルタが信号S1804を基にノイズ除去処理を行い、その後ガウシアンラプラシアンフィルタ1806によりエッジ強調処理を行い2値化するので、例えば画像データS1804から被検体hの生体の乱反射や撮像部11等のデバイスに起因するノイズを除去し、予め決められた第1の範囲r1の閾値を基に、適切に2値化した画像データを生成することができる。
【0137】
また、画像データS1806を構成する、画素値を示す複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1807を生成する第1の縮退処理部1807と、画像データS1807を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1808を生成する第1の膨張処理部1808と、画像データS1808を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域よりも大きい第2の領域内の画素データのうち最大の画素データを所定の画素データとして画像データS1809を生成する第2の膨張処理部1809と、画像データS1809を構成する複数の画素データ毎に、当該画素データの周囲の第1の領域よりも大きい第2の領域内の画素データのうち最小の画素データを所定の画素データとして画像データS1810を生成する第2の縮退処理部1810とを設けたので、線形状のパターンを残し、ノイズ成分としてのパターンを除去できる。
【0138】
また、ローパスフィルタ部1811が、画像データ内の線形状のパターンを残すように、画像データを2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分が線形状のパターンを残させる閾値よりも低周波数成分データを特定し、その特定した低周波数成分データを逆2次元フーリエ変換処理することで線形状のパターンを抽出することができる。また、幾何学的に対称なパターンを除去することができる。
【0139】
また、一連の処理動作を行うことにより、例えば被検体hの血管を示すパターンを高精度に抽出することができる。
また、個々人特有の血管の静脈を示すパターンを高精度に抽出できるので、そのパターンを基により高精度に認証を行うことができる。
【0140】
また、従来のデータ処理装置では、画像データから血管情報を基に、血管トレース用のAIフィルターを使用するという煩雑な処理を行っていたが、本実施形態に係るデータ処理装置1は、例えば被検体hを撮像して得られた画像データを基に高精度に血管を示すパターンを抽出することができるので、従来に比べて処理負担が軽くなる。
【0141】
また、スケルトン部1813は、スケルトン処理を行う際に血管を示すパターンの中心部分を抽出するので、例えば被検体hの体調の変化に伴う血管の伸縮による影響が少ないスケルトン画像データを生成することができる。認証部103は、この画像データを認証処理に用いるので被検体hの体調が変化した場合でも高精度に認証処理を行うことができる。
また、本実施形態では、処理の軽いフィルタの組み合わせで実現できるため、高速な処理速度の個人識別システムを構築することができる。
【0142】
図24は、本発明に係るデータ処理装置を用いた遠隔操作装置の第2実施形態を説明するための図である。
本実施形態に係る遠隔操作装置(リモートコントローラ:リモコンともいう)1aは、例えば図24に示すように、一般的なリモコンに第1実施形態に係るデータ処理装置1を内蔵する。
【0143】
詳細には、遠隔操作装置1aは、例えば図2に示す第1実施形態と同様に、撮像部11、入力部12、出力部13、通信インタフェース14、RAM15、ROM16、記憶部17、およびCPU18を有する。第1の実施形態に係るデータ処理装置1との相違点のみ説明する。
【0144】
遠隔操作装置1aは、例えば本体部100に撮像系101として、照射部1011、光学レンズ1012および撮像部11が設けられている。
出力部13は、例えばCPU18の制御により、テレビジョン装置m_tvに所定処理を行わせる制御信号を赤外線を搬送波として送信する。例えば出力部13は赤外線発光素子で構成される。
テレビジョン装置m_tvは、受光部m_rで受信した制御信号に応じた所定処理、例えば表示部m_mに所定の画像を表示させる。
記憶部17は、例えばユーザの嗜好を示すデータD_t、詳細には図24に示すようにお好みリストD_tを記憶する。そのデータD_tは、CPU18により必要に応じて読み出しおよび書き込みが行われる。
CPU18は、認証が正常に行われた場合には、例えばそのデータD_tに応じた処理を行う。
【0145】
図25は、図24に示した遠隔操作装置1aの動作を説明するためのフローチャートである。
ステップST201において、例えばユーザが本体部100の側面に設けられた撮像系101に触れたか否かが判別される。撮像系101に例えば指が触れた場合にはステップST202の処理に進む。
【0146】
ステップST202において、CPU18は、照射部1011から近赤外線を被検体hの指に照射させ、撮像部11に透過光を基に指の静脈の画像データを生成させる。本実施形態では照射部1011から照射された光を用いたが、この形態に限られるものではない。例えば撮像部11は自然光による被検体hの透過光を基に画像データを生成してもよい。
【0147】
ステップST203において、CPU18は、第1実施形態と同様に抽出部102により認証に用いる画像データ、例えば血管を示すパターンを示すスケルトン画像データを抽出して信号S102として認証部103に出力する。
ステップST204において、CPU18は、認証部103に、信号S102と記憶部17が予め記憶するユーザの登録画像データD_Pとを比較させて認証処理を行わせる。
ステップST205において、認証部103で予め記憶するユーザであると識別されない場合には、ステップST201の処理に戻る。
一方、ステップST205の判別において、認証部103で予め記憶するユーザであると識別した場合には、CPU18は、記憶部17に記憶するユーザの嗜好を示すデータD_tに応じた処理を行う。例えばデータD_tに応じた制御信号をテレビジョン装置m_tvに出力する。
【0148】
以上説明したように、本実施形態では、第1実施形態に係るデータ処理装置を含む遠隔操作装置を設けたので、例えば認証結果を基にテレビジョン装置m_tvを制御することができる。
【0149】
また、例えばデータD_tに年齢等の情報を含ませる。CPU18は、認証部103による認証の結果、ユーザが未成年であると識別した場合には、特定のボタンを無効にして、テレビジョン装置番組を見られないようにする等の制限処理を行うことで、年齢制限機能を実現することができる。
【0150】
また、データD_tに、ユーザ毎にカスタマイズされた番組表の表示(お好みリストや履歴等)、予約録画リストの使用等を含ませる。CPU18は、認証部103による認証の結果、正常に認証された場合にそのデータを使用可能に制御することで、ユーザそれぞれに対応した処理を行うことができる。
またデータD_tに、ユーザ毎に複数の所定のデータを登録してもよい。
【0151】
図26は、本発明に係るデータ処理装置を用いたデータ処理システムの第3実施形態を説明するための図である。
本実施形態に係るデータ処理システム10bは、図26に示すように、遠隔操作装置1a、記録媒体(メディアともいう)1b、データ処理装置1c、テレビジョン装置m_tvを有する。第1実施形態および第2実施形態との相違点のみ説明する。
【0152】
本実施形態では、例えば遠隔操作装置1aと記録媒体1bの両方で上述した識別処理を行い、その両方の識別結果に応じた処理を行う。例えば遠隔操作装置1aの使用者と記録媒体1bの使用者が同一人物である場合に、記録媒体1bが記憶する所定のデータを読出しおよび書込みを行う。
【0153】
遠隔操作装置1aは、第2実施形態に係る遠隔操作装置1aとほぼ同様な構成であり、第1実施形態に係るデータ処理装置1を含む。
【0154】
記録媒体1bは、例えば第1実施形態に係るデータ処理装置1を含む。
例えば記録媒体1bは、ビデオテープ等の磁気記録媒体や、光学ディスクや光磁気ディスクや、半導体メモリ等のデータ記録媒体である。
記録媒体1bは、例えば図2に示す第1実施形態と同様に、撮像部11、入力部12、出力部13、通信インタフェース14、RAM15、ROM16、記憶部17、およびCPU18を有する。第1の実施形態に係るデータ処理装置1との相違点のみ説明する。
記録媒体1bは、例えば本体部100bに撮像系101として照射系1011、光学レンズ1012および撮像部11が設けられている。
撮像系101は、本体部100bのうち、ユーザが触る位置に設けることが好ましい。ユーザが触れる位置が定まっていない場合には、1箇所ではなく、本体部100b中のユーザが触る可能性のある領域に撮像部11を設ける。
【0155】
データ処理装置1cは、例えば正常に認証処理が行われた場合に、記録媒体1bが記憶するデータを読出および書込み可能である。例えばデータ処理装置1cは第1実施形態に係るデータ処理装置を含む。例えばデータ処理装置1cは、図2に示す第1実施形態と同様に、撮像部11、入力部12、出力部13、通信インタフェース14、RAM15、ROM16、記憶部17、およびCPU18を有する。第1実施形態に係るデータ処理装置1との相違点のみ説明する。
【0156】
また、データ処理装置1cは、例えば記録媒体1bを保持する保持部m_hと、保持部m_hにより保持された記録媒体1bのデータの読み書きを行うドライバと、受光部m_r等を有する。
テレビジョン装置m_tvは、例えばデータ処理装置1cからのデータを基に画像を表示する表示部m_mを有する。
【0157】
図27は、図26に示したデータ処理システムの動作を説明するためのフローチャートである。図27を参照しながら、データ処理システム10bの動作を第1実施形態および第2実施形態との相違点のみ説明する。
【0158】
ステップST301〜ST304の遠隔操作装置1aの動作は、第2実施形態のステップST201〜ST204と同様なので説明を省略する。
ステップST304において、遠隔操作装置1aのCPU18は、認証部103に、信号S102と記憶部17に予め記憶する複数のユーザの登録画像データD_Pとを比較して認証処理を行わせる。
ステップST305において、遠隔操作装置1aの認証部103では、予め記憶するユーザであると識別されない場合には、ステップST301の処理に戻る。
一方、ステップST305の判別において、認証部103で予め記憶するユーザであると識別した場合には、CPU18は、例えば識別結果をAとして記憶部17に記憶する(ST306)。
【0159】
ステップST307において、例えばユーザは、記録媒体1bをデータ処理装置(再生機ともいう)1cの保持部m_hにセットする。
ステップST308において、記録媒体1cでは、例えばユーザが本体部100bの側面に設けられた撮像系101に触れたか否かが判別される。撮像系101に例えば指が触れた場合には、ステップST309の処理に進む。
【0160】
ステップST309において、記録媒体1bのCPU18は、照射部1011から近赤外線を被検体hの指に照射させ、撮像部11に透過光を基に、指の静脈の画像データを生成させる。
【0161】
ステップST310において、記録媒体1bのCPU18は、第1実施形態と同様に抽出部102により認証に用いる画像データ、例えば血管を示すパターンを示すスケルトン画像データを抽出して信号S102として認証部103に出力する。
ステップST311において、記録媒体1bのCPU18は、認証部103に、信号S102と記憶部17に予め記憶する複数のユーザの登録画像データD Pとを比較して認証処理を行わせる。
ステップST312において、記録媒体1bの認証部103で予め記憶するユーザであると識別されない場合には、ステップST308の処理に戻る。
一方、ステップST312の判別において、記録媒体1bの認証部103で予め記憶するユーザであると識別した場合には、記録媒体1bのCPU18は、例えば識別結果をBとする(ST313)。
【0162】
ステップST314において、ステップST306による識別結果Aと、ステップST313による識別結果Bとを比較し、同一ユーザであるか否かを判別する。
判別処理は、記録媒体1bで行ってもよい。この場合には記録媒体1bは、遠隔操作装置1aから送信された識別結果Aと、記録媒体1bによる識別結果Bとに基いて行う。
【0163】
また、この判別処理は、例えばデータ処理装置1cで行ってもよい。この場合には、データ処理装置1cは、遠隔操作装置1aから送信された識別結果Aと、記録媒体1bによる識別結果Bとに基いて行う。
【0164】
ステップST314の判別処理の結果、同一ユーザであると判別した場合には、例えば記録媒体1bは、内蔵するデータの読出しや書込み、例えば再生や録画をデータ処理装置1cに許可し(ST315)、同一ユーザでないと判別した場合には、例えば記録媒体1bは、内蔵するデータの再生や録画をデータ処理装置1cに禁止する(ST316)。
【0165】
例えば同一ユーザであると判別した場合には、例えばデータ処理装置1cは、記録媒体1bが内蔵するデータを読み出し、テレビジョン装置m_tvにそのデータに応じた画像を表示部m_mに表示させる。
【0166】
以上説明したように本実施形態では、遠隔操作装置1aと記録媒体1bの両方で識別を行うので、例えば識別結果が同一のユーザの場合に、記録媒体1bにデータの記憶や読み出しを行わせることができ、例えば他人によるデータの改ざんや盗み見、データの上書き等を防止することができる。
【0167】
図28は、本発明に係るデータ処理装置を用いた携帯型通信装置の第4実施形態を説明するための図である。
本実施形態に係る携帯型通信装置1dは、第1実施形態に係るデータ処理装置1を含む。
例えば携帯型通信装置1dは、一般的な通話機能、電子メール機能や、アドレス帳等の機能を有し、上述した認証処理の結果、例えば予め登録しているユーザである場合には所定の機能を実行し、登録しているユーザでない場合には所定の機能を実行しない。
【0168】
携帯型通信装置1dは、例えば図2に示す第1実施形態と同様に、撮像部11、入力部12、出力部13、通信インタフェース14、RAM15、ROM16、記憶部17、およびCPU18を有する。第1の実施形態に係るデータ処理装置1との相違点のみ説明する。
【0169】
携帯型通信装置1dは、例えば入力部12としての通話ボタンbt等(全てのボタンbtでもよい)に撮像系101を設ける。
例えば携帯型通信装置1dは、ユーザによりボタンbtが操作された際に、指静脈の画像を取得し、予め登録されている個人と識別した場合に、携帯電話としての通信機能を動作させ、不図示の基地局を介して所望の通話機能を実行する。
【0170】
図29は、図28に示したデータ処理装置の動作を説明するためのフローチャートである。図29を参照しながら携帯型通信装置1dの動作を第1〜3実施形態に係るデータ処理装置との相違点を説明する。
【0171】
ステップST401において、例えばユーザが入力部12としての通話ボタンbt等に設けられた撮像系101に触れたか否かが判別される。撮像系101に例えば指が触れた場合にはステップST402の処理に進む。
【0172】
ステップST402において、CPU18は、照射部1011から近赤外線を被検体hの指に照射させ、撮像部11に透過光を基に指の静脈の画像データを生成させる。
【0173】
ステップST403において、CPU18は、第1実施形態と同様に抽出部102により認証に用いる画像データ、例えば血管を示すパターンを示すスケルトン画像データを抽出して信号S102として認証部103に出力する。
ステップST404において、CPU18は、認証部103に、信号S102と記憶部17が予め記憶するユーザの登録画像データD_Pとを比較させて認証処理を行わせる。
ステップST405において、認証部103で予め記憶するユーザであると識別された場合には、携帯電話としての通信機能を動作させて、ユーザに携帯電話の使用を許可する(ST406)。
【0174】
例えば携帯型通信装置1dの所有者であるユーザが、他人に携帯型通信装置1dを貸す場合に(ST407)、携帯型通信装置1dは、所有者であるユーザに特有のボタンが操作されたか否かを判別する(ST408)。
ステップST408の判別において、CPU18は、特定のボタンbtが操作されたと判別した場合には、他人が使用しても所定機能を動作可能にする。所有者であるユーザは、その状態で携帯型通信装置1dを他人に貸す(ST409)。
【0175】
一方、ステップST408において、CPU18が本人により特定ボタンbtが操作されていないと判別した場合、およびステップST407において、他人に貸さない場合には、一連の処理を終了する。
【0176】
一方、ステップST405の判別において、認証部103で予め記憶するユーザでないと識別し、識別処理が複数回失敗していない場合には(ST410)、ステップST401の処理に戻る。
一方、識別処理が複数回、失敗している場合には、CPU18は認証処理を禁止し(ST411)、CPU18は、例えば予め登録したデータ通信装置PCに、認証処理が複数回失敗した旨を示すデータを送信する(ST412)。
【0177】
以上説明したように、本実施形態では、携帯型通信装置1dは、上述した認証処理の結果、予め登録した所有者であるユーザであると認証した場合に、所定の機能を動作するので、例えば紛失した際にも他人に使用されることを防止することができる。
また、例えば予め登録したユーザでなければ、受信した電子メールやアドレス帳はもちろん、発着信履歴等を見ることもできないため、セキュリティ性が高い。
【0178】
また、予めメールアドレス等の連絡先を示すデータを記憶部17に登録し、かつ例えばGPS(global positioning system:グローバルポジショニングシステム)機能を設けることにより、例えば予め登録したユーザ以外に複数回キーを押された場合(複数回、識別に失敗した場合)に、携帯型通信装置1dの現在位置等の情報を、予め登録した連絡先のデータ通信装置PCに送信することができる。
【0179】
また、携帯型通信装置1dとは別体で、不図示の通信ネットワークを介してアクセス可能なサーバ装置svに、ユーザのアドレス帳データadを保存しておき、例えば携帯型通信装置1dにおいてユーザが適切に認証された場合に、携帯型通信装置1dのCPU18が、不図示の通信ネットワークを介してサーバ装置svにアクセスして、そのユーザのアドレス帳データadをダウンロードすることで、他のユーザにより不正にアドレス帳を閲覧することを防止することができる。
この場合には、例えば他の携帯型通信装置1dを用いた場合であっても、その携帯型通信装置1dで認証が正しく行われた場合には、同じアドレス帳データadを使用することができる。
【0180】
また、携帯型通信装置1dの所有者であるユーザが、本人の了解の上で、携帯型通信装置1dを他人に貸す必要がある場合に、所有者本人が専用のボタンbtを操作することにより他人の使用を許可することができる。つまりCPU18は、特定のボタンbtが操作されると、他人が使用する場合であっても認証処理を行わずに、所定の機能を動作させる。
【0181】
図30は、本発明に係るデータ処理装置の第5実施形態を説明するための図である。
本実施形態に係るデータ処理装置を用いた電話1eは、第1実施形態に係るデータ処理装置1を含み、指静脈による個人認証機能を有する。
【0182】
例えば本実施形態に係る電話1eは、第4実施形態に係る携帯型通信装置1dと同様に、例えば各家庭に設けらた特定のボタンbt等(全てのボタン又は、本体でも可)に撮像系101を設ける。電話1eの構成は、第4実施形態に係る携帯型通信装置1dとほぼ同様である。相違点のみ説明する。
【0183】
電話1eは、例えばボタンbtが押された際に指静脈の画像を取得する。また電話1eは使用制限機能や個人識別機能を有する。
また、電話1eは、予めユーザ毎に最大利用可能時間を設定し、所定時間に達したら通話ができなくなる制限機能を有する。
また例えば長電話の場合、最初にボタンを押した時だけ認証を行うように設定すると、その後ずっと同一人物が使用しているとは限らないので、例えば受話器1e_rに撮像系101を設け、定期的に被検体hの指の静脈を撮像して認証処理を行い続けることが好ましい。
また、電話1eは、定期的に認証処理を行い、記憶部17の登録画像データを更新する。
また、例えば電話1eは、ユーザ毎に異なる呼び出し音を登録可能であり、例えばユーザに対応した呼び出し音を不図示のスピーカから発音可能である。
【0184】
図31は、図30に示した電話の動作を説明するためのフローチャートである。図31を参照しながら電話1eの動作を説明する。例えば電話1eを複数のユーザにより使用する場合を説明する。
【0185】
ステップST501において、CPU18は他の電話からの呼び出しを示す信号を受信した場合、例えば相手の電話番号等に基いてユーザを特定し、そのユーザに対応付けられた呼び出し音をスピーカから発音させる。
【0186】
呼び出し音による個人識別がされているかどうかの判断を行い(ST502)、個人識別が行われている場合には、例えば呼び出し音に対応するユーザ(ST503)の指が受話器等の撮像系101を触れると、CPU18は撮像系101に、ユーザの指に光を照射させて、指を撮像する(ST504)。
【0187】
ステップST505において、第1実施形態に係るデータ処理装置1と同様な処理を行い、血管を示すパターンを含む画像データを生成する。
ステップST506において、CPU18は、生成した画像データと、記憶部17が記憶する登録画像データのリストと比較する。
【0188】
ステップST507において、識別タイムアウトか否か、つまり識別処理に係る処理時間が所定時間より長いか否かが判別され、処理時間内であれば、識別されたか否かの判別を行う(ST508)。
ステップST507の判別において、適正に識別した場合には、CPU18は通話可能に設定する(ST509)。
一方、ステップST507の判別において、適正に識別できない場合には、ステップST504の処理に戻り、計測を繰り返すが、ステップST507において、タイムアウトになった場合には、例えばいわゆる留守番電話機能に切り替える(ST510)。
一方、ステップST502において、自分の音でなかった場合も同様に、留守番電話機能に切り替える。
【0189】
一方、ステップST501において、電話を受信するのではなく発信する場合には、CP18は、例えばユーザの指が撮像系101に触れたか否かの判別を行う(ST511)。撮像系101に例えば指が触れた場合には、ステップST512の処理に進む。
【0190】
ステップST512において、CPU18は、照射部1011から近赤外線を被検体hの指に照射させ、撮像部11に透過光を基に指の静脈の画像データを生成させる。
【0191】
ステップST513において、CPU18は、第1実施形態と同様に抽出部102により認証に用いる画像データ、例えば血管を示すパターンを示すスケルトン画像データを抽出して信号S102として認証部103に出力する。
ステップST514において、CPU18は、認証部103に、信号S102と記憶部17が予め記憶するユーザの登録画像データD_Pとを比較させ認証処理を行わせる。
【0192】
ステップST515において、認証部103で予め記憶するユーザであると識別されない場合には、ステップST511の処理に戻る。
一方、ステップST515の判別において、認証部103で予め記憶するユーザであると識別した場合には、CPU18は識別したユーザのアドレス帳データadを出力部13の表示部に表示し(ST516)、通話可能に設定する(ST517)。
【0193】
例えば通話中に、ステップS518において、利用時間の設定がされているか否かの判断を行う。
CPU18は、その設定がされている場合には、利用可能時間内か否かの判別を行い(ST519)、利用可能時間内であれば通話が終了したかの判断を行う(ST520)。
一方、ステップST519において、利用可能時間内でなければユーザに警告、例えば警告の旨を示す表示を表示部に表示させ、通話を強制終了させる(ST521)。
一方、ステップST518において、利用時間が設定されていない場合、およびステップST520において通話が終了した場合には、一連の処理を終了する。
【0194】
以上説明したように、本実施形態では電話1eに第1実施形態に係るデータ処理装置を内蔵させ、利用時間を設定可能なので、例えば長電話を防止することができる。
また、ユーザ毎に通話料金の請求書を分割して、ユーザ毎に通話料金を支払うシステムにすることもできる。
また、撮像系101をボタンbtに設けたが、この形態に限られるものではない。例えば受話器1e_r等に設けてもよいし、ボタンbtおよび受話器1e_r両方に設けて状況に応じて使い分けてもよい。
【0195】
また、携帯型通信装置と異なり、複数のユーザ、例えば家族全員が同じ電話1eを使用可能であり、認識したユーザ用のアドレス帳を表示するので、操作性がよい。
また、電話を受信する場合、ユーザ毎に呼び出し音を設定可能であり、また本人以外は電話に出られないように設定可能なので、セキュリティ性が高い。
また、受話器を取った際に個人識別を行い、予め設定したユーザの場合に通話可能に設定することで、セキュリティ性が高い。
また、予め設定されたユーザが留守の場合、例えば他に家族が在宅していても留守電に切り替えることができ、セキュリティ性が高い。
【0196】
図32は、本発明に係るデータ処理装置の第6実施形態を説明するための図である。
本実施形態に係るPDA(Personal Digital Assistant) 1fは、第1実施形態に係るデータ処理装置1を含む。
例えばPDA1fは、図32に示すように、本体部の側面やボタンbt等に撮像系101を設ける。
例えばユーザが、PDA1fに触れた際に、指静脈の画像を取得し、認証の結果、本人である場合に使用可能である。
または認証の結果、本人である場合にのみ、プライベートデータを表示可能に設定する。
【0197】
図33は、本発明に係るデータ処理装置の第7実施形態を説明するための図である。
本実施形態に係るマウス1gは、例えばパーソナルコンピュータPC等の入力装置としてのいわゆるマウスであり、第1実施形態に係るデータ処理装置1を含む。
マウス1gは、例えばボタンbt等に撮像系101を設ける。
例えばユーザがマウス1gのボタンbtに触れた際に、指静脈の画像を取得し、認証の結果、本人である場合にのみ、パーソナルコンピュータにログイン可能に設定する。例えばパーソナルコンピュータPCの電源をオンしたり、ログイン画面を表示させる等の使い方ができる。
【0198】
なお、本発明は本実施形態に限られるものではなく、任意好適な種々の変更が可能である。
リモコンや携帯型通信装置にデータ処理装置1を内蔵させた例を説明したが、この形態に限られるものではない。
【0199】
例えば、キーボードに撮像系101を設け、例えばキー入力中に、被検体hを撮像し、撮像データを基に認証処理を行ってもよい。
また、ネットショッピング等を利用する際に、必要事項を入力している間に、被検体hを撮像し、撮像データを基に認証処理を行ってもよい。この際、本人でないと注文できない仕組みにする。また、クレジットカード番号やパスワード等との併用で使用することにより、二重に管理することができ、よりセキュリティ性が向上する。
【0200】
また、例えば銀行のATM(Automatic teller machine)等のタッチパネルに撮像系101を設け、必要事項を入力する際に、被検体hを撮像し、撮像データを基に認証処理を行ってもよい。例えば本人と識別すると現金を引き出し可能に設定することで、セキュリティ性が向上する。
また、キャッシュカードや、パスワード等との併用で使用すると、よりセキュリティ性が向上する。
【0201】
また、例えば家の鍵や郵便受け等に撮像系101を設け、被検体hを撮像し、撮像データを基に認証処理を行ってもよい。正しく識別された場合に、扉が開く機構を設けることにより、セキュリティ性が向上する。また、鍵等と併用して使用すると、よりセキュリティ性が向上する。
【0202】
また、例えば自転車にデータ処理装置1を設け、被検体hを撮像し、撮像データを基に認証処理を行ってもよい。正しく識別された場合に鍵のON/OFFを行う機構を設けることにより、セキュリティ性が向上する。また、鍵との併用で使用すると、よりセキュリティ性が向上する。
【0203】
また、例えば、クレジットカード使用時のサインの代用として使う。例えばクレジットカード等のリーダライタに、データ処理装置1を設けることにより、例えば正しく認識された場合に、カード番号を表示させるようにし、手持ちのカードとの一致を見ることが可能となる。
【0204】
また、カード等との併用で使用することにより、よりセキュリティ性が向上する。また、これらを併用で使用することにより、カードや鍵を紛失した場合に悪用されることを防止することができる。
【0205】
【発明の効果】
本発明によれば、被検体毎に画素値の分布データが異なる場合であっても、適切に2値化処理できる画像処理方法、および画像処理装置を提供することができる。
【図面の簡単な説明】
【図1】図1は、本発明に係るデータ処理装置の第1実施形態を示す全体の概念図である。
【図2】図2は、図1に示したデータ処理装置のハードウェア的なブロック図である。
【図3】図3は、図1に示したデータ処理装置の機能ブロック図である。
【図4】図4は、図1に示したデータ処理装置の動作を説明するための図である。
【図5】図5は、図3に示した特定部の動作を説明するための図である。
【図6】図6は、図1に示したデータ処理装置のマッピング処理に係る動作を説明するためのフローチャートである。
【図7】図7は、図1に示したデータ処理装置のフィルタ処理に係る機能ブロック図である。
【図8】図8は、ガウシアンフィルタを説明するための図である。
【図9】図9は、ガウシアンラプラシアンフィルタを説明するための図である。
【図10】図10は、図1に示したデータ処理装置のノイズ除去処理を説明するための図である。
【図11】図11は、図1に示したデータ処理装置の動作を説明するためのフローチャートである。
【図12】図12は、図1に示したデータ処理装置の動作を説明するための概念図である。
【図13】図13は、図1に示したデータ処理装置の縮退処理および膨張処理を説明するための図である。
【図14】図14は、図1に示したデータ処理装置の動作を説明するための図である。
【図15】図15は、図1に示したデータ処理装置の動作を説明するためのフローチャートである。
【図16】図16は、図1に示したデータ処理装置の第1のローパスフィルタ処理の動作を説明するための図である。
【図17】図17は、ローパスフィルタ部の第2のローパスフィルタ処理の動作を説明するための図である。
【図18】図18は、ローパスフィルタ部の第3のローパスフィルタ処理の動作を説明するための図である。
【図19】図19は、図1に示したデータ処理装置のローパスフィルタ部の動作を説明するための図である。
【図20】図20は、図1に示したデータ処理装置のローパスフィルタ部の動作を説明するための図である。
【図21】図21は図1に示したデータ処理装置のローパスフィルタ部の動作を説明するためのフローチャートである。
【図22】図22は、図1に示したデータ処理装置のマスク部およびスケルトン部の動作を説明するための図である。
【図23】図23は、図1に示したデータ処理装置の全体の動作を説明するためのフローチャートである。
【図24】図24は、本発明に係るデータ処理装置を用いた遠隔操作装置の第2実施形態を説明するための図である。
【図25】図25は、図24に示した遠隔操作装置1aの動作を説明するためのフローチャートである。
【図26】図26は、本発明に係るデータ処理装置を用いたデータ処理システムの第3実施形態を説明するための図である。
【図27】図27は、図26に示したデータ処理システムの動作を説明するためのフローチャートである。
【図28】図28は、本発明に係るデータ処理装置を用いた携帯型通信装置の第4実施形態を説明するための図である。
【図29】図29は、図28に示したデータ処理装置の動作を説明するためのフローチャートである。
【図30】図30は、本発明に係るデータ処理装置の第5実施形態を説明するための図である。
【図31】図31は、図30に示した電話の動作を説明するためのフローチャートである。
【図32】図32は、本発明に係るデータ処理装置の第6実施形態を説明するための図である。
【図33】図33は、本発明に係るデータ処理装置の第7実施形態を説明するための図である。
【符号の説明】
1…データ処理装置、11…撮像部、12…入力部、13…出力部、14…通信インタフェース、15…RAM(Random access Memory)、16…ROM(Read only memory)、17…記憶部、18…CPUN 101…撮像系、102…抽出部、103…認証部、1011…照射部、1012…光学レンズ、1801…グレースケール変換部、1802…分布データ生成部、1803…特定部、1804…マッピング部、1805…ガウシアンフィルタ、1806…ガウシアンラプラシアン、1807…第1の縮退処理部、1808…第1の膨張処理部、1809…第2の膨張処理部、1810…第2の縮退処理部、1811…ローパスフィルタ部、1812…マスク部、1813…スケルトン部、1814…選択部、ノイズ除去フィルタ1815、1815_1…ガウシアンフィルタ、1815_2…メディアンフィルタ、1815_3…最大値フィルタ、1815_4…最小値フィルタ、1815_5…2次元適応ノイズ除去フィルタ、1815_6…近傍フィルタ、1815_7…平均化フィルタ、1815_8…ガウシアンローパスフィルタ、1815_9…2次元ラプラシアン近似フィルタ、1815_10…ガウシアンラプラシアンフィルタ。
Claims (16)
- 被検体を撮像して得られた第1の画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、前記画素データの分布を示す分布データを生成する第1の工程と、
前記第1の工程で生成した前記分布データに基いて、前記第1の範囲のうち2値化対象とする第2の範囲を特定する第2の工程と、
前記複数の画素データのうち、前記第2の工程で特定した前記第2の範囲にある画素データを前記第1の範囲にマッピングして、当該マッピングした前記画素データで構成される第2の画像データを生成する第3の工程と、
前記第3の工程で生成した前記第2の画像データを、前記第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する第4の工程と
を有する画像処理方法。 - 前記第1の工程は、前記第1の範囲内の各画素値について、当該画素値を持つ前記画素データの数を示す前記分布データを生成し、
前記第2の工程は、前記第1の範囲のうち予め決められた数の前記画素データが持つ画素値のなかで最大の画素値以下の範囲を前記第2の範囲として特定する
請求項1に記載の画像処理方法。 - 前記第3の工程で生成した前記第2の画像データにノイズ除去処理の後、エッジ強調処理を行い第4の画像データを生成する第5の工程を有し、
前記第4の工程は、前記第5の工程において生成した前記第4の画像データを、前記第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する
請求項2に記載の画像処理方法。 - 前記第5の工程は、前記第3の工程で生成した前記第2の画像データに、前記ノイズ除去処理としてガウシアンフィルタ処理の後、前記エッジ強調処理としてガウシアンラプラシアンフィルタ処理を行い前記第4の画像データを生成する
請求項3に記載の画像処理方法。 - 前記第5の工程は、前記第3の工程で生成した前記第2の画像データを基に、複数の異なるノイズ除去処理のうち、いずれかの前記ノイズ除去処理を行い前記第4の画像データを生成する
請求項3に記載の画像処理方法。 - 前記第5の工程は、前記第3の工程で生成した前記第2の画像データを基に、前記複数の異なるノイズ除去処理として、ガウシアンフィルタ、最大値フィルタ、最小値フィルタ、2次元適応ノイズ除去フィルタ、近傍フィルタ、平均化フィルタ、ガウシアンローパスフィルタ、2次元ラプラシアン演算子近似フィルタ、またはガウシアンラプラシアンフィルタのいずれかのノイズ除去処理を行い前記第4の画像データを生成する
請求項5に記載の画像処理方法。 - 前記第3の工程で生成した前記第2の画像データを基に、線形状のパターンを残すフィルタ処理を行い第5の画像データを生成する第6の工程と、
前記第4の工程は、前記第6の工程において生成した前記第5の画像データを、前記第1の範囲内に規定された閾値を基に2値化して前記第3の画像データを生成する
請求項1に記載の画像処理方法。 - 前記第6の工程は、前記第3の工程で生成した前記第2の画像データを2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分が、前記線形状のパターンを残させる閾値よりも低周波数成分の第5の画像データを特定し、
前記第4の工程は、前記第6の工程において特定した前記第5の画像データを、前記第1の範囲内に規定された閾値を基に2値化して前記第3の画像データを生成する
請求項7に記載の画像処理方法。 - 前記第6の工程は、前記第3の工程で生成した前記第2の画像データを2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分としての前記閾値を、当該閾値より大きな閾値に再設定し、前記再設定した閾値よりも低周波数成分を特定して前記第6の画像データを特定する
請求項8に記載の画像処理方法。 - 被検体を撮像して得られた第1の画像データを構成し予め規定された第1の範囲の画素値を示す複数の画素データについて、前記画素データの分布を示す分布データを生成する分布データ生成手段と、
前記分布データ生成手段が生成した前記分布データに基いて、前記第1の範囲のうち2値化対象とする第2の範囲を特定する特定手段と、
前記複数の画素データのうち、前記特定手段が特定した前記第2の範囲にある画素データを前記第1の範囲にマッピングして、当該マッピングした前記画素データで構成される第2の画像データを生成するマッピング手段と、
前記マッピング手段で生成した前記第2の画像データを、前記第1の範囲内に規定された閾値を基に2値化して第3の画像データを生成する2値化手段と
を有する画像処理装置。 - 前記分布データ生成手段は、前記第1の範囲内の各画素値について、当該画素値を持つ前記画素データの数を示す前記分布データを生成し、
前記特定手段は、前記第1の範囲のうち予め決められた数の前記画素データが持つ画素値のなかで最大の画素値以下の範囲を前記第2の範囲として特定する
請求項10に記載の画像処理装置。 - 前記マッピング手段で生成した前記第2の画像データをノイズ除去処理の後、エッジ強調処理を行い第4の画像データを生成するノイズ除去手段を有し、
前記2値化手段は、前記ノイズ除去手段が生成した前記第4の画像データを、前記第1の範囲内に規定された閾値を基に2値化して前記第3の画像データを生成する
請求項10に記載の画像処理装置。 - 前記ノイズ除去手段は、前記マッピング手段で生成した前記第2の画像データに、ノイズ除去処理としてガウシアンフィルタ処理の後、エッジ強調処理としてガウシアンラプラシアンフィルタ処理を行い前記第4の画像データを生成する
請求項12に記載の画像処理装置。 - 前記ノイズ除去手段は、前記マッピング手段で生成した前記第2の画像データを基に、ガウシアンフィルタ、最大値フィルタ、最小値フィルタ、2次元適応ノイズ除去フィルタ、近傍フィルタ、平均化フィルタ、ガウシアンローパスフィルタ、2次元ラプラシアン演算子近似フィルタ、またはガウシアンラプラシアンフィルタのいずれかのノイズ除去処理を行い前記第4の画像データを生成する
請求項13に記載の画像処理装置。 - 前記マッピング手段で生成した前記第2の画像データを基に、線形状のパターンを残すフィルタ処理を行い第5の画像データを生成するフィルタ処理手段を有し、
前記2値化手段は、前記フィルタ処理手段が生成した前記第5の画像データを、前記第1の範囲内に規定された閾値を基に2値化して前記第3の画像データを生成する
請求項10に記載の画像処理装置。 - 前記フィルタ処理手段は、前記マッピング手段が生成した前記第2の画像データを2次元フーリエ変換処理した2次元フーリエ空間上で周波数成分が、前記線形状のパターンを残させる閾値よりも低周波数成分の前記第5の画像データを特定する
請求項15に記載の画像処理装置。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003164373A JP4389489B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
JP2003164372A JP4547869B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
EP04730682A EP1622079B1 (en) | 2003-05-06 | 2004-04-30 | Image processing device and image processing method |
US10/518,607 US7450757B2 (en) | 2003-05-06 | 2004-04-30 | Image processing device and image processing method |
PCT/JP2004/006328 WO2004100069A1 (ja) | 2003-05-06 | 2004-04-30 | 画像処理装置、および画像処理方法 |
US12/246,043 US7702174B2 (en) | 2003-05-06 | 2008-10-06 | Image processing apparatus and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003164373A JP4389489B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
JP2003164372A JP4547869B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004329825A true JP2004329825A (ja) | 2004-11-25 |
JP4547869B2 JP4547869B2 (ja) | 2010-09-22 |
Family
ID=40346603
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003164373A Expired - Fee Related JP4389489B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
JP2003164372A Expired - Fee Related JP4547869B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003164373A Expired - Fee Related JP4389489B2 (ja) | 2003-05-06 | 2003-05-06 | 画像処理方法、および画像処理装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US7450757B2 (ja) |
EP (1) | EP1622079B1 (ja) |
JP (2) | JP4389489B2 (ja) |
WO (1) | WO2004100069A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007117758A (ja) * | 2006-12-25 | 2007-05-17 | Kyocera Corp | 生体認証装置 |
JP2007117413A (ja) * | 2005-10-28 | 2007-05-17 | Kyocera Corp | 生体認証装置 |
JP2007207009A (ja) * | 2006-02-02 | 2007-08-16 | Fujitsu Ltd | 画像処理方法及び画像処理装置 |
US7912293B2 (en) | 2005-09-06 | 2011-03-22 | Sony Corporation | Image processing system and image judgment method and program |
JP2012160172A (ja) * | 2011-02-01 | 2012-08-23 | Samsung Electronics Co Ltd | タッチパネルのマルチタッチ検出方法及びそれを利用したタッチスクリーン装置の動作方法 |
US8311332B2 (en) | 2005-09-06 | 2012-11-13 | Sony Corporation | Image processing system, mask fabrication method, and program |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4389489B2 (ja) * | 2003-05-06 | 2009-12-24 | ソニー株式会社 | 画像処理方法、および画像処理装置 |
TWI297875B (en) * | 2004-09-16 | 2008-06-11 | Novatek Microelectronics Corp | Image processing method and device using thereof |
JP4816321B2 (ja) * | 2006-08-14 | 2011-11-16 | ソニー株式会社 | 認証装置及び認証方法並びにプログラム |
JP5121204B2 (ja) | 2006-10-11 | 2013-01-16 | オリンパス株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US8068673B2 (en) * | 2006-12-01 | 2011-11-29 | Beihang University | Rapid and high precision centroiding method and system for spots image |
JP2008287436A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP2008287428A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP2008287432A (ja) * | 2007-05-16 | 2008-11-27 | Sony Corp | 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造 |
JP4941311B2 (ja) * | 2008-01-09 | 2012-05-30 | ソニー株式会社 | マウス |
JP2009187520A (ja) * | 2008-01-09 | 2009-08-20 | Sony Corp | 認証装置、認証方法、登録装置及び登録方法 |
JP5450600B2 (ja) * | 2008-05-21 | 2014-03-26 | ティーピー ビジョン ホールディング ビー ヴィ | 画像解像度の向上 |
US8238654B2 (en) * | 2009-01-30 | 2012-08-07 | Sharp Laboratories Of America, Inc. | Skin color cognizant GMA with luminance equalization |
US8798385B2 (en) * | 2009-02-16 | 2014-08-05 | Raytheon Company | Suppressing interference in imaging systems |
KR101129220B1 (ko) * | 2009-11-03 | 2012-03-26 | 중앙대학교 산학협력단 | 레인지 영상의 노이즈 제거장치 및 방법 |
US20110103655A1 (en) * | 2009-11-03 | 2011-05-05 | Young Warren G | Fundus information processing apparatus and fundus information processing method |
US20120019727A1 (en) * | 2010-07-21 | 2012-01-26 | Fan Zhai | Efficient Motion-Adaptive Noise Reduction Scheme for Video Signals |
JP2013011856A (ja) * | 2011-06-01 | 2013-01-17 | Canon Inc | 撮像システムおよびその制御方法 |
JP5178898B1 (ja) * | 2011-10-21 | 2013-04-10 | 株式会社東芝 | 画像信号補正装置、撮像装置、内視鏡装置 |
US9326008B2 (en) | 2012-04-10 | 2016-04-26 | Google Inc. | Noise reduction for image sequences |
CN105264360B (zh) * | 2013-04-04 | 2019-04-26 | 伊利诺斯工具制品有限公司 | 螺旋计算机断层成像 |
US9105102B1 (en) * | 2013-10-01 | 2015-08-11 | The United States Of America As Represented By The Secretary Of The Navy | Method for processing radiographic images of rapidly moving objects such as shaped charge jet particles |
JP6924761B2 (ja) * | 2015-12-18 | 2021-08-25 | ベンタナ メディカル システムズ, インコーポレイテッド | 異なる取得性質を持つ画像を分離するシステム及び方法 |
CN111507310B (zh) * | 2020-05-21 | 2023-05-23 | 国网湖北省电力有限公司武汉供电公司 | 一种基于φ-otdr的光缆通道内人为触缆作业信号识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07210655A (ja) * | 1994-01-21 | 1995-08-11 | Nikon Corp | 眼科用画像処理装置 |
JPH08287255A (ja) * | 1995-04-12 | 1996-11-01 | Nec Corp | 皮膚紋様画像の画像特徴抽出装置および画像処理装置 |
JPH11112877A (ja) * | 1997-09-30 | 1999-04-23 | Fuji Photo Film Co Ltd | 骨計測方法および装置 |
JP2000050075A (ja) * | 1998-04-30 | 2000-02-18 | General Electric Co <Ge> | ディジタル画像のピクセル値を変換する方法 |
JP2001076074A (ja) * | 1999-09-03 | 2001-03-23 | Canon Inc | 医療用画像処理装置 |
JP2002092616A (ja) * | 2000-09-20 | 2002-03-29 | Hitachi Ltd | 個人認証装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06339028A (ja) * | 1993-05-27 | 1994-12-06 | Toshiba Corp | 画像表示装置 |
JP2003098117A (ja) * | 1997-12-25 | 2003-04-03 | Nec Corp | 画像の欠陥検出装置及びその欠陥検出方法 |
JPH11224892A (ja) * | 1998-02-05 | 1999-08-17 | Nippon Inter Connection Systems Kk | テープキャリアの欠陥検出装置および欠陥検出方法 |
US6507670B1 (en) * | 1998-03-05 | 2003-01-14 | Ncr Corporation | System and process for removing a background pattern from a binary image |
JP2000090290A (ja) * | 1998-07-13 | 2000-03-31 | Sony Corp | 画像処理装置および画像処理方法、並びに媒体 |
JP2000134476A (ja) * | 1998-10-26 | 2000-05-12 | Canon Inc | 画像処理装置及びその制御方法及び記憶媒体 |
JP2000134491A (ja) * | 1998-10-26 | 2000-05-12 | Canon Inc | 画像処理装置及びその制御方法及び記憶媒体 |
US6891967B2 (en) * | 1999-05-04 | 2005-05-10 | Speedline Technologies, Inc. | Systems and methods for detecting defects in printed solder paste |
JP4046465B2 (ja) * | 1999-09-17 | 2008-02-13 | 株式会社リコー | 画像処理装置、画像処理方法、及び画像処理システム |
JP2001144960A (ja) * | 1999-11-18 | 2001-05-25 | Kyocera Mita Corp | 画像処理装置 |
JP2001160902A (ja) * | 1999-12-01 | 2001-06-12 | Canon Inc | 画像処理装置およびその方法 |
JP4192418B2 (ja) * | 2000-10-27 | 2008-12-10 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
JP4148443B2 (ja) * | 2001-05-21 | 2008-09-10 | 株式会社リコー | 画像形成装置 |
JP3742313B2 (ja) * | 2001-05-10 | 2006-02-01 | 日本電信電話株式会社 | 画像照合装置、画像照合方法、プログラム及び記録媒体 |
JP3983101B2 (ja) * | 2001-05-25 | 2007-09-26 | 株式会社リコー | 画像処理装置、画像読み取り装置、画像形成装置およびカラー複写装置 |
US7130463B1 (en) * | 2002-12-04 | 2006-10-31 | Foveon, Inc. | Zoomed histogram display for a digital camera |
JP4389489B2 (ja) * | 2003-05-06 | 2009-12-24 | ソニー株式会社 | 画像処理方法、および画像処理装置 |
-
2003
- 2003-05-06 JP JP2003164373A patent/JP4389489B2/ja not_active Expired - Fee Related
- 2003-05-06 JP JP2003164372A patent/JP4547869B2/ja not_active Expired - Fee Related
-
2004
- 2004-04-30 EP EP04730682A patent/EP1622079B1/en not_active Expired - Lifetime
- 2004-04-30 WO PCT/JP2004/006328 patent/WO2004100069A1/ja active Application Filing
- 2004-04-30 US US10/518,607 patent/US7450757B2/en active Active
-
2008
- 2008-10-06 US US12/246,043 patent/US7702174B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07210655A (ja) * | 1994-01-21 | 1995-08-11 | Nikon Corp | 眼科用画像処理装置 |
JPH08287255A (ja) * | 1995-04-12 | 1996-11-01 | Nec Corp | 皮膚紋様画像の画像特徴抽出装置および画像処理装置 |
JPH11112877A (ja) * | 1997-09-30 | 1999-04-23 | Fuji Photo Film Co Ltd | 骨計測方法および装置 |
JP2000050075A (ja) * | 1998-04-30 | 2000-02-18 | General Electric Co <Ge> | ディジタル画像のピクセル値を変換する方法 |
JP2001076074A (ja) * | 1999-09-03 | 2001-03-23 | Canon Inc | 医療用画像処理装置 |
JP2002092616A (ja) * | 2000-09-20 | 2002-03-29 | Hitachi Ltd | 個人認証装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7912293B2 (en) | 2005-09-06 | 2011-03-22 | Sony Corporation | Image processing system and image judgment method and program |
US8311332B2 (en) | 2005-09-06 | 2012-11-13 | Sony Corporation | Image processing system, mask fabrication method, and program |
JP2007117413A (ja) * | 2005-10-28 | 2007-05-17 | Kyocera Corp | 生体認証装置 |
JP2007207009A (ja) * | 2006-02-02 | 2007-08-16 | Fujitsu Ltd | 画像処理方法及び画像処理装置 |
US8606012B2 (en) | 2006-02-02 | 2013-12-10 | Fujitsu Limited | Image processing method and image processor |
JP2007117758A (ja) * | 2006-12-25 | 2007-05-17 | Kyocera Corp | 生体認証装置 |
JP4588015B2 (ja) * | 2006-12-25 | 2010-11-24 | 京セラ株式会社 | 生体認証装置 |
JP2012160172A (ja) * | 2011-02-01 | 2012-08-23 | Samsung Electronics Co Ltd | タッチパネルのマルチタッチ検出方法及びそれを利用したタッチスクリーン装置の動作方法 |
Also Published As
Publication number | Publication date |
---|---|
US7450757B2 (en) | 2008-11-11 |
EP1622079A4 (en) | 2010-09-29 |
JP4389489B2 (ja) | 2009-12-24 |
EP1622079A1 (en) | 2006-02-01 |
US20090041351A1 (en) | 2009-02-12 |
US7702174B2 (en) | 2010-04-20 |
JP4547869B2 (ja) | 2010-09-22 |
EP1622079B1 (en) | 2012-05-02 |
JP2004329826A (ja) | 2004-11-25 |
WO2004100069A1 (ja) | 2004-11-18 |
US20050232483A1 (en) | 2005-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4547869B2 (ja) | 画像処理方法、および画像処理装置 | |
US10108858B2 (en) | Texture features for biometric authentication | |
RU2563157C1 (ru) | Способ аутентификации физического лица и устройство для аутентификации физического лица | |
US8275174B2 (en) | Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration | |
JP5045344B2 (ja) | 登録装置、登録方法、認証装置及び認証方法 | |
JP2012519927A (ja) | 新規なインペインティング技術及び部分的収集のモザイク処理を介し虹彩スキャンを再構成する方法 | |
EP3035236A1 (en) | Four dimensional code, and four dimensional code-based image recognition system and method, and retrieval system and method | |
JP2010086241A (ja) | 指静脈撮像装置および指静脈撮像方法 | |
US20100226545A1 (en) | Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration | |
EP1423821A1 (en) | Method and apparatus for checking a person's identity, where a system of coordinates, constant to the fingerprint, is the reference | |
KR20110121874A (ko) | 홍채 인식 시스템, 그 방법 및 이를 이용한 무선 통신 장치 보안 시스템 | |
JP2009282706A (ja) | 静脈認証装置および静脈認証方法 | |
US20100208948A1 (en) | Vein Pattern Management System, Vein Pattern Registration Apparatus, Vein Pattern Authentication Apparatus, Vein Pattern Registration Method, Vein Pattern Authentication Method, Program, and Vein Data Configuration | |
JP2010240215A (ja) | 静脈深度判定装置、静脈深度判定方法およびプログラム | |
KR101763011B1 (ko) | 지문 정보의 코딩과 인식 시스템, 그리고 그 구동 방법 | |
US20040175023A1 (en) | Method and apparatus for checking a person's identity, where a system of coordinates, constant to the fingerprint, is the reference | |
EP2148296A1 (en) | Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure | |
JP3364886B2 (ja) | データの作成方法および作成装置ならびに照合方法およびシステム | |
US20230094557A1 (en) | Method for authentication of physical objects through capture and processing of fingerprint data via digital artifacts | |
JP4935213B2 (ja) | 登録装置、認証装置、画像処理方法及びプログラム | |
Sturak | Forensic analysis of digital image tampering | |
WO2004086292A1 (en) | Method and device for classifying field types of a digital image | |
Muthu | Development of a Secure Biometric Recognition System | |
JP2009271669A (ja) | 携帯機器用静脈認証装置および静脈認証方法 | |
JP2003087576A (ja) | データの作成方法および作成装置ならびに照合方法およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100615 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100628 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4547869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130716 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |