JP2007011989A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2007011989A
JP2007011989A JP2005195358A JP2005195358A JP2007011989A JP 2007011989 A JP2007011989 A JP 2007011989A JP 2005195358 A JP2005195358 A JP 2005195358A JP 2005195358 A JP2005195358 A JP 2005195358A JP 2007011989 A JP2007011989 A JP 2007011989A
Authority
JP
Japan
Prior art keywords
identification target
image
blood vessel
thickening
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005195358A
Other languages
Japanese (ja)
Inventor
Sumio Morioka
澄夫 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005195358A priority Critical patent/JP2007011989A/en
Publication of JP2007011989A publication Critical patent/JP2007011989A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of accurately extracting an object to be authenticated, an image processing method and a program. <P>SOLUTION: A discriminating object out of images obtained as the image pickup result of the discriminating object included in a living body is thickened and then the thickened discriminating object is thinned. Thereby even when a disconnected portion is caused in the discriminating object due to the reduction of a contrast difference between a net-like discriminating object and the other, since the disconnected portion is connected and then the discriminating object is thinned, the net-like discriminating object can be accurately extracted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関し、バイオメトリクス認証に適用して好適なものである。   The present invention relates to an image processing apparatus, an image processing method, and a program, and is suitable for application to biometric authentication.

従来、生体の指紋をバイオメトリクス認証の対象とした認証装置が数多く提案されているが、近年、生体における血管自体がバイオメトリクス認証の対象の1つとして着目されている。   Conventionally, many authentication apparatuses that use biometric fingerprints as targets for biometric authentication have been proposed, but in recent years, blood vessels in the living body have attracted attention as one of targets for biometric authentication.

具体的には、血管の撮像結果として得られる画像データに対して、エッジ抽出処理を施すことによって血管を抽出し、当該血管の中心を通る線を識別対象のデータとして生成するようになされた装置が提案されている(例えば特許文献1参照)。
特開平10−079034号公報
Specifically, an apparatus that extracts a blood vessel by performing edge extraction processing on image data obtained as a blood vessel imaging result and generates a line passing through the center of the blood vessel as identification target data. Has been proposed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 10-079034

ところでかかる構成の装置においては、識別対象が例えば眼底における血管である場合、その血管と生体表面との間に介在する他の組織が比較的少ないこと等に伴って、当該血管の撮像結果として得られる画像データにおける血管とそれ以外のコントラスト差が大きくなるため、着目すべき血管を正確に抽出することができる。   By the way, in the apparatus having such a configuration, when the identification target is, for example, a blood vessel in the fundus, it is obtained as an imaging result of the blood vessel because there are relatively few other tissues interposed between the blood vessel and the living body surface. Since the contrast between the blood vessel and the other contrast in the image data to be obtained becomes large, the blood vessel to be noted can be accurately extracted.

しかし、識別対象が例えば生体の指における血管である場合には、その血管と生体表面との間に介在する他の組織が比較的多いこと等に伴って、当該血管の撮像結果として得られる画像データにおける血管とそれ以外のコントラスト差が小さくなる。また認証装置を撮像する装置が粗悪である場合にも、当該撮像結果として得られる画像データにおける識別対象とそれ以外のコントラスト差が小さくなることがある。このような場合には、コントラスト差が小さくなることに起因して、着目すべき血管を正確に抽出することができないという問題があった。   However, when the identification target is, for example, a blood vessel in a finger of a living body, an image obtained as an imaging result of the blood vessel due to a relatively large amount of other tissues interposed between the blood vessel and the surface of the living body. The blood vessel and other contrast differences in the data become smaller. In addition, even when the device that captures the authentication device is inferior, the difference between the identification target and the other contrast in the image data obtained as the imaging result may be small. In such a case, there is a problem that a blood vessel to be focused on cannot be accurately extracted due to a small contrast difference.

本発明は以上の点を考慮してなされたもので、精度よく識別対象を抽出し得る画像処理装置、画像処理方法及びプログラムを提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose an image processing apparatus, an image processing method, and a program capable of accurately extracting an identification target.

かかる課題を解決するため本発明は、画像処理装置であって、生体における網状の識別対象の撮像結果として得られる画像のうち、当該識別対象を太線化する太線化手段と、その太線化手段により太線化された識別対象の中間線を検出する検出手段とを設けるようにした。   In order to solve such a problem, the present invention is an image processing apparatus, comprising: a thickening unit that thickens the identification target among images obtained as a result of imaging a net-like identification target in a living body; and the thickening unit. And a detecting means for detecting the middle line of the identification target that has been bolded.

従って、この画像処理装置では、網状の識別対象とそれ以外とのコントラスト差が小さくなることに起因して、当該識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化するため、網状の識別対象を正確に抽出することができる。   Therefore, in this image processing apparatus, even when a gap portion occurs in the identification target due to a small contrast difference between the mesh-like identification target and the other, the gap portion is combined. Therefore, a net-like identification target can be accurately extracted.

また本発明は、画像処理装置であって、生体における網状の識別対象の撮像結果として得られる画像のエッジを検出するエッジ検出手段と、当該エッジ検出手段によりエッジ検出された画像を平滑化する平滑化手段と、当該平滑化手段により平滑化された画像のうち、識別対象を太線化する太線化手段と、当該太線化手段により太線化された識別対象を細線化する細線化手段とを設けるようにした。   The present invention also relates to an image processing apparatus, an edge detection unit that detects an edge of an image obtained as a result of imaging a net-like identification target in a living body, and a smoothing that smoothes an image detected by the edge detection unit. Of the image smoothed by the smoothing means, the thickening means for thickening the identification target, and the thinning means for thinning the identification target thickened by the thickening means. I made it.

従って、この画像処理装置では、エッジ検出後に平滑化するため、網状の識別対象とそれ以外とのコントラスト差の小さい画像が得られた場合であっても、当該エッジ検出後の画像に生じる不連続点を除去して網状の識別対象に属さないノイズを正確に除去することができるのみならず、網状の識別対象を太線化した後に細線化するため、当該コントラスト差が小さくなることに起因して識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化して網状の識別対象を正確に抽出することができる。   Therefore, in this image processing apparatus, since smoothing is performed after edge detection, even when an image having a small contrast difference between the mesh-like identification target and the other image is obtained, discontinuity occurs in the image after edge detection. Not only can the dots not be removed to accurately remove the noise that does not belong to the mesh-like identification target, but also because the mesh-like identification target is thickened and then thinned, the contrast difference is reduced. Even when a discontinuous portion occurs in the identification target, the discontinuous portion can be combined and then thinned to accurately extract a net-like identification target.

さらに本発明は、画像処理方法であって、生体における網状の識別対象の撮像結果として得られる画像のうち、当該識別対象を太線化する第1のステップと、太線化された識別対象を細線化する第2のステップとを設けるようにした。   Furthermore, the present invention is an image processing method, wherein an image obtained as an imaging result of a net-like identification target in a living body is a first step for thickening the identification target, and the thickened identification target is thinned. A second step is provided.

従ってこの画像処理方法では、網状の識別対象とそれ以外とのコントラスト差が小さくなることに起因して、当該識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化するため、網状の識別対象を正確に抽出することができる。   Therefore, in this image processing method, even when a gap portion is generated in the identification target due to a small contrast difference between the mesh-like identification target and the other, the gap portion is combined. Since the line is thinned, a net-like identification target can be accurately extracted.

さらに本発明は、プログラムであって、生体に有する識別対象の撮像結果として得られる画像を処理する装置の制御を担うコンピュータに対して、当該画像のうち、識別対象を太線化する第1の処理と、その太線化された識別対象を細線化する第2の処理とを実行させるようにした。   Furthermore, the present invention is a program, which is a first process for thickening an identification target among the images for a computer responsible for controlling an apparatus that processes an image obtained as an imaging result of the identification target in a living body. And a second process for thinning the thickened identification target.

従ってこのプログラムでは、網状の識別対象とそれ以外とのコントラスト差が小さくなることに起因して、当該識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化するため、網状の識別対象を正確に抽出することができる。   Therefore, in this program, even if a gap portion occurs in the identification target due to a small contrast difference between the mesh-like identification target and the other, the thinning is performed after combining the gap portions. Therefore, it is possible to accurately extract the net-like identification target.

本発明によれば、生体に有する識別対象の撮像結果として得られる画像のうち、当該識別対象を太線化し、その太線化された識別対象を細線化するようにしたことにより、網状の識別対象とそれ以外とのコントラスト差が小さくなることに起因して、当該識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化するため、網状の識別対象を正確に抽出することができ、かくして精度よく識別対象を抽出することができる。   According to the present invention, among the images obtained as an imaging result of the identification target in the living body, the identification target is thickened, and the thickened identification target is thinned. Even if there is a discontinuity in the identification target due to a small contrast difference with the other, the mesh-like identification target is accurately identified because the discontinuity is combined and thinned. Thus, the identification target can be extracted with high accuracy.

また本発明によれば、生体における網状の識別対象の撮像結果として得られる画像のエッジを検出し、当該エッジ検出された画像を平滑化し、当該平滑化された画像のうち識別対象を太線化し、当該太線化された識別対象を細線化するようにしたことにより、網状の識別対象とそれ以外とのコントラスト差の小さい画像が得られた場合であっても、当該エッジ検出後の画像に生じる不連続点を除去して網状の識別対象に属さないノイズを正確に除去することができるのみならず、当該コントラスト差が小さくなることに起因して識別対象に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化して網状の識別対象を正確に抽出することができ、かくして識別対象を抽出することができる。   Further, according to the present invention, an edge of an image obtained as a result of imaging a net-like identification target in a living body is detected, the edge-detected image is smoothed, and the identification target is bolded out of the smoothed image, By thinning the bold identification object, even if an image with a small contrast difference between the mesh-like identification object and the others is obtained, there is no problem that occurs in the image after the edge detection. Not only is it possible to accurately remove noise that does not belong to the mesh-like identification target by removing continuous points, but even if there is a discontinuity in the identification target due to the small contrast difference Then, the discontinuous portions are combined and then thinned to accurately extract a net-like identification target, and thus the identification target can be extracted.

以下図面について、本発明を適用した実施の形態を詳述する。   Hereinafter, embodiments to which the present invention is applied will be described in detail with reference to the drawings.

(1)生体情報生成装置の構成
図1において、1は全体として本実施の形態による生体情報生成装置1を示し、生体の指に内在する血管を撮像する血管撮像部2と、当該撮像結果から生体を識別するためのデータ(以下、これを生体識別データと呼ぶ)を生成する情報生成部3とがケーブルを介して相互に接続されることにより構成される。
(1) Configuration of Biological Information Generating Device In FIG. 1, reference numeral 1 denotes the biometric information generating device 1 according to the present embodiment as a whole. An information generation unit 3 that generates data for identifying a living body (hereinafter referred to as biological identification data) is connected to each other via a cable.

(2)血管撮像部の構成
この血管撮像部2は、認証装置1の筺体1Aの所定位置に指FGを模るようにして形成された湾曲形状のガイド溝11を有し、当該ガイド溝11の底面には撮像開口部12が配設されている。
(2) Configuration of Blood Vessel Imaging Unit This blood vessel imaging unit 2 has a curved guide groove 11 formed so as to imitate a finger FG at a predetermined position of the housing 1A of the authentication device 1, and the guide groove 11 An imaging opening 12 is disposed on the bottom surface of.

撮像開口部12の表面には、所定材質でなる無色透明の開口カバー部13が設けられている一方、筺体1Aの内部における撮像開口部12の直下には、カメラ部14が配設されている。   A colorless and transparent opening cover portion 13 made of a predetermined material is provided on the surface of the imaging opening portion 12, while a camera portion 14 is disposed immediately below the imaging opening portion 12 inside the housing 1A. .

またガイド溝11の側面には、ヘモグロビンに対して特異的に吸収される近赤外光を血管の撮像光として照射する1対の近赤外光光源15(15A及び15B)が、ガイド溝11の短手方向と平行に撮像開口部12を挟み込むようにして配置されており、当該ガイド溝11に接触された指FGの指腹側部分に近赤外光を照射し得るようになされている。   Further, on the side surface of the guide groove 11, a pair of near-infrared light sources 15 (15 </ b> A and 15 </ b> B) that irradiate near-infrared light specifically absorbed with respect to hemoglobin as imaging light for blood vessels are provided on the guide groove 11. Is arranged so as to sandwich the imaging opening 12 in parallel with the short direction of the finger, and can be irradiated with near-infrared light on the finger pad side portion of the finger FG in contact with the guide groove 11. .

従ってこの血管撮像部2では、指FGの指腹底に近赤外光を照射する場合に比して、指FG表面で反射する近赤外光の割合が格段に抑えられる。また指FG表面を介してその内方に入射する近赤外光は、血管を通るヘモグロビンに吸収されると共に血管以外の組織において散乱するようにして指FG内方を経由し、当該指FGから血管を投影する近赤外光(以下、これを血管投影光と呼ぶ)として、撮像開口部12及び開口カバー部13を順次介してカメラ部14に入射する。   Therefore, in this blood vessel imaging unit 2, the ratio of near-infrared light reflected on the surface of the finger FG is remarkably suppressed as compared with the case where near-infrared light is irradiated on the finger pad base of the finger FG. Near-infrared light incident on the inside of the finger FG via the finger FG is absorbed by hemoglobin passing through the blood vessel and scattered in tissues other than the blood vessel through the inner side of the finger FG and from the finger FG. As near-infrared light for projecting blood vessels (hereinafter referred to as blood vessel projection light), the light enters the camera unit 14 via the imaging opening 12 and the opening cover 13 in sequence.

カメラ部14においては、マクロレンズ16と、酸素化及び脱酸素化双方のヘモグロビンに依存性の有する波長域(およそ900[nm]〜1000[nm])の近赤外光だけを透過する近赤外光透過フィルタ17と、CCD撮像素子18とが順次配設されており、開口カバー部13から入射する血管投影光をマクロレンズ16及び近赤外光透過フィルタ17を順次介してCCD撮像素子18の撮像面に導光する。これによりこのカメラ部14は、近接する指FGの内方に混在する静脈系及び動脈系双方の毛細血管を忠実に結像し得るようになされている。   In the camera unit 14, the macro lens 16 and near-red light that transmits only near-infrared light in a wavelength range (approximately 900 [nm] to 1000 [nm]) that depends on both oxygenation and deoxygenation hemoglobin. An external light transmission filter 17 and a CCD image sensor 18 are sequentially arranged, and blood vessel projection light incident from the opening cover 13 is sequentially passed through the macro lens 16 and the near-infrared light transmission filter 17 to the CCD image sensor 18. To the imaging surface. Thus, the camera unit 14 can faithfully image both venous and arterial capillaries mixed inside the adjacent finger FG.

CCD撮像素子18は、情報生成部3による制御のもとに、撮像面に結像される血管等を撮像し、当該撮像結果を画像信号として情報生成部3に出力するようになされている。   Under the control of the information generation unit 3, the CCD imaging device 18 images a blood vessel or the like that is imaged on the imaging surface, and outputs the imaging result to the information generation unit 3 as an image signal.

このようにしてこの血管撮像部2は、生体の指に内在する血管を撮像することができるようになされている。   In this way, the blood vessel imaging unit 2 is capable of imaging blood vessels existing in the finger of the living body.

(3)情報生成部の構成
一方、情報生成部3は、図2に示すように、制御部20に対して、血管撮像駆動部21と、画像処理部22とをそれぞれ接続することにより構成されている。
(3) Configuration of Information Generation Unit On the other hand, the information generation unit 3 is configured by connecting a blood vessel imaging drive unit 21 and an image processing unit 22 to the control unit 20 as shown in FIG. ing.

この制御部20は、生体情報生成装置1全体の制御を司るCPU(Central Processing Unit)と、各種プログラムが格納されるROM(Read Only Memory)と、当該CPUのワークメモリとしてのRAM(Random Access Memory)とを含むコンピュータ構成でなり、当該制御部20には、各種命令が与えられる。   The control unit 20 includes a central processing unit (CPU) that controls the entire biological information generating apparatus 1, a ROM (Read Only Memory) that stores various programs, and a RAM (Random Access Memory) as a work memory of the CPU. ), And various instructions are given to the control unit 20.

そして制御部20は、操作部(図示せず)から血管を抽出する旨の血管抽出命令COMが与えられた場合には、ROMに格納された対応するプログラムに基づいて、動作モードを血管抽出モードに遷移して血管撮像駆動部21及び画像処理部22をそれぞれ制御する。   When the blood vessel extraction command COM for extracting a blood vessel is given from the operation unit (not shown), the control unit 20 sets the operation mode to the blood vessel extraction mode based on the corresponding program stored in the ROM. Then, the blood vessel imaging driving unit 21 and the image processing unit 22 are controlled.

この場合、血管撮像駆動部21は、近赤外光光源15と、カメラ部14のCCD撮像素子18とをそれぞれ駆動するようにして血管撮像部2を起動する。この結果、血管撮像部2では、近赤外光光源15からこのときガイド溝11(図1)に接触される撮像者の指FG(図1)の指腹側部に近赤外光が照射され、当該指FG(図1)を経由してCCD撮像素子18の撮像面に導光される血管投影光がこのCCD撮像素子18から血管投影画像信号S1として画像処理部22に出力される。   In this case, the blood vessel imaging drive unit 21 activates the blood vessel imaging unit 2 so as to drive the near-infrared light source 15 and the CCD imaging device 18 of the camera unit 14 respectively. As a result, in the blood vessel imaging unit 2, near infrared light is irradiated from the near infrared light source 15 onto the finger pad side of the imager's finger FG (FIG. 1) that is in contact with the guide groove 11 (FIG. 1) at this time. Then, the blood vessel projection light guided to the imaging surface of the CCD image sensor 18 via the finger FG (FIG. 1) is output from the CCD image sensor 18 to the image processing unit 22 as a blood vessel projection image signal S1.

この画像処理部22は、図3に示すように、A/D(Analog/Digital)変換部31、エッジ抽出部32、平滑化処理部33、2値化部34、太線化部35及び中心線検出部36によって構成されており、CCD撮像素子18から供給される血管投影画像信号S1をA/D変換部31に入力する。   As shown in FIG. 3, the image processing unit 22 includes an A / D (Analog / Digital) conversion unit 31, an edge extraction unit 32, a smoothing processing unit 33, a binarizing unit 34, a thickening unit 35, and a center line. The blood vessel projection image signal S <b> 1 configured by the detection unit 36 and supplied from the CCD image sensor 18 is input to the A / D conversion unit 31.

A/D変換部31は、血管投影画像信号S1に対してA/D変換処理を施し、この結果得られる血管投影画像データD1をエッジ抽出部32に送出する。   The A / D conversion unit 31 performs A / D conversion processing on the blood vessel projection image signal S1, and sends the blood vessel projection image data D1 obtained as a result to the edge extraction unit 32.

エッジ抽出部32は、血管投影画像データD1に対して、例えばラプラシアンと呼ばれるフィルタ処理を順次施す。この結果、血管投影画像データD1の画像における輪郭が他の要素よりも強調され、当該輪郭としての血管が抽出されることとなる。そしてエッジ抽出部32は、かかるフィルタ処理結果として血管が抽出された画像をデータ(以下、これを血管抽出画像データと呼ぶ)D2として平滑化処理部33に送出する。   The edge extraction unit 32 sequentially performs, for example, a filter process called Laplacian on the blood vessel projection image data D1. As a result, the contour in the image of the blood vessel projection image data D1 is emphasized more than other elements, and the blood vessel as the contour is extracted. Then, the edge extraction unit 32 sends an image from which blood vessels have been extracted as the filter processing result as data (hereinafter referred to as blood vessel extraction image data) D2 to the smoothing processing unit 33.

平滑化処理部33は、血管抽出画像データD2に対して、所定の平滑化処理を施すようになされている。具体的には、平滑化処理部33は、図4に示すように、着目画素NPを中心とする設定範囲AR内の画素の輝度値をそれぞれ検出し、その設定範囲AR内における全ての画素の平均値(以下、これを第1の平均値と呼ぶ)を求めると共に(図4(A))、当該設定範囲AR内における全ての画素から着目画素NPを除いた各画素の平均値(以下、これを第2の平均値と呼ぶ)を求める(図4(B))。   The smoothing processing unit 33 performs a predetermined smoothing process on the blood vessel extraction image data D2. Specifically, as shown in FIG. 4, the smoothing processing unit 33 detects the luminance values of the pixels in the setting range AR centered on the target pixel NP, and detects all the pixels in the setting range AR. An average value (hereinafter referred to as a first average value) is obtained (FIG. 4A), and an average value of each pixel (hereinafter, referred to as “first pixel average value”) excluding the target pixel NP from all pixels in the setting range AR. This is called a second average value) (FIG. 4B).

そして平滑化処理部33は、第1の平均値及び第2の平均値の差が所定の闘値未満である場合には、当該着目画素NPがノイズではないものとして、当該着目画素NPの輝度値をそのまま維持する。   Then, when the difference between the first average value and the second average value is less than the predetermined threshold value, the smoothing processing unit 33 determines that the target pixel NP is not noise and the luminance of the target pixel NP. Keep the value as is.

これに対して平滑化処理部33は、第1の平均値及び第2の平均値の差が所定の闘値以上である場合には、当該着目画素NPがノイズであるものとして、当該着目画素NPの輝度値を第1の平均値又は第2の平均値に置き換えるようになされている。   On the other hand, when the difference between the first average value and the second average value is equal to or greater than a predetermined threshold value, the smoothing processing unit 33 determines that the target pixel NP is noise, and The brightness value of NP is replaced with the first average value or the second average value.

なお、着目画素NPの周りにノイズ成分の画素があった場合であっても、その画素の影響により着目画素NPがノイズであると誤検出されることはない。これは、設定範囲AR内における全ての画素のうち、着目画素NP以外の画素がノイズ成分であったとしても、当該着目画素NP自体がノイズでなければ、第1の平均値及び第2の平均値の差が所定の闘値以上となることはないからである。   Even when there is a noise component pixel around the pixel of interest NP, the pixel of interest NP is not erroneously detected as noise due to the influence of the pixel. This is because, even if a pixel other than the target pixel NP is a noise component among all the pixels in the setting range AR, the first average value and the second average are determined if the target pixel NP itself is not noise. This is because the difference in values never exceeds a predetermined threshold.

このようにして平滑化処理部33は、画像IM内における所定の画素を着目画素NPとしてある定められた順に上述の平滑化処理を施し、当該平滑化された画像をデータ(以下、これを平滑化血管抽出画像データと呼ぶ)D3として2値化部34に送出する。   In this way, the smoothing processing unit 33 performs the above-described smoothing processing in a predetermined order with a predetermined pixel in the image IM as the target pixel NP, and converts the smoothed image into data (hereinafter referred to as smoothing). Sent to the binarization section 34 as D3).

2値化部34は、平滑化血管抽出画像データD3に対して2値化処理を施す。この結果、血管抽出画像データD2の画像のうち、所定輝度値以下の画素が最低輝度値の画素(以下、これを白画素と呼ぶ)として変換されると共に、当該所定輝度値よりも大きい画素が最高輝度値の画素(以下、これを黒画素と呼ぶ)として変換され、当該画像内に血管だけが残されることとなる。そして2値化部34は、かかる2値化処理結果として血管だけが残された画像をデータ(以下、これを血管画像データと呼ぶ)D4として太線化部35に送出する。   The binarization unit 34 performs binarization processing on the smoothed blood vessel extraction image data D3. As a result, in the image of the blood vessel extraction image data D2, a pixel having a luminance value equal to or lower than the predetermined luminance value is converted as a pixel having the lowest luminance value (hereinafter referred to as a white pixel), and pixels larger than the predetermined luminance value are displayed. This is converted as a pixel having the highest luminance value (hereinafter referred to as a black pixel), and only the blood vessel is left in the image. Then, the binarization unit 34 sends an image in which only the blood vessel is left as a result of the binarization processing to the thick line unit 35 as data (hereinafter referred to as blood vessel image data) D4.

太線化部35は、血管画像データD4に対して、例えばダイリューションと呼ばれるフィルタ処理を施す。この結果、血管画像データD4の画像における血管が太線化され、本来連結箇所であるにもかかわらず途切れていた箇所が連結されることとなる。そして太線化部35は、かかるフィルタ処理結果として血管が太線化された画像をデータ(以下、これを太血管画像データと呼ぶ)D5として中心線検出部36に送出する。   The thick line unit 35 performs, for example, a filtering process called dilution on the blood vessel image data D4. As a result, the blood vessels in the image of the blood vessel image data D4 are thickened, and the portions that were originally disconnected but connected are connected. Then, the thickening unit 35 sends an image in which the blood vessel is thickened as the filter processing result to the centerline detection unit 36 as data (hereinafter referred to as thick blood vessel image data) D5.

中心線検出部36は、太血管画像データD5に対して、例えばThinningと呼ばれるフィルタ処理を施す。この結果、太血管画像データD5の画像における血管が細線化され、当該血管が検出対象の中心線として表れることとなる。そして中心線検出部36は、かかるフィルタ処理結果として血管の中心線が表れた画像を生体識別データD6として制御部20に送出する。   The center line detection unit 36 performs a filtering process called Thinning, for example, on the large blood vessel image data D5. As a result, the blood vessel in the image of the thick blood vessel image data D5 is thinned, and the blood vessel appears as the center line of the detection target. Then, the center line detection unit 36 sends an image in which the center line of the blood vessel appears as a result of the filtering process to the control unit 20 as the biometric identification data D6.

制御部20は、かかる画像処理部22から生体識別データD6を受け取ると、この識別データD6を登録データとして内部若しくは外部に設けられた記録媒体(図示せず)に登録し、又は登録データとの比較対象として内部若しくは外部に設けられた照合器(図示せず)に送出すると共に、血管撮像駆動部21及び画像処理部22に対する制御を解除する。   When the control unit 20 receives the biometric identification data D6 from the image processing unit 22, the control unit 20 registers the identification data D6 as registration data in a recording medium (not shown) provided inside or outside, or exchanges the registration data with the registration data. The data is sent to a collator (not shown) provided inside or outside as a comparison target, and the control for the blood vessel imaging drive unit 21 and the image processing unit 22 is released.

このようにしてこの情報生成部3は、撮像結果から生体を識別するための生体識別データを生成することができるようになされている。   In this way, the information generating unit 3 can generate biometric identification data for identifying a biometric from the imaging result.

(4)動作及び効果
以上の構成において、この生体情報生成装置1は、生体に内在する血管の撮像結果として得られる画像に含まれた血管を太線化し、当該太線化した血管を細線化する。
(4) Operation and Effect In the above configuration, the biological information generating apparatus 1 thickens the blood vessel included in the image obtained as a result of imaging the blood vessel existing in the living body, and thins the thickened blood vessel.

従って、この生体情報生成装置1では、識別対象である血管と、当該識別対象以外となるノイズに相当する要素とのコントラスト差が小さくなることに起因して、当該画像内の血管に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化することができるため、血管と生体表面との間に介在する他の組織の多少や、撮像部の善悪等にかかわらず、血管を正確に抽出することができる。   Therefore, in this biometric information generation device 1, there is a discontinuity in the blood vessel in the image due to the small contrast difference between the blood vessel that is the identification target and the element corresponding to the noise other than the identification target. Even if it occurs, it can be thinned after joining the discontinuous parts, so regardless of the degree of other tissues intervening between the blood vessel and the biological surface, whether the imaging unit is good or bad, etc. Blood vessels can be accurately extracted.

またこの生体情報生成装置1は、血管の太線化の前に、撮像結果として得られる画像を2値化する。従って、この生体情報生成装置1では、太線化の処理として負荷が大きい処理が選定されている場合であっても、正確かつ高速に血管を抽出することができる。   In addition, the biological information generation apparatus 1 binarizes an image obtained as an imaging result before the blood vessel is thickened. Therefore, in this biological information generating apparatus 1, blood vessels can be extracted accurately and at high speed even when a process with a large load is selected as the thickening process.

さらにこの生体情報生成装置1は、血管の太線化の前に、撮像結果として得られる画像を平滑化する。従って、この生体情報生成装置1では、コントラスト差の小さい画像に対してエッジ抽出処理を施した場合に生じる不連続点を除去できるため、網状の識別対象に属さないノイズを正確に除去することができる。   Furthermore, this biological information generation apparatus 1 smoothes the image obtained as an imaging result before thickening the blood vessel. Therefore, since this biometric information generation device 1 can remove discontinuous points generated when edge extraction processing is performed on an image having a small contrast difference, noise that does not belong to a mesh-like identification target can be accurately removed. it can.

そしてかかる平滑化には、その画像における着目画素NP(図4)の周辺画素群における第1の平均値(図4(B))と、当該着目画素NP及び周辺画素群における第2の平均値(図4(A))との差に応じて、着目画素NPの画素値を第1平均値に置き換えるか、若しくは置き換えずに元のままとする手法が適用される。   For such smoothing, the first average value (FIG. 4B) in the peripheral pixel group of the target pixel NP (FIG. 4) in the image and the second average value in the target pixel NP and the peripheral pixel group are included. Depending on the difference from FIG. 4A, a method is applied in which the pixel value of the pixel of interest NP is replaced with the first average value, or the original value is not replaced.

従って、この生体情報生成装置1では、メディアンフィルタと呼ばれる平滑化処理を採用する場合に比して、着目画素及びその周辺画素群における中間値を検出するソート処理を要しない分だけ、低処理負荷で画像を平滑化することができる。またこの生体情報生成装置1では、本実施の形態による平滑化処理結果(図5(A))と、着目画素NPの画素値を、単に着目画素NP及び周辺画素群における平均値に置き換える平滑化処理(以下、これを単純平滑化処理と呼ぶ)結果(図5(B))とを視覚的に比較しても明らかなように、当該単純平滑化処理を採用する場合に比して、着目画素NPの周辺画素群に含まれるノイズ成分の画素に影響されることなく、当該着目画素NPを正確に平滑化することができる。   Therefore, in this biometric information generation device 1, as compared with the case where a smoothing process called a median filter is adopted, the processing load is reduced by the amount that does not require the sort process for detecting the intermediate value in the pixel of interest and the surrounding pixel group. Can smooth the image. Further, in this biological information generating apparatus 1, the smoothing processing result according to the present embodiment (FIG. 5A) and the smoothing that simply replaces the pixel value of the target pixel NP with the average value of the target pixel NP and the surrounding pixel group. As is apparent from a visual comparison of the processing (hereinafter referred to as simple smoothing processing) result (FIG. 5B), attention is paid as compared with the case of adopting the simple smoothing processing. The target pixel NP can be accurately smoothed without being affected by the noise component pixels included in the peripheral pixel group of the pixel NP.

なお、実験結果を図6及び図7に示す。この図6及び図7は、中央の着目画素と、その着目画素に隣接する画素との画素値の変化を示すものであり、図6(A)及び図7(A)は平滑化前、図6(B)及び図7(B)は本実施の形態による平滑化処理後、図6(C)及び図7(C)は単純平滑化処理をそれぞれ示すものである。なお、図6(B)及び図7(B)では、平滑化処理で採用される置き換えの閾値が「50」として設定されている。   The experimental results are shown in FIGS. FIGS. 6 and 7 show changes in the pixel values of the central pixel of interest and the pixels adjacent to the pixel of interest. FIGS. 6A and 7A are diagrams before smoothing. 6 (B) and FIG. 7 (B) show the simple smoothing process after the smoothing process according to the present embodiment, and FIGS. 6 (C) and 7 (C) show the simple smoothing process, respectively. In FIGS. 6B and 7B, the replacement threshold employed in the smoothing process is set to “50”.

この図6からも明らかなように、本実施の形態による平滑化処理では着目画素の値が正しく置き換えられるのに対し、単純平滑化処理では、着目画素NPの値が正しく置き換えられないことが分かる。また図7からも明らかなように、本実施の形態による平滑化処理では着目画素NPの周辺画素群に含まれるノイズ成分の画素に影響されることなく着目画素の値が維持されるのに対し、単純平滑化処理では、当該周辺画素群に含まれるノイズ成分の画素に影響されて着目画素の値が変化していることが分かる。   As is clear from FIG. 6, the value of the target pixel is correctly replaced in the smoothing process according to the present embodiment, whereas the value of the target pixel NP is not correctly replaced in the simple smoothing process. . As is clear from FIG. 7, the smoothing process according to the present embodiment maintains the value of the target pixel without being affected by the noise component pixels included in the peripheral pixel group of the target pixel NP. In the simple smoothing process, it can be seen that the value of the pixel of interest is changed by being affected by the pixel of the noise component included in the peripheral pixel group.

以上の構成によれば、生体に内在する血管の撮像結果として得られる画像に含まれた血管を太線化し、当該太線化した血管を細線化するようにしたことにより、識別対象である血管と、当該識別対象以外となるノイズに相当する要素とのコントラスト差が小さくなることに起因して、当該画像内の血管に途切れ部分が生じた場合であっても、その途切れ部分を結合した上で細線化するため、血管を正確に抽出することができ、かくして精度よく血管を抽出することができる。   According to the above configuration, the blood vessel included in the image obtained as an imaging result of the blood vessel existing in the living body is thickened, and the thickened blood vessel is thinned. Even if a discontinuous portion occurs in the blood vessel in the image due to a small contrast difference with an element corresponding to noise other than the identification target, the thin line is obtained by combining the discontinuous portions. Therefore, it is possible to accurately extract blood vessels and thus extract blood vessels with high accuracy.

(5)他の実施の形態
なお上述の実施の形態においては、生体における網状の識別対象として、生体に内在する血管を適用するようにした場合について述べたが、本発明はこれに限らず、生体に表在する指紋や、生体に内在する神経等のこの他種々のものを適用することができる。因みに、神経を認証対象とする場合には、例えば神経に特異的なマーカを体内に注入し、当該マーカを撮像するようにすれば、上述の実施の形態と同様にして神経を識別対象とすることができる。
(5) Other Embodiments In the above-described embodiment, the case where a blood vessel inherent in a living body is applied as a net-like identification target in the living body has been described, but the present invention is not limited thereto, Various other things such as fingerprints that are present in the living body and nerves that are present in the living body can be applied. By the way, when a nerve is an authentication target, for example, if a marker specific to the nerve is injected into the body and the marker is imaged, the nerve is an identification target in the same manner as in the above-described embodiment. be able to.

また、かかる識別対象の範囲として、指を適用するようにしたが、本発明はこれに限らず、例えば腕、眼底、掌、足指又は足裏等の他の生体部位を適用するようにしても良く、生体全体を適用しても良い。   In addition, although the finger is applied as the range of the identification target, the present invention is not limited to this, and other biological parts such as an arm, a fundus, a palm, a toe, or a sole are applied. Alternatively, the whole living body may be applied.

さらに、かかる識別対象を撮像する撮像手段として、図1に示す構成のものを適用するようにしたが、本発明はこれに限らず、その用途や識別対象の種類等に応じて、種々の構成のものを幅広く適用することができる。   Further, as the imaging means for imaging the identification target, the configuration shown in FIG. 1 is applied. However, the present invention is not limited to this, and various configurations are possible depending on the application, type of identification target, and the like. Can be widely applied.

また上述の実施の形態においては、識別対象を太線化する太線化手段として、ダイリューションと呼ばれるフィルタ処理を施すようにした場合について述べたが、本発明はこれに限らず、例えばワンズフィルタ処理を施す等、この他種々の手法により識別対象を太線化することができる。   In the above-described embodiment, the case where the filtering process called dilution is performed as the thickening means for thickening the identification target has been described. However, the present invention is not limited to this, and for example, a ones filter process. The identification target can be thickened by various other methods.

さらに上述の実施の形態においては、識別対象を細線化する細線化手段として、Thinningと呼ばれるフィルタ処理を施すようにした場合について述べたが、本発明はこれに限らず、例えば血管幅を計測して血管の中心線を検出するようにしても良い。   Furthermore, in the above-described embodiment, the case where the filtering process called Thinning is performed as the thinning means for thinning the identification target has been described. However, the present invention is not limited to this, and for example, the blood vessel width is measured. Thus, the center line of the blood vessel may be detected.

さらに上述の実施の形態においては画像処理部22をハードウェア的に動作するようにした場合について述べたが、本発明はこれに限らず、当該画像処理部22におけるA/D変換部31、エッジ抽出部32、平滑化処理部33、2値化部34、太線化部35及び中心線検出部36の各種処理の全部又は一部を実行させるプログラムによりソフトウェア的に動作させるようにしても良い。   Furthermore, in the above-described embodiment, the case where the image processing unit 22 is operated in hardware has been described. However, the present invention is not limited to this, and the A / D conversion unit 31 and the edge in the image processing unit 22 are described. The extraction unit 32, the smoothing processing unit 33, the binarization unit 34, the thickening unit 35, and the centerline detection unit 36 may be operated in software by a program that executes all or part of the various processes.

本発明は、生体を識別する技術を用いる分野に利用可能である。   The present invention can be used in a field using a technique for identifying a living body.

本実施の形態による生体情報生成装置の全体構成を示す略線図である。It is a basic diagram which shows the whole structure of the biometric information generation apparatus by this Embodiment. 情報生成部の構成を示すブロック図である。It is a block diagram which shows the structure of an information generation part. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 平滑化処理の説明に供する略線図である。It is an approximate line figure used for explanation of smoothing processing. 平滑化処理結果の画像を示す略線図である。It is a basic diagram which shows the image of a smoothing process result. 実験結果(1)を示す略線図である。It is a basic diagram which shows an experimental result (1). 実験結果(2)を示す略線図である。It is a basic diagram which shows an experimental result (2).

符号の説明Explanation of symbols

1……生体情報生成装置、2……血管撮像部、3……情報生成部、14……カメラ部、15A、15B……近赤外光光源、16……マクロレンズ、17……近赤外光透過フィルタ、18……CCD撮像素子、20……制御部、21……血管撮像駆動部、22……画像処理部、31……A/D変換部、32……エッジ抽出部、33……平滑化処理部、34……2値化部、35……太線化部、36……中心線検出部、COM……命令、S1……血管投影画像信号、D1……血管投影画像データ、D2……血管抽出画像データ、D3……平滑化血管抽出画像データ、D4……血管画像データ、D5……太血管画像データ、D6……生体識別データ、AR……設定範囲、NP……着目画素。
DESCRIPTION OF SYMBOLS 1 ... Living body information generation apparatus, 2 ... Blood vessel imaging part, 3 ... Information generation part, 14 ... Camera part, 15A, 15B ... Near infrared light source, 16 ... Macro lens, 17 ... Near red External light transmission filter, 18... CCD image sensor, 20... Control unit, 21... Blood vessel imaging drive unit, 22 ... image processing unit, 31... A / D conversion unit, 32. ...... Smoothing processing unit, 34... Binarization unit, 35... Thick line unit, 36 .. center line detection unit, COM .. command, S1 .. blood vessel projection image signal, D1. , D2 ... Blood vessel extraction image data, D3 ... Smoothed blood vessel extraction image data, D4 ... Blood vessel image data, D5 ... Thick blood vessel image data, D6 ... Biometric identification data, AR ... Setting range, NP ... Pixel of interest.

Claims (7)

生体における網状の識別対象の撮像結果として得られる画像のうち、上記識別対象を太線化する太線化手段と、
上記太線化手段により太線化された上記識別対象を細線化する細線化手段と
を具えることを特徴とする画像処理装置。
Among the images obtained as a result of imaging a net-like identification target in a living body, thickening means for thickening the identification target;
An image processing apparatus comprising: thinning means for thinning the identification target thickened by the thickening means.
上記識別対象は、生体部位における血管である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the identification target is a blood vessel in a living body part.
生体における識別対象の撮像結果として得られる画像を2値化する2値化手段を具え、
上記太線化手段は、
上記2値化手段により2値化された画像のうち、上記識別対象を太線化する
ことを特徴とする請求項1に記載の画像処理装置。
Binarizing means for binarizing an image obtained as an imaging result of an identification target in a living body,
The thickening means is
The image processing apparatus according to claim 1, wherein among the images binarized by the binarization unit, the identification target is bolded.
生体における識別対象の撮像結果として得られる画像を平滑化する平滑化手段を具え、
上記平滑化手段は、
上記画像における着目画素の周辺画素群における第1の平均値と、当該着目画素及び上記周辺画素群における第2の平均値との差に応じて、上記着目画素の画素値を上記第1の平均値に置き換えるか、若しくは置き換えずに元の値のままとし、
上記太線化手段は、
上記平滑化手段により平滑化された画像のうち、上記識別対象を太線化する
ことを特徴とする請求項1に記載の画像処理装置。
Comprising a smoothing means for smoothing an image obtained as an imaging result of an identification target in a living body,
The smoothing means includes
According to the difference between the first average value in the peripheral pixel group of the target pixel in the image and the second average value in the target pixel and the peripheral pixel group, the pixel value of the target pixel is set to the first average value. Replace it with the value or leave it as it is,
The thickening means is
The image processing apparatus according to claim 1, wherein among the images smoothed by the smoothing unit, the identification target is thickened.
生体における網状の識別対象の撮像結果として得られる画像のエッジを検出するエッジ検出手段と、
上記エッジ検出手段によりエッジ検出された画像を平滑化する平滑化手段と、
上記平滑化手段により平滑化された画像のうち、上記識別対象を太線化する太線化手段と、
上記太線化手段により太線化された上記識別対象を細線化する細線化手段と
を具えることを特徴とする画像処理装置。
Edge detection means for detecting an edge of an image obtained as a result of imaging a net-like identification target in a living body;
Smoothing means for smoothing an image whose edge is detected by the edge detection means;
Among the images smoothed by the smoothing means, thickening means for thickening the identification target;
An image processing apparatus comprising: thinning means for thinning the identification target thickened by the thickening means.
生体における網状の識別対象の撮像結果として得られる画像のうち、上記識別対象を太線化する第1のステップと、
太線化された上記識別対象を細線化する第2のステップと
を具えることを特徴とする画像処理方法。
A first step of thickening the identification target among images obtained as a result of imaging a net-shaped identification target in a living body;
And a second step of thinning the identification object that has been bolded.
生体に有する識別対象の撮像結果として得られる画像を処理する装置の制御を担うコンピュータに対して、
上記画像のうち、上記識別対象を太線化する第1の処理と、
太線化された上記識別対象を細線化する第2の処理と
を実行させることを特徴とするプログラム。
For a computer responsible for controlling an apparatus that processes an image obtained as an imaging result of an identification target in a living body,
A first process for thickening the identification target in the image;
And executing a second process of thinning the identification target that has been bolded.
JP2005195358A 2005-07-04 2005-07-04 Image processing apparatus, image processing method, and program Pending JP2007011989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005195358A JP2007011989A (en) 2005-07-04 2005-07-04 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005195358A JP2007011989A (en) 2005-07-04 2005-07-04 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2007011989A true JP2007011989A (en) 2007-01-18

Family

ID=37750341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005195358A Pending JP2007011989A (en) 2005-07-04 2005-07-04 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2007011989A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8139825B2 (en) 2007-12-04 2012-03-20 Sony Corporation Authentication apparatus and authentication method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721373A (en) * 1993-06-17 1995-01-24 Asahi Optical Co Ltd Individual identifying device
JP2002015298A (en) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> System and method for palm shape authentication
JP2004318356A (en) * 2003-04-15 2004-11-11 Olympus Corp Image processing device, image processing method, and its program
JP2005056282A (en) * 2003-08-06 2005-03-03 Sony Corp Image processing method and apparatus and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721373A (en) * 1993-06-17 1995-01-24 Asahi Optical Co Ltd Individual identifying device
JP2002015298A (en) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> System and method for palm shape authentication
JP2004318356A (en) * 2003-04-15 2004-11-11 Olympus Corp Image processing device, image processing method, and its program
JP2005056282A (en) * 2003-08-06 2005-03-03 Sony Corp Image processing method and apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8139825B2 (en) 2007-12-04 2012-03-20 Sony Corporation Authentication apparatus and authentication method

Similar Documents

Publication Publication Date Title
US8606012B2 (en) Image processing method and image processor
JP4556111B2 (en) Information processing device
JP4748199B2 (en) Vein imaging apparatus and vein imaging method
KR101164275B1 (en) Authentication device, authentication method, recording medium, and authentication information registration device
JP2010049664A (en) Vein imaging device, vein imaging method, and vein authentication device
JP2009165630A (en) Vein authentication apparatus and vein authentication method
EP2068270B1 (en) Authentication apparatus and authentication method
JP4752719B2 (en) Image processing apparatus, image acquisition method, and program
JP4344986B2 (en) Authentication method and authentication apparatus
US20200121175A1 (en) Image processing device, endoscope apparatus, and operating method of image processing device
US20080273762A1 (en) Image Determination Device, Image Determination Method, and Program
JP5534288B2 (en) Signal processing apparatus, method of operating signal processing apparatus, and program
JP4656388B2 (en) Authentication device, update time detection method and program
JP2012085083A (en) Image processing apparatus, image pickup device, and image processing program
JP2007011989A (en) Image processing apparatus, image processing method, and program
JP2009031004A (en) Potation determiner and program
JP2019220047A (en) Authentication device, authentication program, authentication method
KR20190001496A (en) Information processing apparatus, and program, method and system thereof
US20190362062A1 (en) Biometric authentication apparatus and biometric authentication method
JP2007133656A (en) Fingerprint matching device
KR20200080797A (en) an image processing system for varicose vein
JP2007018248A (en) Image processor, image processing method, and program
JP4645887B2 (en) Image processing apparatus, image processing method, and program
JP2004310396A (en) Image processing apparatus
JP2006227826A (en) Information generation device, information generation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412