JP2007018248A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2007018248A
JP2007018248A JP2005198951A JP2005198951A JP2007018248A JP 2007018248 A JP2007018248 A JP 2007018248A JP 2005198951 A JP2005198951 A JP 2005198951A JP 2005198951 A JP2005198951 A JP 2005198951A JP 2007018248 A JP2007018248 A JP 2007018248A
Authority
JP
Japan
Prior art keywords
pixel
image
living body
scanning direction
identification target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005198951A
Other languages
Japanese (ja)
Inventor
Sumio Morioka
澄夫 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005198951A priority Critical patent/JP2007018248A/en
Publication of JP2007018248A publication Critical patent/JP2007018248A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To propose an image processor, an image processing method and a program which can achieve speeding up. <P>SOLUTION: The image processor is provided with a detection means which detects a pixel which takes a local minimum for every pixel string corresponding to a scanning direction for images acquired as an imaging result of identification target comprising a living body. Consequently, since the identification target of a living body expressed in image can be grasped from the relation of mutual adjoining pixels in a pixel string, identification target of a living body can be extracted by scanning of a pixel string, without having to perform complicated functional operations. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関し、バイオメトリクス認証に適用して好適なものである。   The present invention relates to an image processing apparatus, an image processing method, and a program, and is suitable for application to biometric authentication.

従来、生体の指紋をバイオメトリクス認証の対象とした認証装置が数多く提案されているが、近年、生体における血管自体がバイオメトリクス認証の対象の1つとして着目されている。   Conventionally, many authentication apparatuses that use biometric fingerprints as targets for biometric authentication have been proposed, but in recent years, blood vessels in the living body have attracted attention as one of targets for biometric authentication.

具体的には、血管の撮像結果として得られる画像データに対してエッジ抽出処理を施すことによって血管を抽出し、モルフォロジーと呼ばれる線状化処理を実行することによって血管の中心を通る線を検出するようになされた装置が提案されている(例えば特許文献1参照)。
特開2001−70247号公報
Specifically, a blood vessel is extracted by performing an edge extraction process on image data obtained as a blood vessel imaging result, and a line passing through the center of the blood vessel is detected by executing a linearization process called morphology. An apparatus configured as described above has been proposed (see, for example, Patent Document 1).
JP 2001-70247 A

ところでかかる線状化処理においては、ある処理単位ごとに複雑な関数演算を要する結果、低速化が生じるといった問題があった。   By the way, in such linearization processing, there is a problem in that the speed is reduced as a result of requiring a complicated function operation for each processing unit.

本発明は以上の点を考慮してなされたもので、高速化し得る画像処理装置、画像処理方法及びプログラムを提案しようとするものである。   The present invention has been made in consideration of the above points, and intends to propose an image processing apparatus, an image processing method, and a program which can be speeded up.

かかる課題を解決するため本発明は、画像処理装置であって、生体に有する識別対象の撮像結果として得られる画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する検出手段を設けるようにした。   In order to solve such a problem, the present invention is an image processing apparatus that detects, from an image obtained as an imaging result of an identification target in a living body, a pixel having an extreme value for each pixel column corresponding to a scanning direction. Means were provided.

従って、この画像処理装置では、画素列における隣接する画素同士の関係から、画像に表わされる生体の識別対象を把握できるため、複雑な関数演算を施すことなく画素列の走査により生体の識別対象を抽出することができる。   Therefore, in this image processing apparatus, since the identification target of the living body represented in the image can be grasped from the relationship between adjacent pixels in the pixel array, the identification target of the living body is detected by scanning the pixel array without performing complicated function calculation. Can be extracted.

また本発明は、画像処理方法であって、生体に有する識別対象の撮像結果として得られる画像について、走査方向に対応する画素列ごとに、画素値を計測する第1のステップと、走査方向に対応する画素列ごとに計測される画素値に基づいて、当該画素列ごとに極値をとる画素を検出する第2のステップとを設けるようにした。   The present invention is also an image processing method, comprising: a first step of measuring a pixel value for each pixel column corresponding to a scanning direction for an image obtained as an imaging result of an identification target in a living body; Based on the pixel value measured for each corresponding pixel column, a second step of detecting a pixel having an extreme value for each pixel column is provided.

従ってこの画像処理方法では、画素列における隣接する画素同士の関係から、画像に表わされる生体の識別対象を把握できるため、複雑な関数演算を施すことなく画素列の走査により生体の識別対象を抽出することができる。   Therefore, in this image processing method, since the identification object of the living body represented in the image can be grasped from the relationship between adjacent pixels in the pixel array, the identification object of the living body is extracted by scanning the pixel array without performing a complicated function calculation. can do.

さらに本発明は、プログラムであって、生体に有する識別対象の撮像結果として得られる画像を処理する装置の制御を担うコンピュータに対して、当該画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する処理を実行させるようにした。   Furthermore, the present invention provides a program for a computer responsible for controlling an apparatus that processes an image obtained as an imaging result of an identification target in a living body, for each pixel column corresponding to the scanning direction. A process for detecting a pixel that takes a value was executed.

従ってこのプログラムでは、画素列における隣接する画素同士の関係から、画像に表わされる生体の識別対象を把握できるため、複雑な関数演算を施すことなく画素列の走査により生体の識別対象を抽出することができる。   Therefore, in this program, since the identification target of the living body represented in the image can be grasped from the relationship between adjacent pixels in the pixel array, the identification target of the living body is extracted by scanning the pixel array without performing a complicated function calculation. Can do.

本発明によれば、生体に有する識別対象の撮像結果として得られる画像について、画素列単位で、極値をとる画素を所定の方向から検出するようにしたことにより、画素列における隣接する画素同士の関係から、画像に表わされる生体の識別対象を把握できるため、複雑な関数演算を施すことなく画素列の走査により生体の識別対象を抽出することができ、かくして高速化し得る画像処理装置、画像処理方法及びプログラムを実現できる。   According to the present invention, for an image obtained as an imaging result of an identification target in a living body, pixels that take extreme values are detected from a predetermined direction in units of pixel columns. From this relationship, the identification target of the living body represented in the image can be grasped, so that the identification target of the living body can be extracted by scanning the pixel row without performing a complicated function calculation, and thus the image processing apparatus and image that can be speeded up A processing method and a program can be realized.

以下図面について、本発明を適用した実施の形態を詳述する。   Hereinafter, embodiments to which the present invention is applied will be described in detail with reference to the drawings.

(1)生体情報生成装置の構成
図1において、1は全体として本実施の形態による生体情報生成装置1を示し、生体の指に内在する血管を撮像する血管撮像部2と、当該撮像結果から生体を識別するためのデータ(以下、これを生体識別データと呼ぶ)を生成する情報生成部3とがケーブルを介して相互に接続されることにより構成される。
(1) Configuration of Biological Information Generating Device In FIG. 1, reference numeral 1 denotes the biometric information generating device 1 according to the present embodiment as a whole. An information generation unit 3 that generates data for identifying a living body (hereinafter referred to as biological identification data) is connected to each other via a cable.

(2)血管撮像部の構成
この血管撮像部2は、生体情報生成装置1の筺体1Aの所定位置に指FGを模るようにして形成された湾曲形状のガイド溝11を有し、当該ガイド溝11の底面には撮像開口部12が配設されている。
(2) Configuration of Blood Vessel Imaging Unit This blood vessel imaging unit 2 has a curved guide groove 11 formed so as to imitate a finger FG at a predetermined position of the housing 1A of the biological information generating device 1, and the guide An imaging opening 12 is disposed on the bottom surface of the groove 11.

撮像開口部12の表面には、所定材質でなる無色透明の開口カバー部13が設けられている一方、筺体1Aの内部における撮像開口部12の直下には、カメラ部14が配設されている。   A colorless and transparent opening cover portion 13 made of a predetermined material is provided on the surface of the imaging opening portion 12, while a camera portion 14 is disposed immediately below the imaging opening portion 12 inside the housing 1A. .

またガイド溝11の側面には、ヘモグロビンに対して特異的に吸収される近赤外光を血管の撮像光として照射する1対の近赤外光光源15(15A及び15B)が、ガイド溝11の短手方向と平行に撮像開口部12を挟み込むようにして配置されており、当該ガイド溝11に接触された指FGの指腹側部分に近赤外光を照射し得るようになされている。   Further, on the side surface of the guide groove 11, a pair of near-infrared light sources 15 (15 </ b> A and 15 </ b> B) that irradiate near-infrared light specifically absorbed with respect to hemoglobin as imaging light for blood vessels are provided on the guide groove 11. Is arranged so as to sandwich the imaging opening 12 in parallel with the short direction of the finger, and can be irradiated with near-infrared light on the finger pad side portion of the finger FG in contact with the guide groove 11. .

従ってこの血管撮像部2では、指FGの指腹底に近赤外光を照射する場合に比して、指FG表面で反射する近赤外光の割合が格段に抑えられる。また指FG表面を介してその内方に入射する近赤外光は、血管を通るヘモグロビンに吸収されると共に血管以外の組織において散乱するようにして指FG内方を経由し、当該指FGから血管を投影する近赤外光(以下、これを血管投影光と呼ぶ)として、撮像開口部12及び開口カバー部13を順次介してカメラ部14に入射する。   Therefore, in this blood vessel imaging unit 2, the ratio of near-infrared light reflected on the surface of the finger FG is remarkably suppressed as compared with the case where near-infrared light is irradiated on the finger pad base of the finger FG. Near-infrared light incident on the inside of the finger FG via the finger FG is absorbed by hemoglobin passing through the blood vessel and scattered in tissues other than the blood vessel through the inner side of the finger FG and from the finger FG. As near-infrared light for projecting blood vessels (hereinafter referred to as blood vessel projection light), the light enters the camera unit 14 via the imaging opening 12 and the opening cover 13 in sequence.

カメラ部14においては、マクロレンズ16と、酸素化及び脱酸素化双方のヘモグロビンに依存性の有する波長域(およそ900[nm]〜1000[nm])の近赤外光だけを透過する近赤外光透過フィルタ17と、CCD撮像素子18とが順次配設されており、開口カバー部13から入射する血管投影光をマクロレンズ16及び近赤外光透過フィルタ17を順次介してCCD撮像素子18の撮像面に導光する。これによりこのカメラ部14は、近接する指FGの内方に混在する静脈系及び動脈系双方の毛細血管を忠実に結像し得るようになされている。   In the camera unit 14, the macro lens 16 and near-red light that transmits only near-infrared light in a wavelength range (approximately 900 [nm] to 1000 [nm]) that depends on both oxygenation and deoxygenation hemoglobin. An external light transmission filter 17 and a CCD image sensor 18 are sequentially arranged, and blood vessel projection light incident from the opening cover 13 is sequentially passed through the macro lens 16 and the near-infrared light transmission filter 17 to the CCD image sensor 18. To the imaging surface. Thus, the camera unit 14 can faithfully image both venous and arterial capillaries mixed inside the adjacent finger FG.

CCD撮像素子18は、情報生成部3による制御のもとに、撮像面に結像される血管等を撮像し、当該撮像結果を画像信号として情報生成部3に出力するようになされている。   Under the control of the information generation unit 3, the CCD imaging device 18 images a blood vessel or the like that is imaged on the imaging surface, and outputs the imaging result to the information generation unit 3 as an image signal.

このようにしてこの血管撮像部2は、生体の指に内在する血管を撮像することができるようになされている。   In this way, the blood vessel imaging unit 2 is capable of imaging blood vessels existing in the finger of the living body.

(3)情報生成部の構成
一方、情報生成部3は、図2に示すように、制御部20に対して、血管撮像駆動部21と、画像処理部22とをそれぞれ接続することにより構成されている。
(3) Configuration of Information Generation Unit On the other hand, the information generation unit 3 is configured by connecting a blood vessel imaging drive unit 21 and an image processing unit 22 to the control unit 20 as shown in FIG. ing.

この制御部20は、生体情報生成装置1全体の制御を司るCPU(Central
Processing Unit)と、各種プログラムが格納されるROM(Read Only Memory)と、当該CPUのワークメモリとしてのRAM(Random Access Memory)とを含むコンピュータ構成でなり、当該制御部20には、各種命令が与えられる。
The control unit 20 is a CPU (Central Control Unit) that controls the entire biological information generating apparatus 1.
Processing unit), ROM (Read Only Memory) in which various programs are stored, and RAM (Random Access Memory) as work memory of the CPU. Given.

そして制御部20は、操作部(図示せず)から血管を抽出する旨の血管抽出命令COMが与えられた場合には、ROMに格納された対応するプログラムに基づいて、動作モードを血管抽出モードに遷移して血管撮像駆動部21及び画像処理部22をそれぞれ制御する。   When the blood vessel extraction command COM for extracting a blood vessel is given from the operation unit (not shown), the control unit 20 sets the operation mode to the blood vessel extraction mode based on the corresponding program stored in the ROM. Then, the blood vessel imaging driving unit 21 and the image processing unit 22 are controlled.

この場合、血管撮像駆動部21は、近赤外光光源15と、カメラ部14のCCD撮像素子18とをそれぞれ駆動するようにして血管撮像部2を起動する。この結果、血管撮像部2では、近赤外光光源15からこのときガイド溝11(図1)に接触される撮像者の指FG(図1)の指腹側部に近赤外光が照射され、当該指FG(図1)を経由してCCD撮像素子18の撮像面に導光される血管投影光がこのCCD撮像素子18から血管投影画像信号S1として画像処理部22に出力される。   In this case, the blood vessel imaging drive unit 21 activates the blood vessel imaging unit 2 so as to drive the near-infrared light source 15 and the CCD imaging device 18 of the camera unit 14 respectively. As a result, in the blood vessel imaging unit 2, near infrared light is irradiated from the near infrared light source 15 onto the finger pad side of the imager's finger FG (FIG. 1) that is in contact with the guide groove 11 (FIG. 1) at this time. Then, the blood vessel projection light guided to the imaging surface of the CCD image sensor 18 via the finger FG (FIG. 1) is output from the CCD image sensor 18 to the image processing unit 22 as a blood vessel projection image signal S1.

この画像処理部22は、図3に示すように、A/D(Analog/Digital)変換部31、平滑化処理部32及び中心線検出部33によって構成されており、CCD撮像素子18から供給される血管投影画像信号S1をA/D変換部31に入力する。   As shown in FIG. 3, the image processing unit 22 includes an A / D (Analog / Digital) conversion unit 31, a smoothing processing unit 32, and a center line detection unit 33, and is supplied from the CCD image sensor 18. The blood vessel projection image signal S 1 is input to the A / D conversion unit 31.

A/D変換部31は、血管投影画像信号S1に対してA/D変換処理を施し、この結果得られる血管投影画像データD1を平滑化処理部32に送出する。   The A / D conversion unit 31 performs A / D conversion processing on the blood vessel projection image signal S1 and sends the blood vessel projection image data D1 obtained as a result to the smoothing processing unit 32.

平滑化処理部32は、血管投影画像データD1に対して、当該画像内における所定の画素を着目画素としてある定められた順に平滑化処理を施す。具体的には、平滑化処理部32は、図4に示すように、画像IM内の着目画素NPを中心とする固定範囲FAR内における画素群の輝度平均値を算出する。   The smoothing processing unit 32 performs a smoothing process on the blood vessel projection image data D1 in a predetermined order with a predetermined pixel in the image as a target pixel. Specifically, as shown in FIG. 4, the smoothing processing unit 32 calculates the average luminance value of the pixel group within the fixed range FAR centered on the pixel of interest NP in the image IM.

ここで、この画素群の輝度平均値は、その値が高ければ高いほど固定範囲FAR内におけるノイズ成分が相対的に少ないことを表す。このため、着目画素NPを中心として比較的近傍の範囲をみるだけでも血管に相当する画素を特定することができる。これに対して画素群の輝度平均値が低ければ低いほど固定範囲FAR内におけるノイズ成分が相対的に少ないことを表す。このため、着目画素NPを中心として比較的近傍の範囲をみるだけでは血管に相当する画素の特定が困難となる。   Here, the luminance average value of this pixel group indicates that the higher the value, the relatively less noise component in the fixed range FAR. For this reason, it is possible to specify a pixel corresponding to a blood vessel only by looking at a relatively close range around the pixel of interest NP. On the other hand, the lower the average luminance value of the pixel group, the smaller the noise component in the fixed range FAR. For this reason, it is difficult to specify a pixel corresponding to a blood vessel only by looking at a relatively close range around the pixel of interest NP.

従って平滑化処理部32は、基準として予め設定された闘値未満となる輝度平均値を固定範囲FARにおいて得た場合には、当該NP着目画素を中心とする第1の平滑化対象範囲STAR1及びその第1の平滑化対象範囲STAR1よりも大きい第2の平滑化対象範囲STAR2のうち、第2の平滑化対象範囲STAR2を選択し、当該着目画素NPの輝度値を、第2の平滑化対象範囲STAR2内における画素群の輝度平均値に置き換える。   Accordingly, when the smoothing processing unit 32 obtains the luminance average value that is less than the threshold value set in advance as the reference in the fixed range FAR, the first smoothing target range STAR1 centered on the NP target pixel and The second smoothing target range STAR2 is selected from the second smoothing target range STAR2 that is larger than the first smoothing target range STAR1, and the luminance value of the target pixel NP is selected as the second smoothing target. Replace with the luminance average value of the pixel group in the range STAR2.

一方、平滑化処理部32は、闘値以上となる輝度平均値を固定範囲FARにおいて得た場合には、第2の平滑化対象範囲STAR2よりも小さい第1の平滑化対象範囲STAR1を選択し、当該着目画素NPの輝度値を、第1の平滑化対象範囲STAR1内における画素群の輝度平均値に置き換える。   On the other hand, the smoothing processing unit 32 selects the first smoothing target range STAR1 smaller than the second smoothing target range STAR2 when the luminance average value that is equal to or higher than the battle value is obtained in the fixed range FAR. Then, the luminance value of the target pixel NP is replaced with the average luminance value of the pixel group in the first smoothing target range STAR1.

このようにして平滑化処理部32は、画像IM内における所定の着目画素NPごとに、当該画素周辺の輝度に応じて平滑化対象範囲STARの大きさを切り換えると共に、着目画素NPの輝度値を、当該平滑化対象範囲STAR内の画素群の輝度平均値に置き換え、当該置き換えた画像をデータ(以下、これを平滑化血管投影画像データと呼ぶ)D2(図3)として中心線検出部33に送出するようになされている。   In this way, the smoothing processing unit 32 switches the size of the smoothing target range STAR according to the luminance around the pixel for each predetermined target pixel NP in the image IM, and sets the luminance value of the target pixel NP. Then, it replaces with the luminance average value of the pixel group in the smoothing target range STAR, and the centered line detection unit 33 uses the replaced image as data (hereinafter referred to as smoothed blood vessel projection image data) D2 (FIG. 3). It is made to send out.

この結果、平滑化処理部32は、画像IM内に有するノイズ成分を散在させるようにして除去できることとなる。   As a result, the smoothing processing unit 32 can remove the noise component included in the image IM so as to be scattered.

中心線検出部33は、平滑化血管投影画像データD2の画像について、走査方向に対応する画素列ごとに、極小値をとる画素(以下、これを極小画素と呼ぶ)を検出する。この実施の形態の場合、中心線検出部33は、図5(A)に示すように、水平の走査方向に対応する画素列HPL、HPL、……、HPLごとに、当該画素列における各画素(以下、これをライン画素群と呼ぶ)の輝度値を計測して極小画素を検出する。 The center line detection unit 33 detects a pixel having a minimum value (hereinafter referred to as a minimum pixel) for each pixel column corresponding to the scanning direction in the image of the smoothed blood vessel projection image data D2. In the case of this embodiment, as shown in FIG. 5A, the center line detection unit 33 performs the pixel column for each pixel column HPL 1 , HPL 2 ,..., HPL n corresponding to the horizontal scanning direction. The minimum pixel is detected by measuring the luminance value of each pixel (hereinafter referred to as a line pixel group).

また中心線検出部33は、図5(B)に示すように、水平の走査方向とは異なる例えば垂直の走査方向に対応する画素列PPL、PPL、……、PPLごとに、当該画素列における各画素(以下、これをライン画素群と呼ぶ)の輝度値を計測して極小画素を検出する。 Further, as shown in FIG. 5B, the center line detection unit 33 performs, for each pixel column PPL 1 , PPL 2 ,..., PPL n corresponding to, for example, a vertical scanning direction different from the horizontal scanning direction. The minimum pixel is detected by measuring the luminance value of each pixel in the pixel column (hereinafter referred to as a line pixel group).

ここで、例えば図6に示すように、平滑化血管投影画像データD2の画像IM内における血管BLの中心は、走査線上での輝度値の極小点になる。すなわち、ある画素列HPLにおけるライン画素群の極小画素MP1、MP2は、その画素列HPLと交わる血管BLの中心位置を表すことになる。   Here, for example, as shown in FIG. 6, the center of the blood vessel BL in the image IM of the smoothed blood vessel projection image data D2 is the minimum point of the luminance value on the scanning line. That is, the minimum pixels MP1 and MP2 of the line pixel group in a certain pixel column HPL represent the center position of the blood vessel BL intersecting with the pixel column HPL.

しかし、水平の走査方向の画素列HPLごとに極小画素を検出する場合、当該走査方向と同じ水平方向を向いた血管部分BLpについては、本来その血管部分BLpにおける中心に対応する全ての画素が極小画素として検出されるべきであるが、実際には、当該全ての画素のうち1つの画素だけしか極小画素MP1として検出されないといった状態(以下、これを極小画素とりこぼし状態と呼ぶ)が発生することになる。また、垂直の走査方向の画素列HPLごとに極小画素を検出する場合、当該走査方向と同じ垂直方向となる血管部分(図示せず)についても同様に、極小画素とりこぼし状態が発生することになる。   However, when detecting a minimum pixel for each pixel row HPL in the horizontal scanning direction, all the pixels originally corresponding to the center of the blood vessel portion BLp are minimum for the blood vessel portion BLp facing the same horizontal direction as the scanning direction. Although it should be detected as a pixel, in reality, only one pixel out of all the pixels is detected as a minimal pixel MP1 (hereinafter referred to as a minimal pixel missing state). become. In addition, when detecting a minimum pixel for each pixel row HPL in the vertical scanning direction, a minimum pixel missing state is similarly generated in a blood vessel portion (not shown) in the same vertical direction as the scanning direction. Become.

そこでこの中心線検出部33は、かかる検出結果として得た水平の走査方向の各画素列HPL〜HPLにおける極小画素の集合を単位とする一方、垂直の走査方向の各画素列PPL〜PPLにおける極小画素の集合を単位とし、これら集合同士を論理和により組み合わせ、当該論理和により組み合わせた極小画素のデータを生体識別データD3として制御部20に送出するようになされている。 Therefore, the center line detection unit 33 uses a set of minimal pixels in the pixel rows HPL 1 to HPL n in the horizontal scanning direction obtained as a detection result as a unit, while the pixel rows PPL 1 to PPL 1 in the vertical scanning direction. A set of minimum pixels in PPL n is used as a unit, these sets are combined by logical sum, and data of the minimum pixels combined by the logical sum is sent to the control unit 20 as biometric identification data D3.

これにより中心線検出部33は、互いの走査方向の画素列HPL、PPLにおける極小画素としての取りこぼしを補足することができ、この結果、極小画素とりこぼし状態を未然に防止できるようになされている。   As a result, the center line detection unit 33 can supplement the missing pixel as the minimum pixel in the pixel rows HPL and PPL in the scanning direction, and as a result, the minimum pixel missing state can be prevented in advance. .

制御部20は、かかる画像処理部22から生体識別データD3を受け取ると、この識別データD3を登録データとして内部若しくは外部に設けられた記録媒体(図示せず)に登録し、又は登録データとの比較対象として内部若しくは外部に設けられた照合器(図示せず)に送出すると共に、血管撮像駆動部21及び画像処理部22に対する制御を解除する。   When the control unit 20 receives the biometric identification data D3 from the image processing unit 22, the control unit 20 registers the identification data D3 as registration data in a recording medium (not shown) provided inside or outside, or exchanges the registration data with the registration data. The data is sent to a collator (not shown) provided inside or outside as a comparison target, and the control for the blood vessel imaging drive unit 21 and the image processing unit 22 is released.

このようにしてこの情報生成部3は、撮像結果から生体を識別するための生体識別データを生成することができるようになされている。   In this way, the information generating unit 3 can generate biometric identification data for identifying a biometric from the imaging result.

(4)動作及び効果
以上の構成において、この生体情報生成装置1は、生体に内在する血管の撮像結果として得られる画像について、走査方向に対応する画素列HPL(図5(A))、PPL(図5(B))ごとに、極小画素を検出する。
(4) Operation and Effect In the above configuration, the biological information generating apparatus 1 uses the pixel array HPL (FIG. 5A) and PPL corresponding to the scanning direction for an image obtained as an imaging result of blood vessels inherent in the living body. For each (FIG. 5B), a minimum pixel is detected.

従って、この生体情報生成装置1では、画素列における隣接する画素同士の関係から、画像に表される血管の中心位置を把握できるため、例えばモルフォロジー等の複雑なフィルタ演算を施すことなく画素列HPL、PPLの走査だけで血管の形成パターンを表す中心線を抽出することができ、かくして高速化を図ることができる。   Therefore, in this biological information generating apparatus 1, since the center position of the blood vessel represented in the image can be grasped from the relationship between adjacent pixels in the pixel row, the pixel row HPL can be performed without performing a complicated filter operation such as morphology, for example. The center line representing the blood vessel formation pattern can be extracted only by PPL scanning, and thus the speed can be increased.

またこの生体情報生成装置1は、第1の走査方向(水平の走査方向)に対応する画素列HPL〜HPLと、第2の走査方向(垂直の走査方向)に対応する画素列PPL〜PPLとの極小画素をそれぞれ検出し、当該画素列HPL〜HPLにおける極小画素及び画素列PPL〜PPLにおける極小画素同士を論理和により組み合わせる。 The biological information generating apparatus 1 also includes pixel columns HPL 1 to HPL n corresponding to the first scanning direction (horizontal scanning direction) and pixel column PPL 1 corresponding to the second scanning direction (vertical scanning direction). ˜PPL n are respectively detected, and the tiny pixels in the pixel columns HPL 1 to HPL n and the tiny pixels in the pixel rows PPL 1 to PPL n are combined by OR.

従って、この生体情報生成装置1では、図6で上述したように、互いの走査方向の画素列HPL、PPLにおける極小画素としての取りこぼしを補足することができるため、一段と正確に、血管の形成パターンを表す中心線を抽出することができる。このことは、図7に示すように、2つの走査方向に対応する各画素列の極小画素の論理和をとったときの画像(図7(A))と、1つの走査方向に対応する画素列の極小画素をとったときの画像(図7(B))とを視覚的に比較しても明らかである。   Therefore, in this biometric information generation device 1, as described above with reference to FIG. 6, it is possible to supplement the missing pixels as the minimum pixels in the pixel rows HPL and PPL in the scanning direction, so that the blood vessel formation pattern is more accurately performed. A center line representing can be extracted. As shown in FIG. 7, this is because an image (FIG. 7A) obtained by taking the logical sum of the minimum pixels of each pixel row corresponding to two scanning directions and a pixel corresponding to one scanning direction. It is also apparent from a visual comparison with the image (FIG. 7B) obtained when the minimum pixels in the column are taken.

さらに、この生体情報生成装置1は、かかる極小画素を検出する前に、血管の撮像結果として得られる画像を平滑化する。従って、この生体情報生成装置1では、ノイズに相当する画素を極小画素として検出することを回避することができるため、正確に、血管の形成パターンを表す中心線を抽出することができる。   Further, the biometric information generation device 1 smoothes an image obtained as a blood vessel imaging result before detecting such a minimum pixel. Therefore, in this biological information generating apparatus 1, since it is possible to avoid detecting pixels corresponding to noise as minimal pixels, it is possible to accurately extract a center line representing a blood vessel formation pattern.

さらにこの生体情報生成装置1は、かかる平滑化処理として、着画素NP(図4)周辺における大局的変化に応じて平滑化対象範囲STARの大きさを切り換えると共に、着画素NPの輝度値を、当該切り換えた平滑化対象範囲STAR内の画素群の輝度平均値に置き換えるといった手法を採用する。   Further, the biometric information generation device 1 switches the size of the smoothing target range STAR according to a global change around the destination pixel NP (FIG. 4) as the smoothing process, and changes the luminance value of the destination pixel NP. A method of replacing the luminance average value of the pixel group in the switched smoothing target range STAR is adopted.

従って、この生体情報生成装置1では、メディアンと呼ばれる平滑化処理を採用する場合に比して、処理単位ごとに中間値を検出するためのソート処理を施すといったことを回避することができるため、より高速化を図ることができる。   Therefore, in this biometric information generation device 1, it is possible to avoid performing sort processing for detecting intermediate values for each processing unit, compared to the case where smoothing processing called median is employed. Higher speed can be achieved.

実際上、平滑化対象範囲STARにおける大きさの具体的な切換手法として、この生体情報生成装置1は、着画素NP(図4)を中心とした固定範囲FAR内における画素群の輝度平均値が闘値未満となるときには、第1の平滑化対象範囲STAR1よりも大きい第2の平滑化対象範囲STAR2に切り換え、これに対して闘値以上となるときには、第2の平滑化対象範囲STAR2よりも小さい第1の平滑化対象範囲STAR1に切り換える。   Actually, as a specific switching method of the size in the smoothing target range STAR, the biological information generating apparatus 1 has an average luminance value of the pixel group in the fixed range FAR centered on the destination pixel NP (FIG. 4). When the threshold value is less than the threshold value, the second smoothing target range STAR2 that is larger than the first smoothing target range STAR1 is switched to, and when the threshold value is equal to or higher than the threshold value, the second smoothing target range STAR2 is exceeded. Switch to the smaller first smoothing target range STAR1.

従って、この生体情報生成装置1では、図8(A)に示すように、明るい部分は血管のディテールを損なわずに、暗い部分はノイズの影響を受けずに血管を表出しすることができる。なお、平滑化対象範囲STARの大きさを切り換えることなく単一の平滑化対象範囲のもとで平滑化を行った場合、カーネルサイズが小さい条件下では暗い部分についてノイズの影響を受けて血管を表出しすることができず(図8(B))、カーネルサイズが大きい条件下では明るい部分について血管のディテールを損なうこととなり(図8(C))、当該平滑化対象範囲STARの大きさを切り換えた場合(図8(A))と視覚的に比較してもその差は明らかであることが分かる。   Therefore, in this biometric information generation device 1, as shown in FIG. 8A, the bright part can expose the blood vessel without damaging the detail of the blood vessel, and the dark part is not affected by noise. In addition, when smoothing is performed under a single smoothing target range without switching the size of the smoothing target range STAR, the blood vessel is affected by noise in a dark portion under a condition where the kernel size is small. It cannot be expressed (FIG. 8 (B)), and under the condition where the kernel size is large, the detail of the blood vessel is impaired in the bright part (FIG. 8 (C)), and the size of the smoothing target range STAR is set. It can be seen that the difference is clear even when visually compared with the case of switching (FIG. 8A).

以上の構成によれば、生体に内在する血管の撮像結果として得られる画像について、走査方向に対応する画素列ごとに極小画素を検出するようにしたことにより、画素列における隣接する画素同士の関係から、画像に表される血管の中心位置を把握できるため、例えばモルフォロジー等の複雑なフィルタ演算を施すことなく画素列の走査だけで血管の形成パターンを表す中心線を抽出することができ、かくして高速化し得る生体情報生成装置1を実現できる。   According to the above configuration, since an extremely small pixel is detected for each pixel column corresponding to the scanning direction in an image obtained as a result of imaging a blood vessel existing in the living body, the relationship between adjacent pixels in the pixel column is detected. From this, the center position of the blood vessel represented in the image can be grasped, so that the center line representing the blood vessel formation pattern can be extracted only by scanning the pixel row without performing a complicated filter operation such as morphology. The biological information generating apparatus 1 that can be speeded up can be realized.

(5)他の実施の形態
なお上述の実施の形態においては、識別対象として、生体に内在する血管を適用するようにした場合について述べたが、本発明はこれに限らず、紋様と呼ばれる紙の模様や、生体に表在する指紋、耳若しくは顔又は生体に内在する神経等を適用するようにしても良い。要は、その用途等に応じて適応的に識別対象を選択することができる。因みに、神経を認証対象とする場合には、例えば神経に特異的なマーカを体内に注入し、当該マーカを撮像するようにすれば、上述の実施の形態と同様にして神経を識別対象とすることができる。なお、かかる識別対象のうち、紋様、血管及び指紋等の網状の識別対象を適用するようにすれば、本発明の効果が顕著に発揮される。
(5) Other Embodiments In the above-described embodiment, the case where a blood vessel inherent in a living body is applied as an identification target has been described. However, the present invention is not limited to this, and paper called a pattern is used. Such a pattern, a fingerprint that appears in the living body, an ear or a face, or a nerve that is inherent in the living body may be applied. In short, the identification target can be selected adaptively according to its application. By the way, when a nerve is an authentication target, for example, if a marker specific to the nerve is injected into the body and the marker is imaged, the nerve is an identification target in the same manner as in the above-described embodiment. be able to. Of the identification objects, if the net-shaped identification objects such as patterns, blood vessels, and fingerprints are applied, the effects of the present invention are remarkably exhibited.

また、かかる識別対象の範囲として、生体部位の一部となる指を適用するようにしたが、本発明はこれに限らず、掌、腕、眼底又は足指等の種々の生体部位を適用するようにしても良く、生体全体を適用するようにしても良い。また識別対象が生体でない場合であってもその識別対象の全体又は一部を範囲とすることができる。   In addition, as a range of the identification target, a finger that is a part of a living body part is applied. Alternatively, the whole living body may be applied. Even if the identification target is not a living body, the whole or a part of the identification target can be set as a range.

さらに、かかる識別対象を撮像する撮像手段として、図1に示す構成のものを適用するようにしたが、本発明はこれに限らず、その用途や識別対象の種類等に応じて、種々の構成のものを幅広く適用することができる。   Further, as the imaging means for imaging the identification target, the configuration shown in FIG. 1 is applied. However, the present invention is not limited to this, and various configurations are possible depending on the application, type of identification target, and the like. Can be widely applied.

また上述の実施の形態においては、撮像画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する検出手段として、2つの走査方向(水平の走査方向及び垂直の走査方向)に対応する画素列ごとに極小画素を検出するようにした場合について述べたが、本発明はこれに限らず、1つの走査方向に対応する画素列ごとに極小画素を検出するようにしても良く、3以上の走査方向に対応する画素列ごとに極小画素を検出するようにしても良い。   In the above-described embodiment, two scanning directions (horizontal scanning direction and vertical scanning direction) are used as detection means for detecting a pixel having an extreme value for each pixel column corresponding to the scanning direction in the captured image. Although the case where the minimum pixel is detected for each pixel column corresponding to the above has been described, the present invention is not limited to this, and the minimum pixel may be detected for each pixel column corresponding to one scanning direction. You may make it detect a minimum pixel for every pixel row corresponding to three or more scanning directions.

また、走査方向として、水平の走査方向及び垂直の走査方向を適用するようにしたが、本発明はこれに限らず、画像を中心とする360[°]いずれの走査方向であってもこれを選択することができる。なお、例えば生体部位を指とする血管又は指紋が識別対象である場合に、CCD撮像素子18に結像される生体部位(指)の指差し方向及びそれとは逆方向となる長手方向と鈍角未満の角度をなす方向、より好ましくは45[°]若しくは135[°]又はその前後の角度をなす方向に選定すれば、主に長手方向に走る血管の形成パターンを表す中心線をより精度よく抽出できる。   Further, the horizontal scanning direction and the vertical scanning direction are applied as the scanning directions. However, the present invention is not limited to this, and any scanning direction of 360 [°] centering on the image is applicable. You can choose. For example, when a blood vessel or a fingerprint having a living body part as a finger is an identification target, the pointing direction of the living body part (finger) imaged on the CCD image sensor 18 and the longitudinal direction opposite to the pointing direction are less than an obtuse angle. The center line representing the formation pattern of blood vessels that run mainly in the longitudinal direction can be extracted with higher accuracy by selecting a direction that forms an angle of λ, more preferably 45 [°] or 135 [°], or a direction that forms an angle before and after that. it can.

さらに、極小画素の検出指標として、輝度値を適用するようにしたが、本発明はこれに限らず、例えば色差値等、この他種々の画素値を検出指標とすることができる。なお、撮像手法や識別対象の種類によっては、撮像画像に有する識別対象に相当する画素が黒く、それ以外の背景に相当する画素が白くなる場合もあるため、この場合には、極大値をとる画素を検出することができる。   Further, although the luminance value is applied as the detection index of the minimum pixel, the present invention is not limited to this, and various other pixel values such as a color difference value can be used as the detection index. Note that depending on the imaging method and the type of identification target, the pixel corresponding to the identification target in the captured image may be black and the other pixels corresponding to the background may be white. In this case, the maximum value is obtained. Pixels can be detected.

さらに上述の実施の形態においては、画像を平滑化する平滑化手段として、固定範囲FARにおける画素群の輝度平均値に応じて平滑化対象範囲STAR1又はSTAR2を選択し、当該着画素NP(図4)の輝度値を、選択した平滑化対象範囲STAR内の画素群の輝度平均値に置き換えるようにした場合について述べたが、本発明はこれに限らず、当該固定範囲FAR及び又は平滑化対象範囲STARにおける輝度平均値を、例えば輝度中間値や最低輝度値等に変更するようにしても良い。このようにしても上述の実施の形態と同様の効果を得ることができる。   Further, in the above-described embodiment, as the smoothing means for smoothing the image, the smoothing target range STAR1 or STAR2 is selected according to the luminance average value of the pixel group in the fixed range FAR, and the destination pixel NP (FIG. 4) is selected. ) Is replaced with the average luminance value of the pixel group in the selected smoothing target range STAR. However, the present invention is not limited to this, and the fixed range FAR and / or the smoothing target range. The average luminance value in the STAR may be changed to, for example, an intermediate luminance value or a minimum luminance value. Even if it does in this way, the effect similar to the above-mentioned embodiment can be acquired.

また、平滑化対象範囲STARの大きさを切り換えるための指標として、固定範囲FAR内の画素群のうち着目画素NPを除いた状態の輝度平均値を採用するようにしても良い。このようにすれば、着目画素NP自体がノイズであることに起因して、平滑化対象範囲STARの誤選択を回避することができるため、より適切に血管に相当する画素を特定することができる。   Further, as an index for switching the size of the smoothing target range STAR, a luminance average value in a state where the target pixel NP is excluded from the pixel group in the fixed range FAR may be employed. By doing this, it is possible to avoid erroneous selection of the smoothing target range STAR due to the pixel of interest NP itself being noise, and thus it is possible to more appropriately identify pixels corresponding to blood vessels. .

さらに、かかる上述の実施の形態の平滑化手段に代えて、メディアンフィルタ等、通常一般的に用いられる平滑化手段を適用するようにしても良い。   Furthermore, instead of the smoothing means of the above-described embodiment, a generally commonly used smoothing means such as a median filter may be applied.

さらに上述の実施の形態においては、同一の走査方向に対応する各画素列で検出された極小値をとる画素の集合を単位とし、当該単位とした集合同士を組み合わせる組合手段として、第1の走査方向(水平の走査方向)に対応する画素列HPL〜HPLの極小画素、及び、第2の走査方向(垂直の走査方向)に対応する画素列PPL〜PPLの極小画素同士を論理和により組み合わせるようにした場合について述べたが、本発明はこれに限らず、当該極小画素同士の合算の有無をその輝度値も加味して決定する等、種々の組み合わせルールに従って組み合わせることができる。 Further, in the above-described embodiment, the first scanning is performed as a combination means for combining a set of pixels having the minimum value detected in each pixel column corresponding to the same scanning direction as a unit and combining the sets based on the unit. The minimum pixels of the pixel columns HPL 1 to HPL n corresponding to the direction (horizontal scanning direction) and the minimum pixels of the pixel columns PPL 1 to PPL n corresponding to the second scanning direction (vertical scanning direction) are logically calculated. Although the case of combining by sum has been described, the present invention is not limited to this, and can be combined according to various combination rules, such as determining whether or not the minimum pixels are added together with the luminance value.

さらに上述の実施の形態においては画像処理部22をハードウェア的に動作するようにした場合について述べたが、本発明はこれに限らず、当該画像処理部22における平滑化処理部32及び中心線検出部33の各種処理を実行させるプログラムによりソフトウェア的に動作させるようにしても良い。   Furthermore, in the above-described embodiment, the case where the image processing unit 22 is operated in hardware has been described. However, the present invention is not limited to this, and the smoothing processing unit 32 and the center line in the image processing unit 22 are not limited thereto. You may make it operate | move like software with the program which performs the various processes of the detection part 33. FIG.

本発明は、生体を識別する技術を用いる分野に利用可能である。   The present invention can be used in a field using a technique for identifying a living body.

本実施の形態による生体情報生成装置の全体構成を示す略線図である。It is a basic diagram which shows the whole structure of the biometric information generation apparatus by this Embodiment. 情報生成部の構成を示すブロック図である。It is a block diagram which shows the structure of an information generation part. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 平滑化対象範囲の切り換えの説明に供する略線図である。It is a basic diagram with which it uses for description of switching of the smoothing object range. 極小画素の検出の説明に供する略線図である。It is an approximate line figure used for explanation of detection of a minimum pixel. 極小画素と、血管の中心位置との関係の説明に供する略線図である。It is a basic diagram with which it uses for description of the relationship between a minimum pixel and the center position of the blood vessel. 平滑化処理結果の画像を示す略線図である。It is a basic diagram which shows the image of a smoothing process result. 中心線検出処理結果の画像を示す略線図である。It is a basic diagram which shows the image of a centerline detection process result.

符号の説明Explanation of symbols

1……生体情報生成装置、2……血管撮像部、3……情報生成部、14……カメラ部、15A、15B……近赤外光光源、16……マクロレンズ、17……近赤外光透過フィルタ、18……CCD撮像素子、20……制御部、21……血管撮像駆動部、22……画像処理部、31……A/D変換部、32……平滑化処理部、33……中心線検出部、COM……命令、S1……血管投影画像信号、D1……血管投影画像データ、D2……平滑化血管投影画像データ、D3……生体識別データ、FAR……固定領域、STAR1、STAR2……平滑化対象領域、NP……着目画素、画素列……HPL、PPL、MP1、MP2……極小値。   DESCRIPTION OF SYMBOLS 1 ... Living body information generation apparatus, 2 ... Blood vessel imaging part, 3 ... Information generation part, 14 ... Camera part, 15A, 15B ... Near infrared light source, 16 ... Macro lens, 17 ... Near red External light transmission filter, 18 ... CCD image sensor, 20 ... control unit, 21 ... blood vessel imaging drive unit, 22 ... image processing unit, 31 ... A / D conversion unit, 32 ... smoothing processing unit, 33... Centerline detection unit, COM... Command, S1... Blood vessel projection image signal, D1... Blood vessel projection image data, D2 ... smoothed blood vessel projection image data, D3. Region, STAR1, STAR2 ... smoothing target region, NP ... pixel of interest, pixel column ... HPL, PPL, MP1, MP2 ... local minimum.

Claims (9)

識別対象の撮像結果として得られる画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する検出手段
を具えることを特徴とする画像処理装置。
An image processing apparatus comprising: a detection unit configured to detect a pixel having an extreme value for each pixel row corresponding to a scanning direction of an image obtained as an imaging result of an identification target.
生体における識別対象の撮像結果として得られる画像を平滑化する平滑化手段
をさらに具え、
上記検出手段は、
上記平滑化手段により平滑化された画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する
ことを特徴とする請求項1に記載の画像処理装置。
A smoothing means for smoothing an image obtained as an imaging result of the identification target in a living body;
The detecting means is
2. The image processing apparatus according to claim 1, wherein, in the image smoothed by the smoothing unit, a pixel having an extreme value is detected for each pixel row corresponding to a scanning direction.
上記検出手段は、
複数の走査方向に対応する画素列ごとに、上記極値をとる画素を検出し、
同一の上記走査方向に対応する各上記画素列で検出された上記極値をとる画素の集合を単位とし、当該単位とした上記集合同士を組み合わせる組合手段
をさらに具えることを特徴とする請求項1に記載の画像処理装置。
The detecting means is
For each pixel column corresponding to a plurality of scanning directions, a pixel having the above extreme value is detected,
The apparatus further comprises a combination means for combining a set of pixels having the extreme value detected in each pixel row corresponding to the same scanning direction as a unit and combining the sets with the unit. The image processing apparatus according to 1.
上記組合手段は、
上記集合同士を論理和により組み合わせる
ことを特徴とする請求項1に記載の画像処理装置。
The union means
The image processing apparatus according to claim 1, wherein the sets are combined by logical sum.
上記識別対象は、生体における識別対象である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the identification target is an identification target in a living body.
上記識別対象は、網状の識別対象である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the identification target is a net-like identification target.
上記方向は、撮像素子に結像される生体部位の長手方向と45[°]若しくは135[°]又はその前後をなす方向である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the direction is a direction that forms 45 [°] or 135 [°] with the longitudinal direction of the living body imaged on the image sensor, or a front and rear thereof.
生体に有する識別対象の撮像結果として得られる画像について、走査方向に対応する画素列ごとに、画素値を計測する第1のステップと、
上記走査方向に対応する画素列ごとに計測される上記画素値に基づいて、当該画素列ごとに極値をとる画素を検出する第2のステップと
を具えることを特徴とする画像処理方法。
A first step of measuring a pixel value for each pixel column corresponding to a scanning direction for an image obtained as an imaging result of an identification target in a living body;
And a second step of detecting a pixel having an extreme value for each pixel row based on the pixel value measured for each pixel row corresponding to the scanning direction.
生体に有する識別対象の撮像結果として得られる画像を処理する装置の制御を担うコンピュータに対して、
上記画像について、走査方向に対応する画素列ごとに、極値をとる画素を検出する処理
を実行させることを特徴とするプログラム。
For a computer responsible for controlling an apparatus that processes an image obtained as an imaging result of an identification target in a living body,
A program for executing a process for detecting a pixel having an extreme value for each pixel row corresponding to a scanning direction for the image.
JP2005198951A 2005-07-07 2005-07-07 Image processor, image processing method, and program Pending JP2007018248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005198951A JP2007018248A (en) 2005-07-07 2005-07-07 Image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005198951A JP2007018248A (en) 2005-07-07 2005-07-07 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2007018248A true JP2007018248A (en) 2007-01-25

Family

ID=37755372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005198951A Pending JP2007018248A (en) 2005-07-07 2005-07-07 Image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2007018248A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6225391A (en) * 1985-07-25 1987-02-03 Matsushita Electric Works Ltd Image processing method
JPS63193282A (en) * 1987-02-06 1988-08-10 Fujitsu Ltd Contour extraction system
JPH02271243A (en) * 1989-04-13 1990-11-06 Mitsubishi Electric Corp Flaw detection and apparatus therefor
JPH05167927A (en) * 1991-12-12 1993-07-02 Toshiba Corp Image processor
JPH0933216A (en) * 1995-07-24 1997-02-07 Mitsubishi Electric Corp Image processor carried on vehicle
JPH11239363A (en) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> Device for extracting character area in video image, its method and medium for recording its method
JP2000194851A (en) * 1998-12-24 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> Character area extraction method and device and storage medium recording the method
JP2003331272A (en) * 2002-05-13 2003-11-21 Sony Corp Method and device for authenticating
JP2003331268A (en) * 2002-05-13 2003-11-21 Hitachi Ltd Biometrics device and program for implementing the same
JP2006047077A (en) * 2004-08-04 2006-02-16 Seiko Epson Corp Method and device for detecting line defects of screen

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6225391A (en) * 1985-07-25 1987-02-03 Matsushita Electric Works Ltd Image processing method
JPS63193282A (en) * 1987-02-06 1988-08-10 Fujitsu Ltd Contour extraction system
JPH02271243A (en) * 1989-04-13 1990-11-06 Mitsubishi Electric Corp Flaw detection and apparatus therefor
JPH05167927A (en) * 1991-12-12 1993-07-02 Toshiba Corp Image processor
JPH0933216A (en) * 1995-07-24 1997-02-07 Mitsubishi Electric Corp Image processor carried on vehicle
JPH11239363A (en) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> Device for extracting character area in video image, its method and medium for recording its method
JP2000194851A (en) * 1998-12-24 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> Character area extraction method and device and storage medium recording the method
JP2003331272A (en) * 2002-05-13 2003-11-21 Sony Corp Method and device for authenticating
JP2003331268A (en) * 2002-05-13 2003-11-21 Hitachi Ltd Biometrics device and program for implementing the same
JP2006047077A (en) * 2004-08-04 2006-02-16 Seiko Epson Corp Method and device for detecting line defects of screen

Similar Documents

Publication Publication Date Title
US11734951B2 (en) Fake-finger determination device, fake-finger determination method, and fake-finger determination program
US9165178B2 (en) Determination device, fingerprint input device, determination method and determination program for detecting the forgery of a finger
US8241122B2 (en) Image processing method and input interface apparatus
US20180211138A1 (en) Information processing device, information processing method, and storage medium
JP6607755B2 (en) Biological imaging apparatus and biological imaging method
US20080284980A1 (en) Eye Tracker Having an Extended Span of Operating Distances
US20070263906A1 (en) Personal Identification Method by Subcutaneous Bloodstream Measurement and Personal Identification Device
JP4783331B2 (en) Face recognition device
JP2006072764A (en) Information processor
GB2385418A (en) Three dimensional relative movement sensing
JP6894977B2 (en) Drug test support device, drug test support method, drug identification device, drug identification method and program, recording medium
WO2019163066A1 (en) Impersonation detection device, impersonation detection method, and computer-readable storage medium
US10650225B2 (en) Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus
JP4802121B2 (en) Biometric authentication device and authentication method using biometric authentication device
WO2010041731A1 (en) Collating device, collating method, and program
JP2008211514A (en) Image discriminating device and method, and program
JP2009031004A (en) Potation determiner and program
JP2010237976A (en) Light source information obtaining device, shading detection device, shading removal device, and those methods and programs
US20180374211A1 (en) Information processing apparatus, and program, method and system thereof
JP2007018248A (en) Image processor, image processing method, and program
JP5056662B2 (en) Subcutaneous pattern acquisition device, subcutaneous pattern acquisition method, and structure template
JP6898150B2 (en) Pore detection method and pore detection device
JP2017204757A (en) Subject tracking device and program
JP2021015489A (en) Image analysis device, image analysis system, image analysis method and image analysis program
JP2017012384A (en) Wrinkle state analysis device and wrinkle state analysis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426