WO2008099963A1 - 物体形状生成方法、物体形状生成装置及びプログラム - Google Patents

物体形状生成方法、物体形状生成装置及びプログラム Download PDF

Info

Publication number
WO2008099963A1
WO2008099963A1 PCT/JP2008/052908 JP2008052908W WO2008099963A1 WO 2008099963 A1 WO2008099963 A1 WO 2008099963A1 JP 2008052908 W JP2008052908 W JP 2008052908W WO 2008099963 A1 WO2008099963 A1 WO 2008099963A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projection
projected
blood vessel
space
Prior art date
Application number
PCT/JP2008/052908
Other languages
English (en)
French (fr)
Inventor
Hiroshi Abe
Abdul Muquit Mohammad
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2008800053389A priority Critical patent/CN101617338B/zh
Priority to US12/527,290 priority patent/US8780116B2/en
Priority to EP08711697.6A priority patent/EP2120206A4/en
Priority to KR1020097016961A priority patent/KR20090110348A/ko
Publication of WO2008099963A1 publication Critical patent/WO2008099963A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to an object shape generation method, an object shape generation apparatus, and a program, and is suitable for application to, for example, biometric authentication.
  • Background art
  • Biometrics authentication is a technique for identifying whether or not the person is the person using the identification target of the living body.
  • One of the living body identification targets is the finger blood vessel.
  • Patent Literature 1 Patent 2 0 0 2 _ 1 7 5 5 2 9 Publication.
  • a view volume intersection method Shape From Silhouette method. This visual volume intersection method is based on the image of the object in multiple viewpoints and the position information of the camera, etc., by leaving the area where all of the Sylettes in each image intersect in the target space as the object area, The shape is generated.
  • the part other than the blood vessels in the living body is not hollow and is blocked by each tissue such as fat.
  • each tissue such as fat.
  • the blood vessel portion on the back surface that is not projected on the imaging surface does not remain as an object region because not all of the Sylettes in each image intersect in the target space.
  • the blood vessel portion on the back surface that is not projected on the imaging surface does not remain as an object region because not all of the Sylettes in each image intersect in the target space.
  • the present invention has been made in consideration of the above points, and an object shape generation device and an object that can generate the shape of an object with high accuracy even in a situation where the back side of the object cannot be imaged. I would like to propose a shape generation method and program.
  • the present invention provides an object shape generation method in which, for each of a plurality of images captured from around the object, an object projected on the image is projected from the viewpoint position of the image onto the projection space.
  • the first step of detecting the projection areas projected to the projection plane separated from the projection surface in the projection space by a specified length in the depth direction is common to the detected projection areas.
  • a second step for extracting the part is provided.
  • the present invention is also an object shape generation device having a work memory and an image processing unit that executes image processing in the work memory, the image processing unit for each of a plurality of images captured from around the object.
  • image processing unit executes image processing in the work memory, the image processing unit for each of a plurality of images captured from around the object.
  • the present invention is a program that projects an object projected on an image from a viewpoint position of an image onto a projection space for each of a plurality of images captured from around the object to a control unit that controls a work memory. If the projection sky To detect each projection area projected to a projection plane that is separated by a specified length in the depth direction from the projection surface between them, and to extract a common part of each detected projection area did.
  • the common part of the shot region projected to the deepest part of the projection space is not extracted as a three-dimensional image of the blood vessel, but only a specified length in the depth direction from the projection surface in the projection space.
  • the visual volume can be extracted by focusing on the object surface part to be imaged.
  • FIG. 1 is a schematic diagram of (A) the imaging direction side (the front side of the object) and (B) the opposite side of the imaging direction (the back side of the object) for explaining the problems in the visual volume intersection method.
  • FIG. 2 is a block diagram showing a configuration of the authentication apparatus according to the present embodiment.
  • Fig. 3 is a schematic diagram showing the state transition of a rotating finger.
  • FIG. 4 is a schematic diagram showing the relationship between the imaging surface and the blood vessels in the image.
  • FIG. 5 is a block diagram showing a functional configuration of the control unit.
  • FIG. 6 is a schematic diagram for explaining the calculation of the rotation correction amount.
  • Figure 7 is a schematic diagram showing the images before and after embossing.
  • FIG. 8 is a schematic diagram for explaining the motion amount calculation processing.
  • FIG. 9 is a schematic diagram showing the luminance state of the blood vessel in the image after the relief processing.
  • FIG. 10 is a schematic diagram showing luminance state transition in the blood vessel extraction processing.
  • FIG. 11 is a schematic diagram for explaining the uniformization of the luminance state.
  • Fig. 12 is a schematic diagram showing the poxel space.
  • Figure 13 is a flowchart showing the object shape generation processing procedure.
  • FIG. 14 is a schematic diagram for explaining the detection of the siltet region (1).
  • FIG. 15 is a schematic diagram for explaining the arrangement relationship of each image arranged around the poxel space.
  • FIG. 16 is a schematic diagram for explaining the detection of the silt region (2).
  • Fig. 17 is a schematic diagram showing the extracted state of the silt region.
  • FIG. 2 shows the overall configuration of authentication apparatus 1 according to the present embodiment.
  • This authentication device 1 connects an operation unit 11, an imaging unit 12, a memory 13, an interface 14, and a notification unit 15 to the control unit 10 via the bus 16. Consists of.
  • the control unit 10 includes a central processing unit (CPU) that controls the entire authentication device 1, a read only memory (R 0 M) that stores various programs and setting information, and the work memory of the CPU. It is configured as a computer that includes R AM. (Random Access Memory).
  • CPU central processing unit
  • R 0 M read only memory
  • R AM Random Access Memory
  • execution command C OM 1 of the user to be registered (hereinafter referred to as a registrant) or a registrant himself or herself is registered.
  • Execution command COM2 for a mode for determining the presence or absence of this (hereinafter referred to as the authentication mode) is given from the operation unit 11 in response to a user operation.
  • the control unit 10 determines a mode to be executed based on the execution instructions COM1 and COM2, and based on a program corresponding to the determination result, the imaging unit 12, the memory 13 and the interface
  • the device 14 and the notification unit 15 are appropriately controlled to execute the blood vessel registration mode or the authentication mode.
  • the imaging unit 12 is based on the lens position in the optical system, the aperture value of the aperture, and the shirt speed of the imaging element ( Adjust the exposure time.
  • the imaging unit 12 performs A / D (Analog / Digital) conversion on the image signal sequentially output from the imaging device at a predetermined cycle as an imaging result of the imaging device, and the image data obtained as a result of the conversion is converted.
  • a / D Analog / Digital
  • the imaging unit 12 drives the near-infrared light source during the period specified by the control unit 10 and is specific to the blood vessel at the position specified as the imaging target (hereinafter referred to as the imaging position). Is irradiated with near-infrared light that is absorbed.
  • the memory 13 is, for example, a flash memory, and stores or reads data specified by the control unit 10.
  • the interface 14 exchanges various data with an external device connected via a predetermined transmission line.
  • the notification unit 15 is composed of a display unit 15 a and a voice output unit 15 b.
  • the display unit 15 5 a displays the contents based on the display data given from the control unit 10 by characters and shapes. Display on the display screen.
  • the audio output unit 15 b is configured to output audio based on audio data given from the control unit 10 from a speaker.
  • the control unit 10 When the blood vessel registration mode is determined as the mode to be executed, the control unit 10 must change the operation mode to the blood vessel registration mode and rotate the finger along the curved surface of the finger pad at the imaging position. Notifying through the notification unit 15 and operating the imaging unit 12.
  • the control unit 10 generates a stereoscopic image of the blood vessel from the images sequentially given from the imaging unit 12 as an imaging result of the imaging unit 12, and represents a value representing the shape of the stereoscopic image of the blood vessel (hereinafter referred to as this). This is registered as data to be registered (hereinafter referred to as “registration data”) by storing it in the memory 13.
  • control unit 10 can execute the blood vessel registration mode.
  • control unit 10 determines the authentication mode as the mode to be executed, the control unit 10 changes the operation mode to the authentication mode, and notifies that the finger must be rotated along the curved surface of the finger pad at the imaging position. Notification is made via the unit 15 and the imaging unit 12 is operated.
  • the control unit 10 generates a three-dimensional image of the blood vessel from the images sequentially given from the imaging unit 12 as an imaging result in the imaging unit 12 in the same manner as the blood vessel registration mode, and determines the blood vessel shape value of the blood vessel. Extract. Then, the control unit 10 collates the extracted blood vessel shape value with the blood vessel shape value stored in the memory 13 as registration data, and determines whether or not it can be approved by the registrant from the collation result. It is made to do.
  • the control unit 10 if it is determined that the user cannot be approved as a registrant, the control unit 10 notifies the user visually and audibly through the display unit 15 a and the audio output unit 15 b. On the other hand, it can be approved with the registrant.
  • the control unit 10 sends a message indicating approval with the registrant to the device connected to the interface 14.
  • data indicating that the user has been approved as a trigger is used as a trigger, for example, a predetermined process to be executed when authentication is successful, such as locking the door for a certain period of time or releasing the restricted operation mode. Is done.
  • control unit 10 can execute the authentication mode.
  • This process can be functionally divided into an image rotation unit 21, a blood vessel extraction unit 22, a motion amount calculation unit 23, and a 3D image generation unit 24 as shown in FIG.
  • the image rotation unit 21, the blood vessel extraction unit 2 2, the motion amount calculation unit 23 and the 3D image generation unit 24 will be described in detail.
  • the image rotation unit 21 corrects the rotation of the multi-viewpoint image so that the direction of the finger displayed in the image becomes the reference direction.
  • the image rotation unit 21 arranges an optical film that transmits only visible light at a predetermined position on the optical axis at intervals different from the imaging cycle, and images the finger as an imaging target (hereinafter referred to as the finger image). Are acquired at predetermined intervals with respect to an image whose blood vessel is an imaging target (hereinafter referred to as a blood vessel image).
  • the blood vessel image is an image formed on the image sensor using near infrared light as imaging light
  • the finger image is an image formed on the image sensor using visible light as imaging light.
  • the image rotation unit 21 acquires a finger image (FIG. 6 (A)), extracts a finger region displayed on the finger image (FIG. 6 (B)), Extract points that make up the finger contour (hereinafter referred to as finger contour points) (Fig. 6 (C)).
  • the image rotation unit 21 also weights the points corresponding to the horizontal contour line among the finger contour points as points constituting the finger joints (hereinafter referred to as finger joint points) by .Hough transformation or the like.
  • finger joint points points constituting the finger joints
  • .Hough transformation or the like By extracting (FIG. 6 (D)), the joint line (hereinafter referred to as the joint line) JNL is identified from the “finger joint point” (FIG. 6 (E)).
  • the image rotation unit 21 obtains an angle 0 x formed from the joint line JNL with respect to the line LN in the column direction in the image as a rotation correction amount of the blood vessel image (FIG. 6 (E)), and the rotation correction amount Accordingly, each blood vessel image captured until the next finger image is acquired is rotationally corrected.
  • the longitudinal direction of the fingers displayed in the blood vessel image is aligned with the row direction of the image.
  • the image rotation unit 21 performs image rotation processing on the image data sequentially input from the imaging unit 12 as a multi-viewpoint blood vessel image continuously captured along the circumference of the finger.
  • the image data obtained as a result of the processing is sent to the blood vessel extraction unit 22.
  • the blood vessel extraction unit 22 extracts a blood vessel portion displayed in the blood vessel image. An example of the extraction method in the blood vessel extraction unit 22 will be described.
  • the blood vessel extraction unit 2 2 uses the relief unit 2 2 A to create a relief using a differential filter such as a Gaussian fill or a log fill for the image input from the image rotation unit 2 1. Relieve blood vessels by applying treatment.
  • Figure 7 shows the images before and after the relief.
  • the boundary between the blood vessel and the other parts is unknown, but in the blood vessel image after embossing (Fig. 7 (B)), the boundary is clear. It becomes.
  • the embossing process in the embossed portion 21 enhances the blood vessels, and as a result, the blood vessels can be clearly distinguished from other parts. Will come.
  • the blood vessel extraction unit 22 performs binarization processing on the image data in which the blood vessels are embossed in the binarization unit 22 B by using the set luminance value as a reference, thereby obtaining a binary blood vessel image. (Hereinafter referred to as a binary blood vessel image), and the image data obtained as a result of the processing is sent to the 3D image generation unit 24.
  • the motion amount calculation unit 23 calculates the motion amount from the blood vessels displayed in the multi-viewpoint blood vessel images that are continuously imaged along the circumference of the finger.
  • the motion amount calculation unit 23 receives a first blood vessel image input from the blood vessel extraction unit 22 and a second blood vessel image input from the blood vessel extraction unit 22 before the first blood vessel image.
  • the amount of movement of the corresponding part in the blood vessel to be displayed is calculated by optical flow.
  • the first blood vessel image is called the current image
  • the second blood vessel image is called the previous image.
  • the motion amount calculation unit 23 determines a point of interest (hereinafter referred to as a point of interest) AP in the current image IM 1, and centers on the point of interest AP.
  • a point of interest hereinafter referred to as a point of interest
  • Pixel block hereinafter referred to as the focus block
  • the motion amount calculation unit 23 searches the previous image I M2 for a block that minimizes the difference from the luminance value in the block of interest ABL, and the searched block
  • the center of RBL is the point corresponding to the target point AP (hereinafter referred to as the corresponding point) XP, and the position vector V (V to the corresponding point XP with reference to the position AP ′ corresponding to the target point AP x , V y ).
  • the motion amount calculation unit 23 searches the previous image IM 2 for blocks corresponding to a plurality of attention blocks in the current image IM 1.
  • a central (XP) in the block the average of the mean (horizontal direction of the base-vector Ingredient V x of the position base-vector between the center and the same position of the target block (AP '), in the vertical direction
  • the average of the vector component V y is calculated as the amount of motion, and this is sent to the 3D image generator 2 4 as data (hereinafter referred to as motion data). ing.
  • This amount of movement is not only in the direction of the horizontal movement (rotation direction) with respect to the surface on which the finger is placed, but also in the direction of vertical movement with respect to the surface due to finger pressure and rotation axis fluctuation This value represents the movement in the direction (perpendicular to the rotation direction).
  • an image (image after the embossing process and before binarization) obtained in the intermediate process of the blood vessel extraction process is adopted as the motion amount calculation target image.
  • the blood vessel and other portions are clearly distinguished, and the luminance of the blood vessel in the image is shown in FIG.
  • the information represents the actual cross-sectional state.
  • this information is discarded in the image after blood vessel extraction processing (image after binarization processing) as shown in Fig. 10, for example, in Figs. 11 (A) and 11 (B).
  • Figs. 11 (A) and 11 (B) As shown, even if the cross sections of blood vessels that are different from each other are represented, the rate of becoming the same is increased after the extraction process.
  • the target block ABL in the current image IM 1 from the previous image IM 2 When searching for a block that minimizes the difference from the brightness value of the block (Fig. 8 (B)), the same as the brightness value of the target block ABL. Many blocks with one or substantially the same luminance value appear. For this reason, it is not possible to search for a block RBL that truly corresponds to the target block ABL, and as a result, a situation in which the accuracy of calculating the displacement is reduced is caused.
  • this motion amount calculation unit 23 uses an image (image after embossing and before binarization) obtained in the intermediate process of blood vessel extraction processing as the image for motion amount calculation. ing.
  • a plurality of blocks of interest in the current image IM 1 are general (this is all pixels of the current image IM 1, but the end points, branch points and inflection points of blood vessels displayed in the current image IM 1 or these points) You may make it be a part of.
  • the search range for the block that minimizes the difference from the luminance value in the target block ABL from the previous image IM 2 is generally the entire previous image IM 2, but only the amount of misalignment detected in the past A range corresponding to the size of a plurality of attention blocks may be set around the shifted position, and the shape of the range may be switched in accordance with the temporal change amount of the position shift amount detected in the past. It may be.
  • the three-dimensional image generation unit 24 For each blood vessel image captured from around the finger, the three-dimensional image generation unit 24 projects blood vessels projected on the projection space when the blood vessels projected on the image from the viewpoint position of the image are projected on the projection space. Each of the silhouette regions is detected, and a common portion of the detected silhouette regions is extracted as a three-dimensional blood vessel image (three-dimensional volume).
  • the 3D image generation unit 24 in this embodiment does not extract the common part of the shot area projected to the innermost part of the projection space as a three-dimensional image of the blood vessel, but rather from the projection surface in the projection space to the depth direction.
  • the common part of the Sylhet region projected to the projection plane separated by a specified length is extracted as a three-dimensional image of the blood vessel.
  • the generation unit 24 defines a three-dimensional space (hereinafter referred to as a “poxel space”) having a predetermined shape, which is a cubic unit called “poxel”, as a projective space (FIG. 1).
  • Step SP a three-dimensional space having a predetermined shape, which is a cubic unit called “poxel”, as a projective space (FIG. 1).
  • the 3D image generation unit 24 stores various values stored in the ROM as camera information such as focal length and image center, and information on the projection length in the projection space from the projection surface to the depth direction. Based on the memorized value and the value of the motion amount input from the motion amount calculation unit .2 3, a plurality of image data input from the blood vessel extraction unit 2 2 (binary blood vessel image) From this, blood vessel shape data is generated.
  • the three-dimensional image generation unit 24 rotates the binary blood vessel image that is input first from the blood vessel extraction unit 22 as a reference image, for example, from among the viewpoints around the poxel space, as shown in FIG. Arranged at a position corresponding to the viewpoint with an angle of 0 [°], and projected onto the projection plane in the projection space up to the projection plane separated by a specified length L in the depth direction (the space surrounded by the solid line in Fig. 14)
  • the shot area AR is detected ( Figure 13: Step SP2).
  • Fig. 14 shows an example in which Fig. 1 (A) is used as the reference image among the objects in Fig. 1.
  • each poxel in the poxel space is back-projected toward the reference image to calculate a projection point, and the projection point of the voxel is within the outline of the blood vessel displayed in the reference image.
  • the poxels that exist in this area are left as a shot area.
  • the 3D image generation unit 24 for the binary blood vessel images input from the blood vessel extraction unit 2 2 to the second and subsequent ones, in the rotation direction from the reference image to the binary blood vessel image that is the current processing target.
  • the corresponding motion amount (hereinafter referred to as the rotational motion amount) is recognized based on the motion amount input from the motion amount calculation unit 23.
  • the 3D image generation unit 24 uses this rotational movement amount as V x, and the rotation axis of the finger If the value set as the distance from to the blood vessel is r,
  • ⁇ ro arctan (V x / rj (1) is used to obtain the rotation angle of the binary blood vessel image to be processed with respect to the reference image (hereinafter referred to as the first rotation angle) 0 r . It is determined whether or not this is less than 3 60.] (FIG. 13: step SP 3).
  • step SP 4 The difference between the rotation angle of 1 (9 r) and the rotation angle of the binary blood vessel image and the reference image (hereinafter referred to as the second rotation angle) in which the visual volume is detected immediately before the current processing target is obtained. Then, it is determined whether or not this difference is equal to or greater than a predetermined threshold (FIG. 13: step SP 4).
  • Step SP 4 the 3D image generation unit 24 sets the binary blood vessel image input next to the binary blood vessel image as the processing target without obtaining the silhouette region of the binary blood vessel image that is the current processing target. .
  • the 3D image generation unit 2'4 can prevent the calculation of useless syllette areas.
  • Step SP 4 “YE S” this means that the finger is in a rotating state.
  • the 3D image generation unit 24 first rotates the binary blood vessel image IM x to be processed with respect to the viewpoint VP s of the reference position IM s. Place it at the position corresponding to the viewpoint VP x that forms the corner 0 ".
  • the three-dimensional image generation unit 24 uses this binary blood vessel image IM x to create a sky from the projection surface in the projection space to the projection surface separated by a specified length in the depth direction. After detecting the silhouette region projected between them (FIG. 13: step SP5), the binary blood vessel image input next to the binary blood vessel image is set as the processing target.
  • the three-dimensional image generation unit 24 arranges the binary blood vessel image IM x that is the current processing target around the poxel space, the binary blood vessel image IM X, and the binary blood vessel image IM x .
  • the binary blood vessel image IM ( ⁇ -t) for which the visual volume was detected immediately before the amount of movement in the direction orthogonal to the finger rotation direction (the binary blood vessel image that is the current processing target and the last placed)
  • the vertical vector component V y in the binary blood vessel image is recognized based on the motion amount data, and only the motion amount is corrected (direction parallel to the Z-axis direction of the poxel space) RD Correct the position of the viewpoint VP x .
  • the 3D image generation unit 24 can detect the silhouette region by following the fluctuation even if the finger pressure amount or the rotation axis changes during the rotation of the finger, so that it is orthogonal to the rotation direction of the finger. Compared to the case where the amount of movement in the direction is not taken into account, the salt region can be detected accurately.
  • the three-dimensional image generation unit 24 satisfies the first rotation angle ⁇ r with respect to the reference image. Until the binary blood vessel image with an angle of 360 [°] or more is selected as the current processing target, each of the blood vessel silhouette regions that are projected on the binary blood vessel image is detected (Fig. 13: Step SP 3— SP 4—SP 5 loop).
  • the detection target of the silhouette region is a region (solid line) projected to a projection plane that is separated by a specified length in the depth direction from the projection surface in the voxel space (projection space). Therefore, if attention is paid to the image on the front side of the object in Fig. 1 (Fig. 1 (A)) and the image on the back side of the object (Fig. 1 (B)), Even if there is a part that does not have a common volume, the pixels of the projected part (silette area) of the object in each image remain.
  • the first rotation angle 0 r with respect to the reference image Is more than 3 60 [° ']
  • the common part (solid line part) is displayed as a three-dimensional image (three-dimensional volume) of the blood vessel that is faithful to the actual object.
  • the portion of the cylindrical region is a poxel that remains as a non-projected portion.
  • the 3D image generator 24 has a first rotation angle 0 r with respect to the reference image. 3 6 0
  • this common portion of the poxel is recognized as a three-dimensional image of the blood vessel, and the voxel data is extracted as the three-dimensional image.
  • this poxel data is registered in the memory 13 as registration data, and in the authentication mode, it is checked against the registration data registered in the memory 13. Yes.
  • control unit 10 three-dimensional image generation unit 24 in the authentication device 1 is imaged from around the finger and a plurality of binary blood vessels obtained by extracting blood vessels in the captured image. Input images sequentially.
  • the 3D image generation unit 24 has a depth from the projection surface in the voxel space when the object projected on the image is reflected from the visual point position of the image in the voxel space. Projection areas projected to projection planes separated by a specified length in the direction are detected (see, for example, Fig. 14), and a common part is extracted from the detected projection areas (see Fig. 17).
  • This 3D image generator 24 does not extract the common part of the shot area projected to the innermost part of the poxel space as a three-dimensional image of the blood vessel, but only a specified length in the depth direction from the projection surface in the poxel space.
  • the visual volume can be obtained by paying attention to the area to be played.
  • the 3D image generation unit 24 can use the common portion as the projected portion of the blood vessel as long as the view volume near the blood vessel surface is common. It is possible to remain as a poxel in the silette area), and thus, even when the blood vessel portion existing on the back side of the imaging surface cannot be projected, a shape that accurately reflects the actual blood vessel is displayed. (See Figure 15 for example).
  • the authentication device 1 that can generate the shape of the blood vessel with high accuracy can be realized.
  • a blood vessel in a living body is applied as an imaging target.
  • the present invention is not limited to this, for example, a nerve, a fingerprint or a face on the surface of a living body, It may be applied, or an object other than a living body can be applied.
  • the embossing process can be omitted as appropriate depending on the imaging target to be applied.
  • an imaging target inside a living body such as a nerve or blood vessel
  • a finger is applied as a living body part
  • parts such as palms, toes, arms, eyes or arms can be applied.
  • the detection target of the projection area projected onto the projection space is fixed.
  • the present invention may be variable.
  • a value (fixed value) representing the projection length with respect to the vertical direction is stored in the ROM, but instead, for example, information representing the association between the body fat percentage and the value representing the projection length is stored.
  • the control unit 10 Before detecting the shot region of the first input image (reference image) (FIG. 13: step SP2), the control unit 10 notifies the input of the body fat rate of the user to be imaged. Direct through. Then, the control unit 10 detects the body fat rate input from the operation unit 11 1 and switches the projection length by setting a value corresponding to the detected body fat rate. ,
  • the controller 10 detects the finger width of the finger contour displayed on the blood vessel image before detecting the salt region of the first input image (reference image) (FIG. 13: step SP 2).
  • the projection length is switched by detecting the viewpoint corresponding to the blood vessel image from the information in the finger outline displayed on the finger image and setting a value corresponding to the detected viewpoint.
  • the projection length can be set according to the depth from the finger surface to the position where the blood vessel exists on the finger dorsal side and finger pad side, a shape that reflects the actual blood vessel more faithfully is displayed. can do.
  • a setting step for detecting information related to the imaging target and setting a specified length associated with the detected information is performed.
  • the present invention is not limited to this, and the CD (Compact Disc), DVD (Digital Versatile Disc), installed from a program storage medium such as a semiconductor memory, or downloaded from a program providing server on the Internet. And authentication mode may be executed.
  • CD Compact Disc
  • DVD Digital Versatile Disc
  • control unit 10 executes the registration process and the authentication process has been described.
  • the present invention is not limited to this, and a part of these processes is performed by the graphics work station. It may be executed.
  • the authentication device 1 having the imaging function, the verification function, and the registration function has been described.
  • the present invention is not limited to this, and the function is determined according to the application. Alternatively, a part of each function may be applied to a single device.
  • the present invention can be used in the field of biometric authentication.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

物体の裏側を撮像できないような状況下であっても、物体の形状を高精度で生成できるようにする。物体周囲から撮像される複数の画像ごとに、当該画像の視点位置からその画像に映し出される物体を射影空間にそれぞれ投影した場合に該射影空間における投影表面から奥行き方向に規定長だけ隔てた投影面までに投影される投影領域をそれぞれ検出し、検出された各投影領域のうち、共通となる部分を抽出するようにした。

Description

物体形状生成方法、 物体形状生成装置及びプログラム 技 分野 i
本発明は物体形状生成方法、 物体形状生成装置及びプログラムに関し、 例えばバイオメ ト リクス認証に適用して好適なものである。 背景技術
バイオメ ト リクス認証は、 生体の識別対象を用いて本人であるか否かを 識別する手法である。 生体の識別対象の 1つとして指の血管がある。
例えば、 指先の異なる面の像を合成して 3次元阔像を生成し、 これを識 別対象として用いるようにした認証装置が提案されている (例えば特許文 献 1参照) 。 特許文献 1 特閧 2 0 0 2 _ 1 7 5 5 2 9公報。 ところで、 物体の形状を生成する手法として、 視体積交差法 (Shape From Silhouette法) と呼ばれるものがある。 この視体積交差法は、 物体 の多視点における画像とカメラの位置情報等に基づいて、 各画像における シルエツ 卜の全てが対象空間内で交差する領域を物体領域として残存させ ることにより、 対象物体の形状を生成するものである。
この視体積交差法を用いて 3次元の血管像を構築すれば、 2次元の血管 像 (全周囲展開画像) に比して、 識別対象となるパラメ一夕の数が増加す るため、 認証精度が向上するものと考えられる。
しかしながら、 生体における血管以外の部分は中空ではなく、 脂肪等の 各組織で塞がれているため、 光学式の撮像カメラでは、 例えば図 1に示す ように、 撮像面の裏面側に存在する血管部分を映し出すことができない場 合がある。
この場合、 視体積交差法では、 撮像面に映し出されない裏面の血管部分 については、 各画像におけるシルエツ 卜の全てが対象空間内で交差する領 域とはならないので、 物体領域として残存されないこととなり、 この結果、 実際の血管とは異なる形状が生成されるという問題がある。 発明の開示
本発明は以上の点を考慮してなされたもので、 物体の裏側を撮像できな •いような状況下であっても、 物体の形状を高精度で生成し得る物体形状生 成装置、 物体形状生成方法及びプログラムを提案しょうとするものである。 かかる課題を解決するため本発明は、 物体形状生成方法であって、 物体 周囲から撮像される複数の画像ごとに、 当該画像の視点位置からその画像 に映し出される物体を射影空間にそれぞれ投影した場合に該射影空間にお ける投影表面から奥行き方向に規定長だけ隔てた投影面までに投影される 投影領域を、 それぞれ検出する第 1のステップと、 検出された各投影領域 のうち、 共通となる部分を抽出する第 2のステツプとを設けるようにした。 また本発明は、 ワークメモリと、 ワークメモリで画像処理を実行する画 像処理部ともつ物体形状生成装置であって、 当該画像処理部は、 物体周囲 から撮像される複数の画像ごとに、 画像の視点位置から画像に映し出され る物体を射影空間にそれぞれ投影した場合に該射影空間における投影表面 から奥行き方向に規定長だけ隔てた投影面までに投影される投影領域をそ れぞれ検出し、 検出した各投影領域のうち、 共通となる部分を抽出するよ うにした。
さらに本発明は、 プログラムであって、 ワークメモリを制御する制御部 に対して、 物体周囲から撮像される複数の画像ごとに、 画像の視点位置か ら画像に映し出される物体を射影空間にそれぞれ投影した場合に該射影空 間における投影表面から奥行き方向に規定長だけ隔てた投影面までに投影 される投影領域をそれぞれ検出すること、 検出された各投影領域のうち、 共通となる部分を抽出することを実行させるようにした。
以上のように本発明によれば、 射影空間の最奥まで投影されるシルェッ ト領域の共通部分を血管の立体像として抽出するのではなく、 射影空間に おける投影表面から奥行き方向に規定長だけ隔てた投影面までに投影され るシルェッ ト領域の共通部分を血管の立体像として抽出していることによ り、 撮像対象となる物体表面部分に着目して視体積を抽出することができ るようになり、 この結果、 物体の裏側を撮像できないような状況下であつ ても、 物体の形状を高精度で生成し得る物体形状生成方法、 物体形状生成 装置及びプログラムを実現できる。 図面の簡単な説明
図 1は、 視体積交差法での問題点の説明に供する、 (A ) 撮像方向側 (物体の表側) 、 (B ) 撮像方向の逆側 (物体の裏側) 、 の略線図である。 図 2は、 本実施の形態による認証装置の構成を示すプロック図である。 図 3は、 回転する指の状態推移を示す略線図である。
図 4は、 撮像面と画像内の血管との関係を示す略線図である。
図 5は、 制御部の機能的構成を示すブロック図である。
図 6は、 回転補正量の算出の説明に供する略線図である。
図 7は、 浮き彫り化前後の画像を示す略線図である。
図 8は、 動き量の算出処理の説明に供する略線図である。
図 9は、 浮き彫り処理後の画像における血管の輝度状態を示す略線図で ある。
図 1 0は、 血管抽出処理での輝度の状態推移を示す略線図である。
図 1 1は、 輝度状態の均一化の説明に供する略線図である。
図 1 2は、 ポクセル空間を示す略線図である。 図 1 3は、 物体形状生成処理手順を示すフローチヤ一トである。
図 1 4は、 シルエツ ト領域の検出 ( 1 ) の説明に供する略線図である。 図 1 5は、 ポクセル空間周囲に配置される各画像の配置関係の説明に供 する略線図である。
図 1 6は、 シルエッ ト領域の検出 ( 2 ) の説明に供する略線図である。 図 1 7は、 シルエッ ト領域の抽出状態を示す略線図である。 発明を実施するための最良の形態
以下図面について、 本発明を適用した一実施の形態を詳述する。
( 1 ) 本実施の形態による認証装置の全体構成
図 2において、 本実施の形態による認証装置 1の全体構成を示す。 この 認証装置 1は、 制御部 1 0に対して、 操作部 1 1、 撮像部 1 2、 メモリ 1 3、 インターフヱ一ス 1 4及び通知部 1 5をそれぞれバス 1 6を介して接 続することにより構成される。
制御部 1 0 は、 認証装置 1 全体の制御を司 る C P U (Central Processing Unit)と、 各種プログラム及び設定情報などが格納される R 0 M (Read Only Memory)と、 当該 C P Uのワークメモリ としての R AM. (Random Access Memory)とを含むコンピュー夕として構成される。
この制御部 1 0には、 登録対象のユーザ (以下、 これを登録者と呼ぶ) の血管を登録するモード (以下、 これを血管登録モードと呼ぶ) の実行命 令 C OM 1又は登録者本人の有無を判定するモード (以下、 これを認証モ ードと呼ぶ) の実行命令 C OM 2が、 ユーザ操作に応じて操作部 1 1から 与えられる。
制御部 1 0は、 かかる実行命令 C OM 1、 C OM 2に基づいて実行すベ きモードを決定し、 この決定結果に対応するプログラムに基づいて、 撮像 部 1 2、 メモリ 1 3、 インターフヱ一ス 1 4及び通知部 1 5を適宜制御し、 血管登録モード又は認証モードを実行するようになされている。 撮像部 1 2は、 制御部 1 0によ り指定される露出値 ( E V (Exposure Value)値) に基づいて、 光学系におけるレンズ位置、 絞りの絞り値及び撮 像素子のシャツ夕一速度 (露出時間) を調整する。
また撮像部 1 2は、 撮像素子での撮像結果として、 該撮像素子から所定 周期で順次出力される画像信号を A / D (Analog/Digital)変換し、 この変 換結果として得られる画像データを制御部 1 0に送出する。
さらに、 この撮像部 1 2は、 制御部 1 0により指定される期間に近赤外 光光源を駆動し、 撮像対象として指定された位置 (以下、 これを撮像位置 と呼ぶ) に、 血管に特異的に吸収される近赤外光を照射する。
この撮像位置に生体部位が配される場合、 その生体部位の内方を経由し た近赤外光は血管を投影する光として、 光学系及び絞りによって撮像素子 に入射され、 該撮像素子の撮像面には生体内方における血管が結像される。 したがってこの場合に撮像部 1 2での撮像結果として得られる画像には、 血管が映し出されることとなる。
メモリ 1 3は、 例えばフラッシュメモリでなり、 制御部 1 0により指定 されるデ一夕を記憶し、 又は読み出すようになされている。
ィン夕ーフェース 1 4は、 所定の伝送線を介して接続された外部の装置 との間で各種データを授受するようになされている。
通知部 1 5は、 表示部 1 5 a及び音声出力部 1 5 bでなり、 該表示部 1 5 aは、 制御部 1 0から与えられる表示デ一夕に基づく内容を、 文字や図 形により表示画面に表示する。 一方、 音声出力部 1 5 bは、 制御部 1 0か ら与えられる音声データに基づく音声を、 スピーカから出力するようにな されている。
( 2 ) 血管登録モード
次に、 血管登録モードについて説明する。 制御部 1 0は、 実行すべきモ ードとして血管登録モードを決定した場合、 動作モードを血管登録モード に遷移し、 撮像位置において指を指腹の曲面に沿って回転させなければな らないことを通知部 1 5を介して通知するとともに、 撮像部 1 2を動作さ せる。
この状態において、 例えば図 3に示すように、 撮像位置で指周囲 (指腹、 指側、 及び指背の面) に沿って指が回転させられた場合、 撮像部 1 2では、 例えば図 4に示すように、 当該指内方における血管が、 指周囲に沿って、 多視点の画像として連続的に捉えられる。
制御部 1 0は、 撮像部 1 2での撮像結果として、 該撮像部 1 2から順次 与えられる画像から血管の立体像を生成し、 該血管の立体像の形状を表す 値 (以下、 これを血管形状値と呼ぶ) を登録対象のデータ (以下、 これを 登録デ一夕と呼ぶ) として、 これをメモリ 1 3に記憶することにより登録 する。
このようにして制御部 1 0は、 血管登録モードを実行することができる ようになされている。
( 3 ) 認証モ.一ド
次に、 認証モードについて説明する。 制御部 1 0は、 実行すべきモ一ド として認証モードを決定した場合、 動作モードを認証モードに遷移し、 撮 像位置において指を指腹の曲面に沿って回転させなければならないことを 通知部 1 5を介して通知するとともに、 撮像部 1 2を動作させる。
制御部 1 0は、 撮像部 1 2での撮像結果として、 該撮像部 1 2から順次 与えられる画像から、 血管登録モードと同様にして血管の立体像を生成し、 該血管の血管形状値を抽出する。 そして制御部 1 0は、 抽出した血管形状 値と、 登録データとしてメモリ 1 3に記憶された血管形状値とを照合し、 この照合結果から、 登録者と承認することができるか否かを判定するよう になされている。
ここで、 登録者と承認することができないものと判定した場合、 制御部 1 0は、 その旨を表示部 1 5 a及び音声出力部 1 5 bを介して視覚的及び 聴覚的に通知する。 これに対して、 登録者と承認することができるものと 判定した場合、 制御部 1 0は、 登録者と承認したことを表すデ一夕を、 ィ ン夕一フヱ一ス 1 4に接続された装置に送出する。 この装置では、 登録者 と承認したことを表すデータを ト リガとして、 例えば、 ドアを一定期間閉 錠させる、 あるいは、 制限対象の動作モードを解除させる等、 認証成功時 に実行すべき所定の処理が行われる。
このようにしてこの制御部 1 0は、 認証モ一ドを実行することができる ようになされている。
( ) 血管形状値抽出処理
次に、 制御部 1 0の血管形状値抽出処理の内容を具体的に説明する。 こ の処理は、 機能的には、 図 5に示すように、 画像回転部 2 1、 血管抽出部 2 2、 動き量算出部 2 3及び 3次元像生成部 2 4にそれぞれ分けることが できる。 以下、 これら画像回転部 2 1、 血管抽出部 2 2、 動き量算出部 2 3及び 3次元像生成部 2 4を詳細に説明する。
( 4一 1 ) 画像回転処理
画像回転部 2 1は、 多視点の画像を、 当該画像に映し出される指の方向 が基準方向となるように回転補正する。
この画像回転部 2 1における回転手法の一例を説明する。 画像回転部 2 1は、 撮像周期とは異なる周期ごとに、 可視光だけを透過する光学フィル 夕を光軸上の所定位置に配置させ、 指を撮像対象とする画像 (以下、 これ を指画像と呼ぶ) を、 回転量の算出対象として、 血管を撮像対象とする画 像 (以下、 これを血管画像と呼ぶ) に対して所定の間隔おきに取得する。
ちなみに、 血管画像は、 近赤外光を撮像光として撮像素子に結像される 画像であり、 指画像は、 可視光を撮像光として撮像素子に結像される画像 である。
画像回転部 2 1は、 例えば図 6に示すように、 指画像を取得した場合 (図 6 ( A ) ) 、 その指画像に映し出される指の領域を抽出した後 (図 6 ( B ) ) 、 指輪郭を構成する点 (以下、 これを指輪郭点と呼ぶ) を抽出す る (図 6 ( C ) ) 。
また画像回転部 2 1は、 指輪郭点のうち、 水平方向の輪郭線に相当する 点を、 指関節を構成する点 (以下、 これを指関節点と呼ぶ) として、.ハフ 変換等により重み付けすることにより抽出し (図 6 ( D ) ) 、 該'指関節点 から、 関節部分の線 (以下、 これを関節線と呼ぶ) J N Lを識別する (図 6 ( E ) ) 。
そして画像回転部 2 1は、 画像における列方向のライ ン L Nに対する関 節線 J N Lからのなす角 0 xを、 血管画像の回転補正量として求め (図 6 ( E ) ) 、 該回転補正量に応じて、 次の指画像を取得するまでに撮像され る各血管画像を回転補正するようになされている。
この結果、 この例では、 多視点の血管画像は、 当該血管画像に映し出さ れる指の長手方向が画像の行方向に揃うこととなる。
このようにして画像回転部 2 1は、 指周囲に沿って連続的に捉えられる 多視点の血管画像として、 該撮像部 1 2から順次入力される画像デ一夕に 対して画像回転処理を施し、 該処理結果として得られる画像データを血管 抽出部 2 2に送出する。
( 4 - 2 ) 血管抽出処理
血管抽出部 2 2は、 血管画像に映し出される血管部分を抽出する。 この 血管抽出部 2 2における抽出手法の一例を説明する。 血管抽出部 2 2は、 浮き彫り化部 2 2 Aにおいて、 画像回転部 2 1から入力される画像デ一夕 に対して、 ガウシアンフィル夕や L o gフィル夕等の微分フィル夕を用い た浮き彫り化処理を施すことによって血管を浮き彫りにする。
ここで、 浮き彫り前後の画像を図 7に示す。 浮き彫り化前の血管画像 (図 7 ( A ) ) では、 血管とそれ以外の部分との境界が不明暸となるが、 浮き彫り化後の血管画像 (図 7 ( B ) ) では、 当該境界が明瞭となる。 こ の図 7からも明らかなように、 この浮き彫り化部 2 1での浮き彫り処理に より血管が強調され、 この結果、 血管とそれ以外の部分とが明確に区別で きることとなる。
また血管抽出部 22は、 2値化部 22 Bにおいて、 血管が浮き彫りにさ れた画像データに対して、 設定された輝度値を基準として 2値化処理を施 すことによって 2値の血管画像 (以下、 これを 2値血管画像と呼ぶ) に変 換し、 該処理結果として得られる画像デ一夕を 3次元像生成部 24に送出 する。
( 4 - 3 ) 動き量算出処理
動き量算出部 23は、 指周囲に沿って連続的に撮像される多視点の血管 画像に映し出される血管から動き量を算出する。
この動き量算出部 23における算出手法の一例を説明する。 動き量算出 部 23は、 血管抽出部 22から入力される第 1の血管画像と、 該第 1の血 管画像よりも前に血管抽出部 22から入力された第 2の血管画像とにそれ ぞれ映し出される血管における対応部分の動き量を、 ォプティカルフロー により算出する。 以下、 第 1の血管画像を現画像と呼び、 第 2の血管画像 を前画像と呼ぶ。
すなわち動き量算出部 23は、 例えば図 8 (A) に示すように、 現画像 I M 1における注目対象の点 (以下、 これを注目点と呼ぶ) A Pを決定し、 その注目点 A Pを中心とする (mxn) 画素のブロック (以下、 これを注 目ブロックと呼ぶ) ABLにおける輝度値を認識する。
そして動き量算出部 23は、 図 8 (B ) に示すように、 前画像 I M2の なかから、 注目ブロック A.B Lにおける輝度値との差を最小とするプロッ クを探索し、 探索されたブロック R B Lの中心を、 注目点 APに対応する 点 (以下、 これを対応点と呼ぶ) XPとして、 注目点 APに相当する位置 A P ' を基準とする対応点 X Pまでの位置べク トル V (Vx、 Vy) を求 める。 ·
動き量算出部 23は、 このようにして現画像 I M 1における複数の注目 プロックにそれぞれ相応するブロックを前画像 I M 2のなかから探索する とともに、 当該ブロックにおける中心 ( X P ) と、 注目ブロックの中心と 同一の位置 (A P ' ) との各位置べク トルの平均 (水平方向のべク トル成 分 V xの平均、 垂直方向のべク トル成分 V yの平均) を、 動き量どして算 出し、 これをデ一夕 (以下、 これを動き量デ一夕と呼ぶ) として 3次元像 生成部 2 4に送出するようになされている。
この動き量は、 指が置かれる面に対して水平動の方向 (回転方向) の動 きだけでなく、 指圧量や回転軸の変動等に起因して、 該面に対して垂直動 の方向 (回転方向に直交する方向) の動きを表す値となっている。
ちなみに、 動き量としては、 各位置べク.トルの平均 (水平方向のべク ト ル成分 V xの平均、 垂直方向のべク トル成分 V yの平均) に代えて、 例え ば、 各位置ベク トルの最大値若しくは最小値又は標準偏差値等、 各位置べ ク トルから統計学的手法により得られる値 (代表値) を採用することがで きる。
この実施の形態における動き量算出部 2 3では、 血管抽出処理の中間過 程で得られる画像 (浮き彫り化処理後かつ 2値化前の画像) が、 動き量の 算出対象の画像として採用される。
血管抽出処理前の画像 (浮き彫り化処理前の画像) では、 図 7について 上述したように、 血管とそれ以外の部分とが明確に区別され、 その画像に おける血管の輝度は、 図 9に示すように、 実際の断面の状態を表す情報と なる。 しかし、 この情報は、 図 1 0に示すように、 血管抽出処理後の画像 ( 2値化処理後の画像) では捨象されることにより、 例えば図 1 1 ( A ) 及び 1 1 ( B ) に示すように、 互いに相違する血管の断面を表していたと しても、 当該抽出過程を経ると、 同一となってしまう率が高くなる。 . したがって、 仮に、 血管抽出処理後の画像 ( 2値化処理後の画像) を、 位置ずれ量の算出対象の画像として採用すると、 前画像 I M 2のなかから、 現画像 I M 1における注目ブロック A B Lの輝度値との差を最小とするブ ロックを探索する場合 (図 8 ( B ) ) 、 注目ブロック A B Lの輝度値と同 一又は略同一の輝度値のプロックが多数出現することになる。 このため、 注目ブロック A B Lと真に相応するプロヅク R B Lを探索できず、 この結 果、 位置ずれ量の算出精度が低下するといつた事態を招くことになる。
このことから、 この動き量算出部 2 3では、 動き量の算出対象の画像と して、 血管抽出処理の中間過程で得られる画像 (浮き彫り化処理後かつ 2 値化前の画像) が採用されている。
なお、 現画像 I M 1における複数の注目ブロックは、 一般 (こは現画像 I M 1の全画素とされるが、 該現画像 I M 1に映し出される血管の端点、 分 岐点及び屈曲点もしくはこれら点のうちの一部とするようにしてもよい。
また、 前画像 I M 2のなかから、 注目ブロック A B Lにおける輝度値と の差を最小とするブロックを探索する範囲は、 一般には前画像 I M 2全体 とされるが、 過去に検出した位置ずれ量だけずらした位置を中心として、 複数の注目プロックの大きさに相当する範囲とするようにしてもよく、 該 範囲の形状を、 過去に検出した位置ずれ量の時間変化量に対応させて切り 換えるようにしてもよい。
( 4一 4 ) 3次元像生成処理
3次元像生成部 2 4は、 指周囲から捉えられた血管画像ごとに、 当該画 像の視点位置からその画像に映し出される血管を射影空間にそれぞれ投影 した場合に該射影空間に投影される血管のシルェッ ト領域をそれぞれ検出 し、 該検出した各シルエッ ト領域のうち、 共通する部分を、 血管の立体像 ( 3次元ボリューム) として抽出する。
この実施の形態における 3次元像生成部 2 4は、 射影空間の最奥まで投 影されるシルェッ ト領域の共通部分を血管の立体像として抽出するのでは なく、 射影空間における投影表面から奥行き方向に規定長だけ隔てた投影 面までに投影されるシルェッ 卜領域の共通部分を血管の立体像として抽出 するようになされている。
この 3次元像生成部 2 4における生成手法の一例を説明する。 3次元像 生成部 2 4は、 図 1 2に示すように、 ポクセルと呼ばれる立方体を構成単 位とする所定形状の 3次元空間 (以下、 これをポクセル空間と呼ぶ) を、 射影空間として定義する (図 1 3 : ステップ S P 1 ) 。
そして 3次元像生成部 2 4は、 焦点距離や画像中心等のカメラ情報とし て R O Mに記憶される各種値と、 射影空間における投影表面から奥行き方 向に対する投影長を規定する倩報として R O Mに記憶される値と、 動き量 算出部.2 3から入力される動き量デ一夕の値とに基づいて、 血管抽出部 2 2から入力される複数の画像デ一夕 ( 2値血管画像) から血管の形状デー 夕を生成する。
すなわち 3次元像生成部 2 4は、 血管抽出部 2 2から最初に入力される 2値血管画像については、 基準画像として、 例えば図 1 4に示すように、 ポクセル空間周囲の視点のうち、 回転角 0 [ ° ] の視点に対応する位置に 配置し、 射影空間における投影表面から奥行き方向に規定長 Lだけ隔てた 投影面までの空間 (図 1 4では実線で囲まれる空間) に投影されるシルェ ッ ト領域 A Rを検出する (図 1 3 : ステップ S P 2 ) 。 ちなみにこの図 1 4は、 図 1の物体のうち、 図 1 ( A ) を基準画像とした場合を例として挙 げたものである。
シルェッ ト領域の具体的な検出手法としては、 ポクセル空間における各 ポクセルを、 基準画像に向けて逆投影して投影点を算出し、 該ボクセルの. 投影点が基準画像に映し出される血管の輪郭内に存在するポクセルを、 シ ルェッ ト領域として残存させるようになされている。
一方、 3次元像生成部 2 4は、 血管抽出部 2 2から 2番目以降に入力さ れる 2値血管画像については、 基準画像から、 現在の処理対象となる 2値 血管画像までの回転方向に対応する動き量 (以下、 これを回転動き量と呼 ぶ) を、 動き量算出部 2 3から入力される動き量デ一夕に基づいて認識す る。
そして 3次元像生成部 2 4は、 この回転動き量を V xとし、 指の回転軸 から血管までの距離として設定された値を rとすると、 次式
Θ ro=arctan (V x/ r j (1) によって、 基準画像に対する、 現在の処理対象となる 2値血管画像の回転 角 (以下、 これを第 1の回転角と呼ぶ) 0 r。を求め、 これが 3 6 0 . ] 未満であるか否かを判定する (図 13 : ステップ S P 3 ) 。
この第 1の回転角 が 360 ] 未満である場合 (図 13 : ステ ヅプ SP 3 「YE S」 ) 、 このことは、 指の全周から捉えられた複数の 2 値血管画像に対する視体積 (シルエッ ト領域) の全てを未だ検出していな い状態にあることを意味する。 この場合、 3次元像生成部 24は、 この第
1の回転角 (9 r。と、 現在の処理対象の直前に視体積を検出した 2値血管 画像及び基準画像の回転角 (以下、 これを第 2の回転角と呼ぶ) との差を 求め、 この差が所定の閾値以上であるか否かを判定する (図 13 : ステツ プ S P 4 ) 。
この差が閾値未満となる場合 (図 13 : ステップ SP 4 「N〇」 ) 、 こ のことは、 指の回転が停止又は停止に等しい状態にあることを意味する。 この場合、 3次元像生成部 24は、 現在の処理対象となる 2値血管画像の シルエツ ト領域を求めることなく、 該 2値血管画像の次に入力される 2値 血管画像を処理対象とする。 これにより 3次元像生成部 2'4は、 無駄なシ ルエツ ト領域の算出を未然に防止することができるようになされている。
これに対して閾値以上となる場合 (図 1 3 : ステップ S P 4 「YE S」 ) 、 このことは、 指が回転している状態にあることを意味する。 この 場合、 3次元像生成部 24は、 例えば図 1 5に示すように、 現在の処理対 象となる 2値血管画像 I Mxを、 基準位置 I Msの視点 V P sに対して第 1 の回転角 0「。をなす視点 VP xに対応する位置に配置する。
そして 3次元像生成部 24は、 この 2値血管画像 I Mxについて、 射影 空間における投影表面から奥行き方向に規定長だけ隔てた投影面までの空 間に投影されるシルエツ ト領域を検出した後 (図 13 : ステップ SP 5) 、 該 2値血管画像の次に入力される 2値血管画像を処理対象とするようにな されている。
なお、 3次元像生成部 24.は、 現在の処理対象となる 2値血管画像 IM xをポクセル空間周囲に配置する場合、 該 2値血管画像 I MXと、 .その 2 値血管画像 I Mxの直前に視体積を検出した 2値血管画像 I M (χ-t) とに ついて、 指の回転方向に直交する方向の動き量 (現在の処理対象となる 2 値血管画像と、 最後に配置された 2値血管画像とにおける垂直方向のべク トル成分 Vyの平均) を、 動き量データに基づいて認識し、 当該動き量だ け補正方向 (ポクセル空間の Z軸方向と平行となる方向) RDに視点 VP xを位置補正する。
これにより 3次元像生成部 24は、 指の回転時における指圧量や回転軸 の変動等が起きても、 該変動に追従させてシルエツ ト領域を検出できるの で、 指の回転方向に直交する方向の動き量を考慮しない場合に比して、 正 確にシルェヅ ト領域を検出することができるようになされている。
このようにして 3次元像生成部 24は、 基準画像に対する第 1の回転角 < r。が 360 [° ] 以上となる 2値血管画像を現在の処理対象とするま で、 2値血管画像に映し出ざれる血管のシルエツ ト領域をそれぞれ検出し ていぐ (図 13 :ステップ SP 3— S P 4— SP 5のループ) 。
ここで、 例えば図 1 6に示すように、 シルエツ ト領域の検出対象は、 ボ クセル空間 (射影空間) における投影表面から奥行き方向に規定長だけ隔 てた投影面までに投影される領域 (実線で囲まれる領域) であるため、 図 1における物体の表側の画像 (図 1 (A) ) と、 該物体の裏側の画像 (図 1 (B) ) とに着目した場合、 ポクセル空間では、 視体積の共通しない部 分があっても、 各画像における物体の投影部分 (シルエッ ト領域) のポク セルが残存することとなる。
したがって、 基準画像に対する第 1の回転角 0r。が 3 60 [°'] 以上 となる 2値血管画像が現在の処理対象とされた場合、 ポクセル空間では、 例えば図 1 7に示すように、 各画像におけ 物体の投影部分 (シルエツ ト 領域) として残存されるポクセルのうち、 共通部分 (実線部分) が、 実際 の物体に忠実となる血管の立体像 ( 3次元ボリューム) として表出しされ ることになる。 ちなみに、 この図 1 6において、 円柱領域の部分は、 非投 影となる部分として残存するポクセルである。
3次元像生成部 2 4は、 基準画像に対する第 1.の回転角 0 r。が 3 6 0
[ ° ] 以上となる 2値血管画像が現在の処理対象とされた場合、 この共通 部分のポクセルを血管の立体像として認識し、 該立体像のデ一夕としてボ クセルデ一夕を抽出する。 このポクセルデ一夕は、 血管登録モードの場合 には、 登録データとしてメモリ 1 3に登録され、 認証モードの場合には、 メモリ 1 3に登録された登録デ一夕と照合されるようになされている。
( 5 ) 動作及び効果
以上の構成において、 この認証装置 1における制御部 1 0 ( 3次元像生 成部 2 4 ) は、 指周囲から撮像され、 該撮像画像における血管が抽出され ることにより得られる複数の 2値血管画像を順次入力する。
また 3次元像生成部 2 4は、 これら 2値血管画像ごとに、 当該画像の視 点位置からその画像に映し出される物体をポクセル空間にそれぞれ揆影し た場合に該ボクセル空間における投影表面から奥行き方向に規定長だけ隔 てた投影面までに投影される投影領域をそれぞれ検出し (例えば図 1 4参 照) 、 検出した各投影領域のうち、 共通となる部分を抽出する (図 1 7参
HS ) 0
この 3次元像生成部 2 4は、 ポクセル空間の最奥まで投影されるシルェ ッ ト領域の共通部分を血管の立体像として抽出するのではなく、 ポクセル 空間における投影表面から奥行き方向に規定長だけ隔てた投影面までに投 影されるシルエツ 卜領域の共通部分を血管の立体像として抽出しているこ とにより、 指表面から指内方における撮像対象 (血管) までの深度に対応 する領域に着目して視体積を求めることが可能となる。
したがって、 3次元像生成部 2 4は、 血管表面から裏側における視体積 が共通しない場合であっても、 血管表面付近における視体積が共通してい る限り、 当該共通部分を、 血管の投影部分 (シルエツ ト領域) のポクセル として残存させることができ、 かく して撮像面の裏面側に存在する血管部 分を映し出すことができない場合であっても、 実際の血管を忠実に反映し た形状を表出しすることができる (例えば図 1 5参照) 。
以上の構成によれば、 射影空間における投影表面から奥行き方向に規定 長だけ隔てた投影面までに投影されるシルェッ 卜領域の共通部分を血管の 立体像として抽出するようにしたことにより、 血管の裏側を撮像できない ような状況下であっても、 血管の形状を高精度で生成し得る認証装置 1を 実現できる。
( 6 ) 他の実施の形態
上述の実施の形態においては、 撮像対象として、 生体内方における血管 を適用した場合について述べたが、 本発明はこれに限らず、 例えば、 神経 や、 生体の表'面における指紋又は顔面等を適用するようにしてもよく、 ま た生体以外の物体を適用する.こともできる。 なお、 適用される撮像対象に 応じて、 浮き彫り処理を適宜省略することができる。
また神経や血管等の生体内方の撮像対象を適用する場合、 生体部位とし て、 上述の実施の形態では、 指を適用するようにした場合について述べた が、 本発明はこれに限らず、 例えば、 掌、 足指、 腕、. 目又は腕等の部位を 適用することができる。
また上述の実施の形態においては、 画像の視点位置からその画像に映し 出される物体を射,影空間にそれぞれ投影した場合に該射影空間に投影され る投影領域の検出対象を固定としたが、 本発明は、 可変するようにしても よい。
すなわち、 上述の実施の形態では、 射影空間における投影表面から奥行 き方向に対する投影長を表す値 (固定値) を R O Mに記憶したが、 これに 代えて、 例えば、 体脂肪率と、 投影長を表す値との対応付け表す情報を記 憶する。
制御部 1 0は、 最初に入力される画像 (基準画像) のシルェッ ト領域を 検出する前に (図 1 3 : ステップ S P 2 ) 、 撮像対象のユーザにおける体 脂肪率の入力を通知部 1 5を介して指示する。 そして制御部 1 0は、 操作 部 1 1から入力される体脂肪率を検出し、 該検出した体脂肪率に応じた値 を設定することにより、 投影長を切り換える。 ,
このようにすれば、 ポクセル空間における投影表面から奥行き方向に規 定長だけ隔てた投影面までに投影されるシルエツ ト領域を検出する場合、 体脂肪率が多いほど映し出され難くなる傾向にある血管を、 該体脂肪率の 個人差にかかわらず一律に、 指表面から指内方における撮像対象 (血管.) までの深度に対応する領域に着目して視体積を求めることが可能となるた め、 実際の血管を一段と忠実に反映した形状を表出しすることができる。 なお、 撮像対象のユーザの体脂肪率を入力させることに代えて、 身長、 体重及び年齢等の生体に関する情報を入力させ、 当該入力される情報から 体脂肪率を求めるようにしてもよい。 設定値との対応付けは、 体脂肪率以 外にも、 指径及び体重等、 種々のものを適用することができる。
また例えば、 射影空間における投影表面から奥行き方向に対する投影長 を表す値に代えて、 視点と、 投影長を表す値との対応付け表す情報を R 0 Mに記憶する。 制御部 1 0は、 最初に入力される画像 (基準画像).のシル ェヅ ト領域を検出する前に (図 1 3 : ステップ S P 2 ) 、 血管画像に映し 出される指輪郭の指幅や、 指画像に映し出される指輪郭内の情報等から血 管画像に対応する視点を検出し、 当該検出した視点に応じた値を設定する ことにより、 投影長を切り換える。
このようにすれば、 ポクセル空間における投影表面から奥行き方向に規 定長だけ隔てた投影面までに投影されるシルェッ ト領域を検出する場合、 指背側と指腹側とでは指表面からの血管が存在する位置までの深度に応じ だ投影長に設定することができるようになるため、 実際の血管を一段と忠 実に反映した形状を表出しすることができる。
このように、 最初に入力される画像 (基準画像) のシルエツ ト領域を検 出する前に、 撮像対象に関する情報を検出し、 該検出した情報に対応付け られた規定長を設定する設定ステツプを設け、 射影空間における投影表面 から、 奥行き方向に対して設定ステツプで設定された規定長だけ隔てた投 影面までに投影される投影領域を検出することによって、 血管の形状をよ り一段と高精度で生成することが可能となる。
さらに上述の実施の形態においては、 R O Mに格納されたプログラムに 基づいて、 血管登録モード及び認証モードを実行するようにした場合につ いて述べたが、 本発明はこれに限らず、 C D ( Compact Disc )、 D V D ( Digital Versat i le Disc )、 半導体メモリ等のプログラム格納媒体からィ ンス トールし、 又はインターネッ ト上のプログラム提供サーバからダウン ロードすることにより取得したプログラムに基づいて、 血管登録モード及 び認証モードを実行するようにしてもよい。
さらに上述の実施の形態においては、 登録処理及び認証処理を制御部 1 0が実行するようにした場合について述べたが、 本発明はこれに限らず、 これら処理の一部をグラフィ ックスワークステ一ションで実行するように してもよい。
さらに上述の実施の形態においては、 撮像機能、 照合機能及び登録機能 を有する認証装置 1を適用するようにした場合について述べたが、 本発明 はこれに限らず、 当該用途に応じて、 機能ごとに又は各機能の一部を単体 の装置に分けた態様で適用するようにしてもよい。 産業上の利用可能性
本発明は、 バイオメ ト リクス認証する分野に利用可能である。

Claims

1 . 物体周囲から撮像される複数の画像ごとに、 上記画像の視点位置から 上記画像に映し出される物体を射影空間にそれぞれ投影した場合に該射影 空間における投影表面から寒行き方向に規定長だけ隔てた投影面までに投 影される投影領域を、 それぞれ検出する第 1のステップと、
検出された各上記投影領域のうち、 共通となる部分を抽出する第 2のス テツプと
を具えることを特徴とする物体形状の生成方法。
2 . 上記画像から、 当該画像の前に撮像される画像に映し出される物体の 回転方向における移動量を算出する算出ステ囲ツプ
を具え、
上記第 1のステヅプでは、
基準画像に対する、 検出対象の画像の回転角を、 当該基準画像及び検出 対象の画像の上記移動量から め、 基準画像の視点に対して上記回転角を なす視点位置から上記検出対象の画像に映し出される物体を射影空間に投 影した場合に、 該射影空間に投影される上記投影領域を検出する
ことを特徴とする請求項 1に記載の物体形状生成方法。
3 . 上記画像から、 当該画像の前に撮像される画像に映し出される物体の 回転方向と直交する方向における移動量を算出する算出ステツプ
を具え.、
上記第 1のステップでは、
上記画像の視点位置を、 上記移動量だけ補正方向に位置補正する ことを特徴とする請求項 1に記載の物体形状生成方法。
4 . 撮像対象に関する情報を検出し、 該検出した情報に対応付けられた規 定長を設定する設定ステップ
を具え、 上記第 1のステップでは、
上記射影空間における投影表面から、 奥行き方向に対して上記設定ステ ップで設定された規定長だけ隔てた投影面までに投影される投影領域を、 それぞれ検出する
ことを特徴とする請求項 1に記載の物体形状生成方法。
5 . ワークメモリと、
上記ワークメモリで画像処理を実行する画像処理部と
を具え、
上記画像処理部は、
物体周囲から撮像される複数の画像ごとに、 上記画像の視点位置から上 記画像に映し出される物体を射影空間にそれぞれ投影した場合に該射影空 間における投影表面から奥行き方向に規定長だけ隔てた投影面までに投影 される投影領域をそれぞれ検出し、 検出した各投影領域のうち、 共通とな る部分を抽出する
ことを特徴とする物体形状生成装置。
6 . ワークメモリを制御する制御部に対して、
物体周囲から撮像される複数の画像ごとに、 上記画像の視点位置から上 記画像に映し出される物体を射影空間にそれぞれ投影した場合に該射影空 間における投影表面から奥行き方向に規定長だけ隔てた投影面までに投影 される投影領域をそれぞれ検出すること、
検出された各上記投影領域のうち、 共通となる部分を抽出すること を実行させることを特徴とするプログラム。
PCT/JP2008/052908 2007-02-16 2008-02-14 物体形状生成方法、物体形状生成装置及びプログラム WO2008099963A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2008800053389A CN101617338B (zh) 2007-02-16 2008-02-14 物体形状生成方法、物体形状生成设备及程序
US12/527,290 US8780116B2 (en) 2007-02-16 2008-02-14 Object-shape generation method, object-shape generation apparatus, and program
EP08711697.6A EP2120206A4 (en) 2007-02-16 2008-02-14 METHOD FOR PRODUCING OBJECT FORMS, DEVICE FOR GENERATING OBJECT FORMS AND CORRESPONDING PROGRAM
KR1020097016961A KR20090110348A (ko) 2007-02-16 2008-02-14 물체 형상 생성 방법, 물체 형상 생성 장치 및 프로그램

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007-036766 2007-02-16
JP2007036766A JP2008203995A (ja) 2007-02-16 2007-02-16 物体形状生成方法、物体形状生成装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2008099963A1 true WO2008099963A1 (ja) 2008-08-21

Family

ID=39690183

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/052908 WO2008099963A1 (ja) 2007-02-16 2008-02-14 物体形状生成方法、物体形状生成装置及びプログラム

Country Status (6)

Country Link
US (1) US8780116B2 (ja)
EP (1) EP2120206A4 (ja)
JP (1) JP2008203995A (ja)
KR (1) KR20090110348A (ja)
CN (1) CN101617338B (ja)
WO (1) WO2008099963A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2939900A1 (fr) * 2008-12-17 2010-06-18 Sagem Defense Securite Dispositif d'hybridation en boucle fermee integre par construction.
JP5529568B2 (ja) * 2010-02-05 2014-06-25 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
JP2015049551A (ja) * 2013-08-30 2015-03-16 日立オムロンターミナルソリューションズ株式会社 生体認証装置
JP6838912B2 (ja) * 2016-09-29 2021-03-03 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243941A (ja) * 1997-03-05 1998-09-14 Toshiba Corp 画像再構成処理装置
JP2000152938A (ja) * 1998-04-23 2000-06-06 General Electric Co <Ge> 物体ボリュ―ムをイメ―ジングするシステム及び方法
JP2002175529A (ja) 2000-12-06 2002-06-21 Matsushita Electric Ind Co Ltd 個人識別装置
JP2003067726A (ja) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2007000219A (ja) * 2005-06-22 2007-01-11 Hitachi Ltd 個人認証装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858128A (en) * 1986-08-11 1989-08-15 General Electric Company View-to-view image correction for object motion
JP2001273497A (ja) * 2000-03-27 2001-10-05 Sanyo Electric Co Ltd 個人識別装置
US6914601B2 (en) * 2001-06-12 2005-07-05 Minolta Co., Ltd. Method, apparatus, and computer program for generating three-dimensional shape data or volume data
JP2002366935A (ja) * 2001-06-12 2002-12-20 Minolta Co Ltd ボリュームデータの生成方法および装置並びにコンピュータプログラム
JP2004070792A (ja) * 2002-08-08 2004-03-04 Telecommunication Advancement Organization Of Japan ボクセルデータ符号化方式
DE102004041115A1 (de) * 2004-08-24 2006-03-09 Tbs Holding Ag Verfahren und Anordnung zur Erfassung biometrischer Daten
US7756324B2 (en) * 2004-11-24 2010-07-13 Kabushiki Kaisha Toshiba 3-dimensional image processing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243941A (ja) * 1997-03-05 1998-09-14 Toshiba Corp 画像再構成処理装置
JP2000152938A (ja) * 1998-04-23 2000-06-06 General Electric Co <Ge> 物体ボリュ―ムをイメ―ジングするシステム及び方法
JP2002175529A (ja) 2000-12-06 2002-06-21 Matsushita Electric Ind Co Ltd 個人識別装置
JP2003067726A (ja) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2007000219A (ja) * 2005-06-22 2007-01-11 Hitachi Ltd 個人認証装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2120206A4

Also Published As

Publication number Publication date
JP2008203995A (ja) 2008-09-04
CN101617338B (zh) 2012-09-05
EP2120206A4 (en) 2013-08-07
US20100073378A1 (en) 2010-03-25
CN101617338A (zh) 2009-12-30
EP2120206A1 (en) 2009-11-18
KR20090110348A (ko) 2009-10-21
US8780116B2 (en) 2014-07-15

Similar Documents

Publication Publication Date Title
JP5061645B2 (ja) 情報抽出方法、情報抽出装置、プログラム、登録装置及び照合装置
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
KR20180072734A (ko) 눈 피처들을 사용한 눈 포즈 식별
US20110164792A1 (en) Facial recognition apparatus, method and computer-readable medium
EP2339507B1 (en) Head detection and localisation method
JP2001101429A (ja) 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
KR101444538B1 (ko) 3차원 얼굴 인식 시스템 및 그의 얼굴 인식 방법
US10909363B2 (en) Image acquisition system for off-axis eye images
WO2012147027A1 (en) Face location detection
WO2008099963A1 (ja) 物体形状生成方法、物体形状生成装置及びプログラム
Benalcazar et al. A 3D iris scanner from multiple 2D visible light images
WO2008105545A1 (ja) 情報抽出方法、登録装置、照合装置及びプログラム
JP2004126738A (ja) 3次元計測を用いた個人認証装置および認証方法
JP4636338B2 (ja) 表面抽出方法、表面抽出装置及びプログラム
Kayal et al. Use of Kinect in a Multicamera setup for action recognition applications
Man et al. 3D gaze estimation based on facial feature tracking
JPH04370703A (ja) 三次元物体の検出方法及び装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880005338.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08711697

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008711697

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 4140/CHENP/2009

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12527290

Country of ref document: US

Ref document number: 1020097016961

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE