JP2008010006A - Photographing device, personal identification method, and photographing method - Google Patents

Photographing device, personal identification method, and photographing method Download PDF

Info

Publication number
JP2008010006A
JP2008010006A JP2007204710A JP2007204710A JP2008010006A JP 2008010006 A JP2008010006 A JP 2008010006A JP 2007204710 A JP2007204710 A JP 2007204710A JP 2007204710 A JP2007204710 A JP 2007204710A JP 2008010006 A JP2008010006 A JP 2008010006A
Authority
JP
Japan
Prior art keywords
photographing
individual
exposure time
body image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007204710A
Other languages
Japanese (ja)
Inventor
Takayuki Sugiura
隆之 杉浦
Shuji Kimura
修治 木村
Atsushi Miki
敦司 三木
Satoshi Fukui
智 福井
Seiji Chinzei
清司 鎮西
Mieko Nakano
三枝子 仲埜
Naoyuki Fujimoto
尚之 藤本
Mitsuhiro Goto
光宏 後藤
Toshio Endo
利生 遠藤
Takahiro Aoki
隆浩 青木
Mitsuaki Fukuda
充昭 福田
Masanori Watanabe
正規 渡辺
Shigeru Sasaki
繁 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2007204710A priority Critical patent/JP2008010006A/en
Publication of JP2008010006A publication Critical patent/JP2008010006A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform photographing according to features of each person for more accurately identifying the person. <P>SOLUTION: The photographing device 1 is provided with a distance exposure storage part 204 storing a first body image photograph conditions such as a photographing distance and an exposure time in association with a personal ID for each person, a photograph controlling part 201 photographing an identification target based on the photograph conditions corresponding to an inputted ID for acquiring a second body image of the identification target, a halation determination part 206 determining whether an area of a halation part of the acquired second body image is larger than a predetermined area or not, and a corrected exposure time calculation means calculating a corrected exposure time so that the halation part area is smaller than the predetermined area when it is determined that the halation part area is larger. The photograph controlling part 201 carries out photographing again by using the calculated corrected exposure time. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、個人の特徴が現れた画像を取得するための撮影装置および当該撮影装置を用いた個人識別システムに関する。   The present invention relates to a photographing apparatus for acquiring an image in which personal features appear and a personal identification system using the photographing apparatus.

従来より、人間の身体的特徴に基づいて個人を識別し本人であるか否かを判別する技術が提案されている。   Conventionally, there has been proposed a technique for identifying an individual based on a human physical characteristic and determining whether or not the person is the person himself / herself.

しかし、照明と撮影とを組み合わせた個人識別の場合、個人ごとに皮膚の厚さや色が異なるなどの特徴の差異があるので、撮影によって得られた画像に明度の高すぎる個所(いわゆる白飛び)が生じてしまう場合がある。そうすると、個人の識別が上手くできないことがある。   However, in the case of personal identification that combines lighting and shooting, there are differences in features such as the thickness and color of the skin differing from person to person, so the image obtained by shooting is too bright (so-called whiteout). May occur. In that case, identification of individuals may not be successful.

本発明は、このような問題点に鑑み、個人ごとの特徴に合わせて撮影を行い、より正確に個人の識別を行うことができるようにすることを目的とする。   In view of such problems, it is an object of the present invention to perform photographing according to the characteristics of each individual and to identify the individual more accurately.

本発明に係る撮影装置は、個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第二の身体画像を取得するための撮影を行う撮影装置であって、個人ごとに、前記第一の身体画像を取得するために当該個人の身体の撮影を行った際の撮影条件を当該個人に発行されたIDと対応付けて記憶する撮影条件記憶手段と、前記識別の対象となる個人の前記IDを入力する入力手段と、前記識別の対象となる個人の前記第二の身体画像を取得するために、入力された前記IDに対応する前記撮影条件に基づいて当該個人の身体の撮影を行う撮影手段と、を有してなる。   The imaging apparatus according to the present invention performs identification of a person by collating a first body image acquired by imaging in advance with a second body image acquired by imaging when performing the identification. In addition, an imaging device that performs imaging for acquiring the second body image, and for each individual, imaging conditions when imaging the body of the individual to acquire the first body image Is stored in association with the ID issued to the individual, input means for inputting the ID of the individual to be identified, and the second body of the individual to be identified In order to acquire an image, it has an imaging means for imaging the body of the individual based on the imaging condition corresponding to the input ID.

または、個人の身体の撮影を行う撮影手段と、前記撮影手段による撮影によって取得した個人の前記第一の身体画像と、当該撮影の際の撮影条件とを、当該個人に発行されたIDと対応付けて記憶手段に対して出力する出力手段と、を有してなる。   Alternatively, an imaging unit for imaging an individual's body, the first body image of the individual acquired by imaging by the imaging unit, and an imaging condition at the time of the imaging correspond to an ID issued to the individual And output means for outputting to the storage means.

または、物体で反射した光を受光手段で結像させることによって当該物体の撮影を行う撮影装置であって、前記撮影によって取得された画像の全部または一部分の領域のうち、所定の値よりも明度が大きい部分である白飛び部分が所定の面積よりも大きいか否かを判別する判別手段と、前記判別手段によって前記白飛び部分が前記所定の面積よりも大きいと判別された場合に、露出時間を前記白飛び部分の面積が大きいほど短くなるように補正して、前記撮影をやり直すように制御する撮影制御手段と、を有してなる。   Alternatively, an imaging device that takes an image of the object by forming an image of light reflected by the object with a light receiving means, and has a brightness that is higher than a predetermined value in a region of all or a part of the image acquired by the imaging A determining means for determining whether or not a whiteout portion, which is a large portion, is larger than a predetermined area; and an exposure time when the determining means determines that the whiteout portion is larger than the predetermined area. Photographing control means for correcting the image so that the larger the area of the whiteout portion is, the shorter the area is, and controlling the photographing again.

または、前記判別手段によって前記白飛び部分の面積が前記所定の面積よりも大きいと判別された場合に、露出時間を前記白飛び部分の面積が大きいほど短くなるように補正することによって前記白飛び部分の面積が前記所定の面積よりも小さくなるような露出時間である補正露出時間を算出する補正露出時間算出手段と、前記補正露出時間算出手段によって算出された前記補正露出時間を、前記物体を識別するIDと対応付けて記憶する補正露出時間記憶手段と、前記IDを入力する入力手段と、入力された前記IDに対応する前記補正露出時間で前記撮影をやり直すように制御する撮影制御手段と、撮影のやり直しによって取得された画像を撮影結果として出力する出力手段と、を有してなる。   Alternatively, when it is determined by the determining means that the area of the whiteout portion is larger than the predetermined area, the exposure time is corrected so as to be shorter as the area of the whiteout portion is larger. A corrected exposure time calculating means for calculating a corrected exposure time that is an exposure time such that the area of the portion is smaller than the predetermined area; and the corrected exposure time calculated by the corrected exposure time calculating means Corrected exposure time storage means for storing in association with the ID to be identified, input means for inputting the ID, and imaging control means for controlling the imaging to be performed again with the corrected exposure time corresponding to the input ID. And an output means for outputting an image acquired by re-taking the shooting as a shooting result.

本発明に係る個人識別システムは、個人の識別を行う個人識別システムであって、個人ごとに、予め当該個人の身体の撮影を行うことによって取得しておいた第一の身体画像と当該撮影の際の撮影条件とを当該個人に発行されたIDと対応付けて記憶する記憶手段に対して、前記第一の身体画像と前記撮影条件とを出力する出力手段と、前記識別の対象となる個人の前記IDを入力する入力手段と、前記識別を行う際に、当該識別の対象となる個人の第二の身体画像を取得するために、前記入力手段によって入力された当該個人の前記IDに対応する前記撮影条件に基づいて当該個人の身体の撮影を行う撮影手段と、前記識別の対象となる個人の前記IDに対応する前記第一の身体画像と前記撮影手段による撮影によって取得された当該個人の前記第二の身体画像とを照合することによって、当該個人が本人であるか否かを識別する識別手段と、を有してなる。   The personal identification system according to the present invention is a personal identification system for identifying an individual, and for each individual, the first body image obtained by photographing the body of the individual in advance and the photographing Output means for outputting the first body image and the photographing condition to a storage means for storing the photographing condition in association with the ID issued to the individual, and the individual to be identified Corresponding to the ID of the person input by the input means in order to obtain the second body image of the person who is the object of identification when performing the identification A photographing means for photographing the body of the person based on the photographing conditions, the first body image corresponding to the ID of the individual to be identified, and the individual obtained by photographing by the photographing means By matching said second body image, the individual is a, and identifying means for identifying whether a person.

好ましくは、前記記憶手段は、個人ごとに前記第一の身体画像を取得するための撮影の際の撮影距離を当該個人の前記IDと対応付けて記憶し、前記識別手段は、前記記憶手段に記憶されている前記識別の対象となる個人の前記IDに対応する撮影距離と、前記第二の身体画像を取得するための撮影の際の撮影距離と、を照合することによって、当該個人が本人であるか否かを識別する。   Preferably, the storage unit stores an imaging distance at the time of imaging for acquiring the first body image for each individual in association with the ID of the individual, and the identification unit stores in the storage unit By comparing the stored shooting distance corresponding to the ID of the individual to be identified and the shooting distance at the time of shooting for acquiring the second body image, the individual is himself / herself. Or not.

添付の図面に従って、本発明をより詳細に説明する。   The present invention will be described in more detail with reference to the accompanying drawings.

図1は撮影装置1の全体の構成を示す斜視図、図2は撮影装置1の中央付近の断面側面図、図3は左頬の撮影の状況の例を示す図、図4はユーザ識別システム100の例を示す図、図5は撮影装置の機能的構成の例を示すブロック図、図6は測距センサ27の出力値と実際の距離との関係を示す図である。   1 is a perspective view showing the overall configuration of the photographing apparatus 1, FIG. 2 is a cross-sectional side view near the center of the photographing apparatus 1, FIG. 3 is a diagram showing an example of the situation of photographing the left cheek, and FIG. FIG. 5 is a block diagram illustrating an example of a functional configuration of the photographing apparatus, and FIG. 6 is a diagram illustrating a relationship between an output value of the distance measuring sensor 27 and an actual distance.

本発明に係る撮影装置1は、図1および図2に示すように、撮影装置本体2および本体カバー3によって構成される。この撮影装置1は、人間の身体の一部分の血管のパターンを撮影するための装置である。撮影を行う際には、予め本体カバー3を撮影装置本体2の正面20aに取り付けておく。そして、例えば、人間の顔の左頬を撮影する場合は、図3に示すように、左頬を撮影装置1の正面に向け、左頬と撮影装置1の正面とが平行になる(つまり、撮影面である左頬が撮影方向の軸に対して垂直に交わる)ようにし、かつ、両者の距離が2cm〜9cmくらいになるようにした状態で、シャッタを切る。以下、人間の頬の血管のパターンを撮影する場合を例に説明する。   An imaging apparatus 1 according to the present invention includes an imaging apparatus main body 2 and a main body cover 3 as shown in FIGS. This imaging apparatus 1 is an apparatus for imaging a blood vessel pattern of a part of a human body. When photographing, the main body cover 3 is attached to the front surface 20a of the photographing apparatus main body 2 in advance. For example, when photographing the left cheek of a human face, as shown in FIG. 3, the left cheek is directed to the front of the photographing apparatus 1 and the left cheek and the front of the photographing apparatus 1 are parallel (that is, The left cheek, which is the photographing surface, intersects perpendicularly to the photographing direction axis) and the distance between them is about 2 cm to 9 cm. Hereinafter, a case where a blood vessel pattern of a human cheek is photographed will be described as an example.

撮影装置本体2は、ケーシング(筐体)20、撮像部21、回路基板22、照射部23、インタフェース24、シャッタボタン25、測距センサ(距離センサ)27、およびランプ28などによって構成される。撮影装置本体2は、インタフェース24を介して、図4に示すようにパーソナルコンピュータ6に接続することができる。   The imaging device main body 2 includes a casing (housing) 20, an imaging unit 21, a circuit board 22, an irradiation unit 23, an interface 24, a shutter button 25, a distance measuring sensor (distance sensor) 27, a lamp 28, and the like. The photographing apparatus main body 2 can be connected to the personal computer 6 through the interface 24 as shown in FIG.

ケーシング20は、箱のような形状をしており、正面20aは開放されている。   The casing 20 has a box-like shape, and the front surface 20a is open.

撮像部21は、レンズ211およびイメージセンサ212などによって構成される。イメージセンサ212として、例えば、CCDタイプのイメージセンサやCMOSタイプのイメージセンサが用いられる。   The imaging unit 21 includes a lens 211, an image sensor 212, and the like. As the image sensor 212, for example, a CCD type image sensor or a CMOS type image sensor is used.

回路基板22には、後に説明する撮影装置1の各部の制御およびD/A変換などを行うための制御回路、コンピュータプログラム(ファームウェア)およびデータなどが格納されたROM、RAM、およびCPUなどが設けられている。CPUは、パーソナルコンピュータ6またはシャッタボタン25からの指令、コンピュータプログラム、またはデータなどに基づいて演算処理を行う。このような構成によって、撮影装置1には、図5に示すような撮影制御部201、画像処理部202、撮影条件記憶部203、距離露出記憶部204、距離算出部205、白飛び判別部206、およびLED駆動部261、262などの機能が実現される。   The circuit board 22 is provided with a control circuit for performing control and D / A conversion of each part of the photographing apparatus 1 to be described later, a ROM, a RAM, a CPU, and the like storing computer programs (firmware) and data. It has been. The CPU performs arithmetic processing based on a command from the personal computer 6 or the shutter button 25, a computer program, data, or the like. With such a configuration, the photographing apparatus 1 includes a photographing control unit 201, an image processing unit 202, a photographing condition storage unit 203, a distance exposure storage unit 204, a distance calculation unit 205, and a whiteout determination unit 206 as illustrated in FIG. , And the functions of the LED drive units 261 and 262 are realized.

照射部23は、光源としてLEDを有する。これらのLEDとして、赤外線を発光するものが用いられる。   The irradiation part 23 has LED as a light source. As these LEDs, those emitting infrared rays are used.

これらのLEDに供給する電流は、インタフェース24を介してパーソナルコンピュータ6より得られる。インタフェースとしてUSBを用いるとパーソナルコンピュータ6と通信をした上で電流を得ることができる。   The current supplied to these LEDs is obtained from the personal computer 6 via the interface 24. When USB is used as an interface, current can be obtained after communication with the personal computer 6.

図1および図2に戻って、本体カバー3は、合成樹脂板またはガラス板などからなるフィルタ板31および合成樹脂板などからなるレンズカバー32によって構成される。本体カバー3は、図示しないねじなどによってケーシング20の正面20aに取り付けられる。フィルタ板31として、例えば、可視光線およびそれよりも波長の短い光(すなわち、およそ800nm以下の光)をカットし、かつ、赤外線を透過させる、という性質の材料が用いられる。   Returning to FIGS. 1 and 2, the main body cover 3 includes a filter plate 31 made of a synthetic resin plate or a glass plate and a lens cover 32 made of a synthetic resin plate. The main body cover 3 is attached to the front surface 20a of the casing 20 by screws or the like (not shown). As the filter plate 31, for example, a material having a property of cutting visible light and light having a shorter wavelength than that (that is, light having a wavelength of about 800 nm or less) and transmitting infrared light is used.

測距センサ27は、撮影方向に向けて取り付けられており、測距センサ27自身と撮影の対象つまり被写体との距離を計測し、後に説明するユーザの識別処理のために用いられる。測距センサ27として、光学式または超音波式などの測距センサ(距離センサ)が用いられる。   The distance measuring sensor 27 is attached in the photographing direction, measures the distance between the distance measuring sensor 27 itself and the object to be imaged, that is, the subject, and is used for user identification processing described later. As the distance measuring sensor 27, an optical or ultrasonic distance measuring sensor (distance sensor) is used.

測距センサ27と撮影装置1の各部との位置関係は予め分かっているので、測距センサ27によって求められた距離に基づいて、撮影装置1の各部から被写体までの距離も求められる。本実施形態では、被写体までの距離の基準を本体カバー3の正面3cと定めている。つまり、撮影装置1から被写体までの距離とは、本体カバー3の正面3cから被写体までの距離であると定義している。   Since the positional relationship between the distance measuring sensor 27 and each part of the photographing apparatus 1 is known in advance, the distance from each part of the photographing apparatus 1 to the subject is also obtained based on the distance obtained by the distance measuring sensor 27. In the present embodiment, the reference for the distance to the subject is defined as the front surface 3 c of the main body cover 3. That is, the distance from the photographing device 1 to the subject is defined as the distance from the front surface 3c of the main body cover 3 to the subject.

測距センサ27は、被写体である頬が撮影装置1から数cm離れた位置にある場合において(図3参照)、例えば耳の付け根付近、頬骨の先端付近(目尻の下の付近)、および口尻付近の3点についての距離が計測可能なように設定されている。   When the cheek, which is the subject, is located a few centimeters away from the imaging device 1 (see FIG. 3), the distance measuring sensor 27 is, for example, near the base of the ear, near the tip of the cheekbone (near the corner of the eye corner) It is set so that the distances at three points near the bottom can be measured.

撮影装置1から被写体の1点までの距離は、具体的には、次のような方法によって最終的に求められる。測距センサ27は、被写体の表面(撮影面)の1点との距離の計測結果として、8ビットつまり256階調の計測値を出力する。   Specifically, the distance from the photographing apparatus 1 to one point of the subject is finally obtained by the following method. The distance measuring sensor 27 outputs a measurement value of 8 bits, that is, 256 gradations, as a measurement result of the distance to one point on the surface (photographing surface) of the subject.

計測値(出力値)と実際の距離との対応関係は被写体の種類によってそれぞれ若干異なるが、計測値が大きいほど被写体までの実際の距離は短くなる傾向がある。例えば、人間の身体の表面を計測した場合の計測値と実際の距離との関係は、図6に示す関数「D=F(x)」のようになる。係る関数は、撮影装置1と頬との距離を少しずつ変えながら実際に計測を行って得られたものである。そして、計測値を被写体の種類に応じた関数に代入することによって、撮影装置1から被写体の1点までの距離が求められる。   Although the correspondence between the measured value (output value) and the actual distance varies slightly depending on the type of subject, the actual distance to the subject tends to be shorter as the measured value is larger. For example, the relationship between the measured value and the actual distance when the surface of the human body is measured is as shown in the function “D = F (x)” shown in FIG. Such a function is obtained by actually performing measurement while gradually changing the distance between the photographing apparatus 1 and the cheek. Then, by substituting the measured value into a function corresponding to the type of the subject, the distance from the photographing apparatus 1 to one point of the subject is obtained.

図5の距離算出部205は、上に述べた方法により、つまり、図6に示す関数および頬の3点についての計測値(出力値)に基づいて、撮影装置1から頬の3点までの距離を算出する。そして、これらの距離の平均を、撮影装置1から被写体までの距離とする。このようにして得られた距離の値は、距離情報70として撮影制御部201および白飛び判別部206に与えられる。   The distance calculation unit 205 in FIG. 5 uses the above-described method, that is, based on the function shown in FIG. 6 and the measurement values (output values) for the three cheek points, from the imaging device 1 to the three cheek points. Calculate the distance. The average of these distances is taken as the distance from the photographing apparatus 1 to the subject. The distance value obtained in this way is provided as distance information 70 to the imaging control unit 201 and the whiteout determination unit 206.

撮影制御部201は、シャッタボタン25が押されシャッタが切られた瞬間に、LED51a〜51d、52a〜52dへの電流の供給を開始するようにLED駆動部261、262に対して指令する。そして、露出時間に併せて電流の供給を止めるように指令する。これにより、各LEDは、シャッタおよびシャッタ速度(露出時間)と同期して発光する。なお、シャッタを切る指令は、シャッタボタン25の代わりにパーソナルコンピュータ6によって行われるようにしてもよい。   The imaging control unit 201 instructs the LED driving units 261 and 262 to start supplying current to the LEDs 51a to 51d and 52a to 52d at the moment when the shutter button 25 is pressed and the shutter is released. Then, it instructs to stop the supply of current in accordance with the exposure time. Thereby, each LED emits light in synchronization with the shutter and shutter speed (exposure time). The instruction to release the shutter may be issued by the personal computer 6 instead of the shutter button 25.

シャッタが切られて各LEDが発光すると、その光は、被写体である頬に照射される。ただし、可視光線などはフィルタ板31(図1、図2参照)によってカットされるので、赤外線のみが被写体に照射される。一般に、人間または動物の血管は、赤外線を吸収する性質がある。よって、頬の表面のうち、皮下に血管のある部分は照射された赤外線をあまり反射しないが、血管のない部分はよく反射する。   When the shutter is released and each LED emits light, the light is applied to the cheek that is the subject. However, since visible light or the like is cut by the filter plate 31 (see FIGS. 1 and 2), only the infrared ray is irradiated to the subject. Generally, human or animal blood vessels have a property of absorbing infrared rays. Therefore, the portion of the cheek surface that has blood vessels under the skin does not reflect the irradiated infrared rays very much, but the portion without blood vessels reflects well.

被写体からの反射光は、フィルタ板31を透過してケーシング20の中に入り、レンズ211によってイメージセンサ212上に結像する。イメージセンサ212は、これを信号化することによって撮像データを生成する。画像処理部202は、この撮像データに画像処理を施すことによって、頬の血管のパターンの画像を生成する。なお、画像処理は、パーソナルコンピュータ6で行うように構成してもよい。   Reflected light from the subject passes through the filter plate 31 and enters the casing 20, and forms an image on the image sensor 212 by the lens 211. The image sensor 212 generates imaging data by converting it into a signal. The image processing unit 202 performs image processing on the imaging data to generate an image of a cheek blood vessel pattern. Note that the image processing may be performed by the personal computer 6.

シャッタは、レンズシャッタまたはスクリーンシャッタのようなメカ的なシャッタ、液晶シャッタのような光学的なシャッタなどを用いることが可能である。また、例えば、撮影の指令に同期してイメージセンサ212による電荷の蓄積を開始し、露出時間経過後に蓄積を終了し、蓄積した電荷を読み出すように構成してもよい。つまり、このように構成した場合の露出時間とは、電荷の蓄積時間を意味する。または、これらのメカ的、光学的、または電気的なシャッタを組み合わせてもよい。   As the shutter, a mechanical shutter such as a lens shutter or a screen shutter, an optical shutter such as a liquid crystal shutter, and the like can be used. Further, for example, it may be configured such that accumulation of electric charges by the image sensor 212 is started in synchronization with a photographing command, accumulation is terminated after the exposure time has elapsed, and the accumulated electric charges are read out. In other words, the exposure time in such a configuration means the charge accumulation time. Alternatively, these mechanical, optical, or electrical shutters may be combined.

〔露出自動制御機能〕
図7は露出自動制御機能を用いた場合の撮影の処理の流れの例を説明するフローチャート、図8は距離露出テーブルTL1の例を示す図、図9は頬画像FA1の例を示す図、図10は露出補正用テーブルTL2の例を示す図である。
(Automatic exposure control function)
FIG. 7 is a flowchart for explaining an example of the flow of photographing processing when the automatic exposure control function is used, FIG. 8 is a diagram showing an example of the distance exposure table TL1, and FIG. 9 is a diagram showing an example of the cheek image FA1. 10 shows an example of the exposure correction table TL2.

撮影装置1には、白飛びの発生を抑えるために、被写体となる個人(以下、「ユーザ」と記載することがある。)ごとに露出(露光)の時間を自動制御する機能(以下、「露出自動制御機能」と記載する。)が設けられている。次に、係る機能の内容および処理手順を、図7に示すフローチャートを参照して説明する。   The photographing apparatus 1 has a function (hereinafter, “exposure”) for automatically controlling exposure (exposure) time for each individual (hereinafter, sometimes referred to as “user”) as a subject in order to suppress occurrence of whiteout. "Automatic exposure control function") is provided. Next, the contents and processing procedures of such functions will be described with reference to the flowchart shown in FIG.

図5に示す距離露出記憶部204には、距離露出テーブルTL1および露出補正用テーブルTL2(図10参照)が記憶されている。距離露出テーブルTL1には、図8に示すように撮影装置1と被写体との距離に応じた標準の露出時間が定められている。図8を見て分かるように、撮影装置1から被写体(頬)までの距離が長いほど、露出時間が長くなるように設定される。例えば、撮影装置1までの距離が2.5cmである場合は露出時間は80ms(ミリ秒)に設定され、8.5cmである場合は95msに設定される。   The distance exposure storage unit 204 shown in FIG. 5 stores a distance exposure table TL1 and an exposure correction table TL2 (see FIG. 10). In the distance exposure table TL1, a standard exposure time corresponding to the distance between the photographing apparatus 1 and the subject is determined as shown in FIG. As can be seen from FIG. 8, the exposure time is set to be longer as the distance from the photographing apparatus 1 to the subject (cheek) is longer. For example, when the distance to the photographing apparatus 1 is 2.5 cm, the exposure time is set to 80 ms (milliseconds), and when it is 8.5 cm, it is set to 95 ms.

なお、距離露出テーブルTL1の「ゲイン」とは、イメージセンサ212から画像処理部202に出力される出力信号S10の出力ゲインのことである。図5において、出力ゲインを調整するための調整信号S11は、距離露出テーブルTL1に基づいて撮影制御部201などから送られてくる。また、出力ゲインは手動により調整することも可能である。増幅器208は、出力信号S10を増幅する。増幅器208を省略することも可能である。増幅器208の増幅率を可変とし、調整信号S11によって増幅率を調整し、出力信号S10の出力ゲインを調整してもよい。その場合に、増幅器208をイメージセンサ212の内部に一体的に構成してもよい。なお、出力信号S10がディジタルデータである場合には、増幅器208に代えてデータ変換器などを用いてもよい。ここでは、出力ゲインは、距離に関わらず同じに設定されている。   The “gain” in the distance exposure table TL1 is an output gain of the output signal S10 output from the image sensor 212 to the image processing unit 202. In FIG. 5, the adjustment signal S11 for adjusting the output gain is sent from the imaging control unit 201 or the like based on the distance exposure table TL1. The output gain can also be adjusted manually. The amplifier 208 amplifies the output signal S10. The amplifier 208 can be omitted. The gain of the amplifier 208 may be variable, the gain may be adjusted by the adjustment signal S11, and the output gain of the output signal S10 may be adjusted. In that case, the amplifier 208 may be integrally formed inside the image sensor 212. If the output signal S10 is digital data, a data converter or the like may be used instead of the amplifier 208. Here, the output gain is set to be the same regardless of the distance.

図5の測距センサ(距離センサ)27および距離算出部205は、撮影を行う前に、撮影装置1と被写体であるユーザの頬との距離を計測し、距離情報70を取得する(図7の#10、#11)。計測後は、測距センサ27の発する光がLEDの発する光と干渉しないようにするために、測距センサ27を停止する(#12)。   The distance measurement sensor (distance sensor) 27 and the distance calculation unit 205 in FIG. 5 measure the distance between the imaging apparatus 1 and the user's cheek, which is the subject, before capturing, and acquire distance information 70 (FIG. 7). # 10, # 11). After the measurement, the distance measuring sensor 27 is stopped in order to prevent the light emitted from the distance measuring sensor 27 from interfering with the light emitted from the LED (# 12).

撮影制御部201は、距離情報70と距離露出テーブルTL1とに基づいて露出時間を算出する(#13)。そして、その露出時間でユーザの頬の撮影を行う(#15)。これにより、図9に示すような頬画像FA1が得られる。なお、図9では、説明の簡単のため、頬画像FA1に現れる皮膚下の血管のパターンの描写を省略し、その代わりに左頬の外観を描写している。実際の頬画像FA1には、血管のパターンが現れる。後に説明する図15の頬画像FA2についても同じである。   The imaging control unit 201 calculates the exposure time based on the distance information 70 and the distance exposure table TL1 (# 13). Then, the user's cheek is photographed with the exposure time (# 15). Thereby, a cheek image FA1 as shown in FIG. 9 is obtained. In FIG. 9, for the sake of simplicity, the depiction of the blood vessel pattern under the skin appearing in the cheek image FA <b> 1 is omitted, and the appearance of the left cheek is depicted instead. A blood vessel pattern appears in the actual cheek image FA1. The same applies to the cheek image FA2 of FIG. 15 described later.

白飛び判別部206は、得られた頬画像FA1に、どれくらいの白飛びが生じているかを判別する(#17、#18)。係る判別は、次のようにして行う。まず、頬画像FA1の所定の領域の画素の明度を求める。所定の領域とは、予め設定された頬画像FA1の全部または一部分の領域を意味する。図9の例では、7×5個の点線の丸で示す領域が、所定の領域である。各丸は、それぞれ、互いに離れた位置にある1つの画素を指している。つまり、図9の例では、7×5個の点在する画素が所定の領域である。   The whiteout determining unit 206 determines how much whiteout has occurred in the obtained cheek image FA1 (# 17, # 18). Such determination is performed as follows. First, the brightness of pixels in a predetermined area of the cheek image FA1 is obtained. The predetermined area means a whole or a partial area of the preset cheek image FA1. In the example of FIG. 9, a region indicated by 7 × 5 dotted circles is a predetermined region. Each circle indicates one pixel located at a position apart from each other. That is, in the example of FIG. 9, 7 × 5 scattered pixels are predetermined regions.

所定の領域に含まれるそれぞれの画素(つまり7×5個の丸が示す画素)について、その明度が所定の値よりも高いか否かを調べる。例えば、明度を0〜255の256階調で表した場合は、所定の値を「255」とする。イメージセンサ212の特性に応じて、「250」前後の値を所定の値としてもよい。   It is examined whether or not the brightness of each pixel included in the predetermined area (that is, the pixel indicated by 7 × 5 circles) is higher than a predetermined value. For example, when the lightness is expressed by 256 gradations of 0 to 255, the predetermined value is “255”. Depending on the characteristics of the image sensor 212, a value around “250” may be set as a predetermined value.

所定の領域の中の、所定の値よりも高い領域の面積を求める。各画素はそれぞれ同じ広さの面積を有しているので、領域の面積は、画素の数を数えることによって求められる。このようにして求められた面積または画素数が、白飛びの発生の度合いを表している。   The area of a predetermined region that is higher than a predetermined value is obtained. Since each pixel has the same area, the area of the region can be obtained by counting the number of pixels. The area or the number of pixels obtained in this way represents the degree of occurrence of whiteout.

図7に戻って、所定の値よりも高い画素の数が所定の数よりも少ない(例えば2未満である)場合は(#18でNo)、頬画像FA1には、露出時間の補正が必要となる程度の白飛びは生じていないと判別する。よって、今、撮影した頬画像FA1をそのまま撮影結果としてパーソナルコンピュータ6などに出力する。   Returning to FIG. 7, when the number of pixels higher than the predetermined value is smaller than the predetermined number (for example, less than 2) (No in # 18), the cheek image FA1 needs to be corrected for the exposure time. It is determined that no over-exposure occurs. Therefore, the imaged cheek image FA1 is directly output to the personal computer 6 or the like as the imaged result.

所定の数以上である場合は、(#18でYes)、頬画像FA1には、露出時間の補正が必要となる程度の白飛びが生じていると判別する。この場合は、白飛びを抑えるために露出時間を短くするための補正を行い(#19)、その露出時間でユーザの頬の撮影をやり直す(#15)。   If it is equal to or greater than the predetermined number (Yes in # 18), it is determined that the cheek image FA1 has whiteout that requires correction of the exposure time. In this case, correction for shortening the exposure time is performed in order to suppress overexposure (# 19), and the user's cheek is imaged again with the exposure time (# 15).

露出時間の補正は、白飛びの画素の数(白飛びの面積)、距離情報70、および露出補正用テーブルTL2に基づいて次のようにして行う。露出補正用テーブルTL2には、図10に示すように、撮影時の撮影装置1と被写体との距離Dおよび白飛びの画素の数Nに応じた、露出時間を補正するために加える調整値Gが定められている。   The exposure time is corrected as follows based on the number of whiteout pixels (area of whiteout), the distance information 70, and the exposure correction table TL2. In the exposure correction table TL2, as shown in FIG. 10, an adjustment value G added to correct the exposure time according to the distance D between the photographing apparatus 1 and the subject at the time of photographing and the number N of whiteout pixels. Is stipulated.

例えば、距離情報70に示される距離D=4、白飛びの画素の数N=3、である場合は、露出補正用テーブルTL2より、調整値G=−5、が得られる。この調整値Gを、直前に行った撮影時の露出時間に加算する。つまり、直前の露出時間=85であった場合は、5を減算し、露出時間=80に補正する。   For example, when the distance D = 4 indicated by the distance information 70 and the number N of whiteout pixels = 3, the adjustment value G = −5 is obtained from the exposure correction table TL2. This adjustment value G is added to the exposure time at the time of the last photographing. That is, when the previous exposure time = 85, 5 is subtracted and the exposure time is corrected to 80.

なお、このようにして得られた調整値Gが、露出補正用テーブルTL2の太線で示す枠の中に該当するものである場合は、露出時間を補正しても最適な撮影ができないことがある。よって、この場合は、撮影エラーとして撮影の処理を中止するようにしてもよい。そして、撮影装置1と被写体との距離を変更して、最初から撮影をやり直せばよい。   If the adjustment value G obtained in this way falls within the frame indicated by the thick line in the exposure correction table TL2, optimal shooting may not be possible even if the exposure time is corrected. . Therefore, in this case, the shooting process may be stopped as a shooting error. Then, the distance between the photographing apparatus 1 and the subject is changed, and photographing can be performed again from the beginning.

そして、図7に戻って、新たに得られた頬画像FA1について白飛びの判別を行い(#17、#18)、白飛びの画素が所定の数よりも少なくなっていれば(#18でNo)、その頬画像FA1を撮影結果としてパーソナルコンピュータ6などに出力する。所定の数以上である場合は、(#18でYes)、白飛びが少なくなるまで(ここでは2未満になるまで)撮影を繰り返す。ただし、撮影の回数をカウントしておき(#16)、撮影の回数が所定の数(例えば3回)を超えた場合は(#15でYes)、撮影不能であるとして撮影の処理を中止する。   Returning to FIG. 7, the newly obtained cheek image FA1 is determined to be overexposed (# 17, # 18), and if the overexposed pixel is smaller than the predetermined number (in # 18). No), the cheek image FA1 is output to the personal computer 6 or the like as a photographing result. If the number is equal to or greater than the predetermined number (Yes in # 18), photographing is repeated until the whiteout is reduced (here, less than 2). However, the number of times of photographing is counted (# 16), and if the number of times of photographing exceeds a predetermined number (for example, three times) (Yes in # 15), the photographing process is stopped because it is impossible to photograph. .

〔ユーザの識別処理〕
図11は磁気記憶装置6dに記憶されているプログラムおよびデータの例を示す図、図12は特徴情報データベース6DBの例を示す図、図13は特徴情報71および撮影条件情報72を登録するための処理の流れの例を説明する図、図14はユーザの識別処理の流れの例を説明するフローチャート、図15は頬画像FA2の例を示す図である。
[User identification processing]
11 is a diagram showing an example of programs and data stored in the magnetic storage device 6d, FIG. 12 is a diagram showing an example of the feature information database 6DB, and FIG. 13 is a diagram for registering the feature information 71 and the shooting condition information 72 FIG. 14 is a flowchart illustrating an example of the flow of user identification processing, and FIG. 15 is a diagram illustrating an example of a cheek image FA2.

個人(ユーザ)の識別を行うためのユーザ識別システム100を、撮影装置1およびパーソナルコンピュータ6によって構成することができる。以下、ユーザの識別処理について、図4のパーソナルコンピュータ6へのログオンを行う場合を例に説明する。   A user identification system 100 for identifying an individual (user) can be configured by the photographing apparatus 1 and the personal computer 6. Hereinafter, the user identification process will be described by taking as an example the case of logging on to the personal computer 6 of FIG.

パーソナルコンピュータ6の磁気記憶装置6dには、図11に示すように、特徴情報データベース6DBが記憶されている。この特徴情報データベース6DBには、図12に示すように、ユーザごとの特徴情報71(71a、71b、…)がそのユーザを識別するユーザIDと対応付けられて格納されている。パーソナルコンピュータ6の使用を希望するユーザは、特徴情報71および撮影条件情報72を自分のユーザIDと対応付けて予め特徴情報データベース6DBに登録(記憶)させておく必要がある。   The magnetic storage device 6d of the personal computer 6 stores a feature information database 6DB as shown in FIG. In the feature information database 6DB, as shown in FIG. 12, feature information 71 (71a, 71b,...) For each user is stored in association with a user ID for identifying the user. A user who wishes to use the personal computer 6 needs to register (store) the feature information 71 and the shooting condition information 72 in advance in the feature information database 6DB in association with his / her user ID.

特徴情報71は、ユーザの身体や癖などの特徴に関する情報である。本実施形態では、特徴情報71として、左頬の血管のパターンに関する情報が用いられる。撮影条件情報72は、ユーザにとっての、左頬の血管のパターンの画像を撮影する際の最適な撮影条件を示すものである。   The feature information 71 is information related to features such as the user's body and wrinkles. In the present embodiment, information regarding the left cheek blood vessel pattern is used as the feature information 71. The photographing condition information 72 indicates the optimum photographing condition for photographing a blood vessel pattern image on the left cheek for the user.

特徴情報71および撮影条件情報72の登録は、図13に示すような手順で行う。まず、ユーザは、自分の左頬の血管のパターンを撮影装置1によって撮影する(#21)。撮影の手順は、前に図7などを参照して説明した通りである。撮影の前または後に、ユーザ自身のユーザIDをパーソナルコンピュータ6のキーボードに入力する(#22)。ユーザIDを持っていない場合は、ユーザIDをシステム管理者などに予め発行してもらっておく。または、撮影後に発行してもらう。   The registration of the feature information 71 and the shooting condition information 72 is performed according to the procedure shown in FIG. First, the user images the blood vessel pattern of his / her left cheek with the imaging device 1 (# 21). The shooting procedure is as described above with reference to FIG. Before or after shooting, the user's own user ID is input to the keyboard of the personal computer 6 (# 22). If you do not have a user ID, ask your system administrator to issue your user ID in advance. Or get it issued after shooting.

撮影が成功した場合は、パーソナルコンピュータ6は、撮影によって得られた頬画像FA1を撮影装置1より受信する(#23)。そして、この頬画像FA1の画像データを特徴情報71として、入力または発行されたユーザIDと対応付けて特徴情報データベース6DBに格納する(#24)。または、頬画像FA1を解析することによって得られる血管の太さ、長さ、本数、または配置などの特徴を示す情報を特徴情報71として格納してもよい。   If the photographing is successful, the personal computer 6 receives the cheek image FA1 obtained by the photographing from the photographing device 1 (# 23). Then, the image data of the cheek image FA1 is stored as feature information 71 in the feature information database 6DB in association with the input or issued user ID (# 24). Alternatively, information indicating features such as the thickness, length, number, or arrangement of blood vessels obtained by analyzing the cheek image FA1 may be stored as the feature information 71.

頬画像FA1を取得する際の撮影条件、つまり、そのユーザに適するように補正された露出時間および撮影装置1と左頬との距離を示す情報を、撮影装置1より受信する(#25)。そして、これらの情報を撮影条件情報72としてユーザIDと対応付けて特徴情報データベース6DBに格納する(#26)。   The photographing conditions for acquiring the cheek image FA1, that is, the exposure time corrected to suit the user and the information indicating the distance between the photographing device 1 and the left cheek are received from the photographing device 1 (# 25). These pieces of information are stored in the feature information database 6DB as shooting condition information 72 in association with the user ID (# 26).

図11に示すように、磁気記憶装置6dには、ユーザ識別プログラム6PGがインストールされている。このプログラムを実行することによって、パーソナルコンピュータ6にログオンしようとしているユーザが、正しいユーザであるか否かを判別(識別)するための処理が、図14に示すフローチャートのような手順で実現される。   As shown in FIG. 11, a user identification program 6PG is installed in the magnetic storage device 6d. By executing this program, a process for determining (identifying) whether or not the user who is logging on to the personal computer 6 is a correct user is realized by the procedure shown in the flowchart of FIG. .

パーソナルコンピュータ6のスイッチをオンにすると、パーソナルコンピュータ6には、ログオン画面が表示される。ここで、ユーザは、自分のユーザIDを入力し(#31)、撮影装置1によって自分の左頬の撮影を行って図15に示すような頬画像FA2を取得する(#32)。取得された頬画像FA2は、パーソナルコンピュータ6に送信される。   When the switch of the personal computer 6 is turned on, a logon screen is displayed on the personal computer 6. Here, the user inputs his / her user ID (# 31), and the imaging apparatus 1 captures his / her left cheek to obtain a cheek image FA2 as shown in FIG. 15 (# 32). The acquired cheek image FA2 is transmitted to the personal computer 6.

なお、頬画像FA2を取得するための撮影は、図12の特徴情報データベース6DBを参照し、入力されたユーザIDに対応する撮影条件情報72に基づいて行われる。つまり、入力されたユーザIDに対応するユーザにとって最適な露出時間で撮影が行われる。また、係る撮影の際に、撮影装置1とユーザの左頬との距離が撮影条件情報72に示される最適な距離になるように、ユーザの左頬の位置を次のようにして案内する。   Note that imaging for acquiring the cheek image FA2 is performed based on the imaging condition information 72 corresponding to the input user ID with reference to the feature information database 6DB of FIG. That is, shooting is performed with an exposure time optimum for the user corresponding to the input user ID. Further, at the time of such shooting, the position of the user's left cheek is guided as follows so that the distance between the shooting device 1 and the user's left cheek becomes the optimum distance indicated in the shooting condition information 72.

撮影を行う前に、測距センサ27(図1、図2参照)によって、撮影装置1とユーザの左頬との距離を定期的に(例えば、1秒ごとに)計測する。計測した距離と撮影条件情報72に示される距離との差が所定の値(例えば0.1〜0.3cm程度)以上である場合は、ランプ28を点滅させておく。そして、撮影装置1とユーザの左頬との距離が最適な距離に近づき、所定の値未満になった場合は、ランプ28の点滅を止め、点灯したままにする。併せて、撮影装置1と左頬の3点との距離に基づいて左頬の姿勢を判別し、撮影装置1の正面と左頬とが平行になるように案内するようにしてもよい。   Before shooting, the distance between the shooting device 1 and the user's left cheek is measured periodically (for example, every second) by the distance measuring sensor 27 (see FIGS. 1 and 2). When the difference between the measured distance and the distance indicated in the shooting condition information 72 is a predetermined value (for example, about 0.1 to 0.3 cm) or more, the lamp 28 is blinked. When the distance between the photographing device 1 and the user's left cheek approaches the optimum distance and becomes less than a predetermined value, the lamp 28 stops blinking and remains lit. At the same time, the posture of the left cheek may be determined based on the distance between the photographing device 1 and the three points on the left cheek, and the front of the photographing device 1 and the left cheek may be guided in parallel.

ランプ28の代わりに撮影装置1にスピーカを設け、「あと1cm近づいてください」または「もう少し離れてください」というような音声を出力し、被写体の位置を案内するようにしてもよい。液晶パネルを設け、メッセージ、図形、写真、または映像を表示して案内するようにしてもよい。パーソナルコンピュータ6のスピーカまたはディスプレイ装置によって案内するようにしてもよい。   A speaker may be provided in the photographing apparatus 1 instead of the lamp 28, and a sound such as “Please move closer by 1 cm” or “Please move a little further” may be output to guide the position of the subject. A liquid crystal panel may be provided to display and guide messages, graphics, photos, or videos. You may make it guide by the speaker of a personal computer 6, or a display apparatus.

図14に戻って、パーソナルコンピュータ6は、特徴情報データベース6DBの中から、入力されたユーザIDに対応する特徴情報71を検索する(#33)。そして、その特徴情報71が示す血管のパターンの特徴と頬画像FA2の血管のパターンの特徴とを照合し、両者が一致するか否かを判別することによって、そのユーザが正しいユーザであるか否かを判別する(#34)。   Returning to FIG. 14, the personal computer 6 searches the feature information database 6DB for feature information 71 corresponding to the input user ID (# 33). Then, by comparing the blood vessel pattern feature indicated by the feature information 71 with the blood vessel pattern feature of the cheek image FA2 and determining whether or not they match, it is determined whether or not the user is the correct user. Is discriminated (# 34).

正しいユーザであると判別された場合は(#35でYes)、ユーザはパーソナルコンピュータ6にログオンすることができ、パーソナルコンピュータ6の使用が可能となる(#36)。正しいユーザであると判別されなかった場合は(#35でNo)、ログオンすることができない旨および操作をやり直す旨のメッセージをパーソナルコンピュータ6に表示する(#37)。   If it is determined that the user is a correct user (Yes in # 35), the user can log on to the personal computer 6 and can use the personal computer 6 (# 36). If it is not determined that the user is correct (No in # 35), a message indicating that the user cannot log on and that the operation is to be performed is displayed on the personal computer 6 (# 37).

なお、個人の識別は、上記のようなログオンを行う場合に限らず、例えば、電子決済システムにおける決済または出退勤の際の本人確認(タイムカード)などのために行うことができる。   Individual identification is not limited to the case of logging on as described above, but can be performed for, for example, identification (time card) at the time of payment or time leaving or leaving in an electronic payment system.

本実施形態によると、個人ごとの特徴に合わせて撮影を行い、白飛びの少ない画像を得ることができる。これにより、より正確に個人の識別を行うことができる。   According to the present embodiment, it is possible to take an image according to the characteristics of each individual and obtain an image with less whiteout. Thereby, an individual can be identified more correctly.

なお、頬画像FA1を得るための撮影(図13の#21)を行った際の撮影条件情報72をユーザIDと対応付けて、撮影装置1の撮影条件記憶部203(図5参照)に格納するようにしてもよい。そうすれば、撮影装置1にパーソナルコンピュータ6が接続されていなくても、撮影装置1に設けられた操作ボタンより入力されるユーザIDに基づいて撮影条件情報72を検索し、すぐにユーザにとって最適な撮影条件で撮影を行うことができる。したがって、例えば定期的に身体の検診を行うために血管のパターンを撮影する場合などに便利である。様々な場所に持ち運んで撮影を行うことも容易である。   Note that the shooting condition information 72 when shooting (# 21 in FIG. 13) for obtaining the cheek image FA1 is associated with the user ID and stored in the shooting condition storage unit 203 (see FIG. 5) of the shooting apparatus 1. You may make it do. Then, even if the personal computer 6 is not connected to the photographing apparatus 1, the photographing condition information 72 is searched based on the user ID input from the operation button provided on the photographing apparatus 1, and immediately optimum for the user. Shooting can be performed under various shooting conditions. Therefore, it is convenient when, for example, a blood vessel pattern is photographed for periodic physical examination. It is also easy to carry around and take pictures in various places.

本実施形態では、図8に示すように、被写体との距離が長いほど露出時間を長くし、距離に関わらずイメージセンサ212の出力のゲイン(増幅)を一定としたが、距離が長いほどゲインを大きくし、露出時間を一定としてもよい。つまり、出力のゲインを撮影条件としてもよい。または、両方を撮影条件としてもよい。   In the present embodiment, as shown in FIG. 8, the longer the distance to the subject, the longer the exposure time, and the gain (amplification) of the output of the image sensor 212 is constant regardless of the distance. And the exposure time may be constant. That is, the output gain may be used as the imaging condition. Alternatively, both may be set as shooting conditions.

本実施形態では、撮影装置1によって人間の頬の血管のパターンを撮影しユーザの識別に用いたが、もちろん、身体の他の部位の血管のパターンによる識別も可能である。例えば、額、頭部、腹、背中、尻、首、手足、腕、および脚などのあらゆる面を撮影することができる。この場合は、撮影対象となる部位に応じてLEDの配置、LEDの光度、自動露出の調整の条件(図8、図10参照)などを変更し、撮影装置1を構成すればよい。動物の撮影のためにも用いられる。   In this embodiment, the blood vessel pattern of the human cheek is photographed by the imaging device 1 and used for identification of the user. Of course, identification by the blood vessel pattern of other parts of the body is also possible. For example, all surfaces such as the forehead, head, belly, back, buttocks, neck, limbs, arms, and legs can be photographed. In this case, the imaging apparatus 1 may be configured by changing the LED arrangement, LED luminous intensity, automatic exposure adjustment conditions (see FIGS. 8 and 10), and the like according to the part to be imaged. It is also used for animal photography.

図16は露出補正用テーブルTL3の例を示す図である。本実施形態では、ユーザごとの露出時間(図12参照)を、そのユーザを撮影した際の白飛びの面積(白飛びした画素の数)に基づいて標準の露出時間を補正することによって求めたが、そのユーザの年齢または性別などに基づいて求めることも可能である。   FIG. 16 is a diagram showing an example of the exposure correction table TL3. In the present embodiment, the exposure time for each user (see FIG. 12) is obtained by correcting the standard exposure time based on the whiteout area (number of whiteout pixels) when the user is photographed. However, it can also be obtained based on the age or gender of the user.

この場合は、例えば、ユーザごとに、そのユーザの年齢および性別を示す情報をユーザIDと対応付けてデータベースに記憶させておく。一般に、白飛びは、男性よりも女性のほうに現れやすい傾向がある。また、白飛びの現れ方は、年齢または世代によって、それぞれ特徴的な傾向が見られる。そこで、図16に示すような露出補正用テーブルTL3を距離露出記憶部204(図5参照)に用意しておく。なお、露光時間を調整(補正)するための調整値G(g11、g12、…、g63、…)は、実際に多数の老若男女の撮影を行い、性別および世代(または年齢)の組合せごとの露光時間の統計を取って解析することによって得られたものである。   In this case, for example, for each user, information indicating the age and sex of the user is stored in the database in association with the user ID. In general, whiteout tends to appear more in women than in men. In addition, the appearance of overexposure has a characteristic tendency depending on the age or generation. Therefore, an exposure correction table TL3 as shown in FIG. 16 is prepared in the distance exposure storage unit 204 (see FIG. 5). The adjustment value G (g11, g12,..., G63,...) For adjusting (correcting) the exposure time actually shoots a large number of men and women of all ages, for each combination of sex and generation (or age). This is obtained by analyzing the statistics of the exposure time.

そして、頬画像FA1、FA2(図9、図15参照)などの画像を取得するための最適な露光時間は、露出補正用テーブルTL3を参照し、そのユーザの年齢および性別に対応する調整値Gに基づいて求めればよい。また、求められた露光時間は撮影条件情報72として、特徴情報データベース6DB(図12参照)または撮影条件記憶部203にそのユーザのユーザIDと対応付けて記憶させておく。   The optimum exposure time for acquiring images such as the cheek images FA1, FA2 (see FIGS. 9 and 15) is referred to the exposure correction table TL3, and the adjustment value G corresponding to the age and sex of the user. You may ask based on. The obtained exposure time is stored as shooting condition information 72 in the feature information database 6DB (see FIG. 12) or the shooting condition storage unit 203 in association with the user ID of the user.

なお、年齢および性別以外にも、職業または日頃行っているスポーツなどの要素も組み合わせて露光時間を補正できるようにしてもよい。   In addition to age and gender, exposure time may be corrected by combining factors such as occupation or daily sport.

本実施形態では、ユーザの白飛びの具合に応じて露光時間を変更したが、これ以外の撮影条件を変更するようにしてもよい。例えば、光源(LED)の光度または周囲の明るさなどを変更するようにしてもよい。この場合は、距離露出テーブルTL1および露出補正用テーブルTL2(図8、図10参照)に相当する、最適なLEDの高度などを求めるためのテーブルを用意しておけばよい。   In the present embodiment, the exposure time is changed according to the degree of whiteout of the user, but other shooting conditions may be changed. For example, the light intensity of the light source (LED) or ambient brightness may be changed. In this case, a table for obtaining the optimum LED altitude or the like corresponding to the distance exposure table TL1 and the exposure correction table TL2 (see FIGS. 8 and 10) may be prepared.

本実施形態では、撮影装置1と被写体(ユーザの頬)との距離を、被写体の位置の案内のために用いたが、頬画像とともに、ユーザの識別処理を行う際の特徴情報71として用いることも可能である。   In the present embodiment, the distance between the imaging device 1 and the subject (user's cheek) is used for guiding the position of the subject. However, it is used together with the cheek image as feature information 71 when performing user identification processing. Is also possible.

つまり、頬画像FA1のための撮影を行ったときの撮影装置1と左頬との距離の取り方をそのユーザの癖(特徴)として捉え、その距離をユーザIDと対応付けて記憶しておく。そして、頬画像FA2のための撮影(図14の#32)を行ったときの距離と特徴情報71に示される距離との差が所定の値(例えば数ミリメートル)以下である場合は、図14に示すステップ#34、#35の処理において、正しいユーザであると判別する。そうでない場合は、正しいユーザでないと判別する。   That is, the method of determining the distance between the imaging device 1 and the left cheek when imaging for the cheek image FA1 is taken as the user's eyelid (feature), and the distance is stored in association with the user ID. . Then, when the difference between the distance when the photographing for the cheek image FA2 (# 32 in FIG. 14) and the distance indicated in the feature information 71 is equal to or smaller than a predetermined value (for example, several millimeters), FIG. In Steps # 34 and # 35 shown in FIG. If not, it is determined that the user is not correct.

本実施形態では、ユーザ(個人)の識別処理において、頬画像FA1、FA2の照合をパーソナルコンピュータ6によって行ったが、照合の処理を撮影装置1で行うようにしてもよい。つまり、パーソナルコンピュータ6の一部または全部の機能を撮影装置1に設けるようにしてもよい。   In the present embodiment, the cheek images FA1 and FA2 are collated by the personal computer 6 in the user (individual) identification process, but the collation process may be performed by the photographing apparatus 1. That is, some or all of the functions of the personal computer 6 may be provided in the photographing apparatus 1.

頬画像FA1、FA2を取得するための撮影を、別々の撮影装置1によって行ってもよい。ただし、この場合は、同じ構成の撮影装置1を用いることが望ましい。   Shooting for acquiring the cheek images FA1 and FA2 may be performed by separate imaging devices 1. However, in this case, it is desirable to use the imaging device 1 having the same configuration.

その他、撮影装置1、パーソナルコンピュータ6の全体または各部の構成、撮影の対象、LEDの配置および光度、レンズなどの光学系の配置、処理内容、処理順序、データベースまたはテーブルの内容などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the configuration of the whole or each part of the photographing apparatus 1 and the personal computer 6, the subject of photographing, the arrangement and intensity of LEDs, the arrangement of optical systems such as lenses, the processing contents, the processing order, the contents of the database or table, etc. It can be appropriately changed in accordance with the purpose.

以上のように、本発明によると、個人ごとの特徴に合わせて撮影を行い、より正確に個人の識別を行うことができる、という点で有用なものである。   As described above, according to the present invention, it is useful in that photographing can be performed according to the characteristics of each individual and the individual can be identified more accurately.

撮影装置の全体の構成を示す斜視図である。It is a perspective view which shows the whole structure of an imaging device. 撮影装置の中央付近の断面側面図である。It is a section side view near the center of an imaging device. 左頬の撮影の状況の例を示す図である。It is a figure which shows the example of the condition of imaging | photography of the left cheek. ユーザ識別システムの例を示す図である。It is a figure which shows the example of a user identification system. 撮影装置の機能的構成の例を示すブロック図である。It is a block diagram which shows the example of a functional structure of an imaging device. 測距センサの出力値と実際の距離との関係を示す図である。It is a figure which shows the relationship between the output value of a ranging sensor, and actual distance. 露出自動制御機能を用いた場合の撮影の処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an imaging | photography process at the time of using an automatic exposure control function. 距離露出テーブルの例を示す図である。It is a figure which shows the example of a distance exposure table. 頬画像の例を示す図である。It is a figure which shows the example of a cheek image. 露出補正用テーブルの例を示す図である。It is a figure which shows the example of the table for exposure correction | amendment. 磁気記憶装置に記憶されているプログラムおよびデータの例を示す図である。It is a figure which shows the example of the program and data which are memorize | stored in the magnetic storage apparatus. 特徴情報データベースの例を示す図である。It is a figure which shows the example of a feature information database. 特徴情報および撮影条件情報を登録するための処理の流れの例を説明する図である。It is a figure explaining the example of the flow of a process for registering feature information and imaging condition information. ユーザの識別処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a user identification process. 頬画像の例を示す図である。It is a figure which shows the example of a cheek image. 露出補正用テーブルの例を示す図である。It is a figure which shows the example of the table for exposure correction | amendment.

Claims (6)

個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第二の身体画像を取得するための撮影を行う撮影装置であって、
個人ごとに、前記第一の身体画像を取得するために当該個人の身体の撮影を行った際の撮影距離と当該撮影距離の長さに応じて長く設定される露出時間とを含む撮影条件を当該個人に発行されたIDと対応付けて記憶する撮影条件記憶手段と、
前記識別の対象となる個人の前記IDを入力する入力手段と、
前記識別の対象となる個人の前記第二の身体画像を取得するために、入力された前記IDに対応する前記撮影条件に含まれる撮影距離および露出時間に基づいて当該個人の身体の撮影を行う撮影手段と、
前記撮影手段によって取得された画像の全部または一部分の領域のうち、所定の値よりも明度が大きい部分である白飛び部分の面積が所定の面積よりも大きいか否かを判別する判別手段と、
前記判別手段によって前記白飛び部分の面積が前記所定の面積よりも大きいと判別された場合に、露出時間を前記白飛び部分の面積が大きいほど短くなるように補正することによって前記白飛び部分の面積が前記所定の面積よりも小さくなるような露出時間である補正露出時間を算出する補正露出時間算出手段と、
前記補正露出時間算出手段によって算出された前記補正露出時間を、前記撮影手段による撮影の被写体である個人の前記IDと対応付けて記憶する補正露出時間記憶手段と、
前記入力手段によって入力された前記IDに対応する前記補正露出時間で撮影をやり直すように前記撮影手段を制御する撮影制御手段と、
を有してなることを特徴とする撮影装置。
In order to identify an individual by collating the first body image acquired by photographing in advance with the second body image obtained by photographing when performing the identification, the second body image is used. An imaging device that performs imaging to acquire
For each individual, a photographing condition including a photographing distance when photographing the person's body to acquire the first body image and an exposure time set long according to the length of the photographing distance. Photographing condition storage means for storing in association with the ID issued to the individual;
Input means for inputting the ID of the individual to be identified;
In order to acquire the second body image of the individual to be identified, the body of the individual is photographed based on the photographing distance and the exposure time included in the photographing condition corresponding to the input ID. Photographing means;
A discriminating means for discriminating whether or not the area of the whiteout portion, which is a portion having a brightness greater than a predetermined value, of all or a part of the image acquired by the photographing means is larger than a predetermined area;
When it is determined by the determining means that the area of the whiteout portion is larger than the predetermined area, the exposure time is corrected so as to be shorter as the area of the whiteout portion is larger. Corrected exposure time calculating means for calculating a corrected exposure time that is an exposure time such that the area is smaller than the predetermined area;
Corrected exposure time storage means for storing the corrected exposure time calculated by the corrected exposure time calculation means in association with the ID of the individual who is the subject of photographing by the photographing means;
Photographing control means for controlling the photographing means so as to redo photographing at the corrected exposure time corresponding to the ID input by the input means;
A photographing apparatus comprising:
個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第二の身体画像を取得するための撮影を行う撮影装置であって、
前記第一の身体画像を取得するために当該個人の身体の撮影を行った際の撮影距離と露出時間とを含む撮影条件とともに、少なくとも年齢または性別のいずれかを個人に発行されたIDと対応付けて記憶する撮影条件記憶手段と、
前記識別の対象となる個人の前記IDを入力する入力手段と、
前記識別の対象となる個人の前記第二の身体画像を取得するために、入力された前記IDに対応する年齢または性別および前記撮影条件に基づいて当該個人の身体の撮影を行う撮影手段と、
を有してなることを特徴とする撮影装置。
In order to identify an individual by collating the first body image acquired by photographing in advance with the second body image obtained by photographing when performing the identification, the second body image is used. An imaging device that performs imaging to acquire
Corresponds to the ID issued to the individual, at least either age or gender, together with the photographing conditions including the photographing distance and exposure time when photographing the individual's body to acquire the first body image Photographing condition storage means for storing the information;
Input means for inputting the ID of the individual to be identified;
In order to obtain the second body image of the individual to be identified, an imaging unit that images the body of the individual based on the age or sex corresponding to the input ID and the imaging condition;
A photographing apparatus comprising:
個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第一の身体画像を取得するための撮影を行う撮影装置であって、
個人の身体の撮影を行う撮影手段と、
前記撮影手段による撮影によって取得した個人の前記第一の身体画像と、当該撮影の際の撮影距離と露出時間とを含む撮影条件とを、当該個人に発行されたIDと対応付けて記憶手段に対して出力する出力手段と、
を有してなることを特徴とする撮影装置。
In order to identify an individual by collating the first body image acquired by photographing in advance with the second body image obtained by photographing when performing the identification, the first body image is used. An imaging device that performs imaging to acquire
Photographing means for photographing an individual's body;
The first body image of the individual acquired by photographing by the photographing unit and the photographing condition including the photographing distance and the exposure time at the time of photographing are associated with the ID issued to the individual in the storing unit. Output means for outputting to,
A photographing apparatus comprising:
個人の識別を行う個人識別方法であって、
個人ごとに、予め当該個人の身体の撮影を行うことによって取得しておいた第一の身体画像と当該撮影の際の撮影距離と露出時間とを含む撮影条件とを当該個人に発行されたIDと対応付けて記憶手段に記憶させておき、
前記識別の対象となる個人の前記IDを入力する入力ステップと、
前記識別を行う際に、当該識別の対象となる個人の第二の身体画像を取得するために、入力された当該個人の前記IDに対応する前記撮影条件に含まれる撮影距離および露出時間に基づいて当該個人の身体の撮影を行う撮影ステップと、
前記撮影ステップによって取得された画像の全部または一部分の領域のうち、所定の値よりも明度が大きい部分である白飛び部分の面積が所定の面積よりも大きいか否かを判別する判別ステップと、
前記判別ステップによって前記白飛び部分の面積が前記所定の面積よりも大きいと判別された場合に、露出時間を前記白飛び部分の面積が大きいほど短くなるように補正することによって前記白飛び部分の面積が前記所定の面積よりも小さくなるような露出時間である補正露出時間を算出する補正露出時間算出ステップと、
前記補正露出時間算出ステップによって算出された前記補正露出時間を、撮影の被写体である個人の前記IDと対応付けて記憶する補正露出時間記憶ステップと、
前記入力ステップによって入力された前記IDに対応する前記補正露出時間で撮影をやり直すように制御を行う再撮影制御ステップと、
前記識別の対象となる個人の前記IDに対応する前記第一の身体画像と前記撮影ステップの撮影で取得された当該個人の前記第二の身体画像とを照合することによって、当該個人が本人であるか否かを識別する識別ステップと、
を有してなることを特徴とする個人識別方法。
A personal identification method for identifying an individual,
For each individual, an ID issued to the individual including the first body image acquired by photographing the body of the individual in advance and the photographing condition including the photographing distance and the exposure time at the time of the photographing. In association with the storage means,
An input step of inputting the ID of the individual to be identified;
Based on the photographing distance and the exposure time included in the photographing condition corresponding to the input ID of the individual in order to acquire the second body image of the individual to be identified when performing the identification. A photographing step for photographing the individual's body,
A determination step of determining whether or not the area of the whiteout portion, which is a portion having a lightness greater than a predetermined value, of all or a portion of the image acquired by the photographing step is greater than a predetermined area;
When it is determined in the determination step that the area of the whiteout portion is larger than the predetermined area, the exposure time is corrected so as to be shorter as the area of the whiteout portion is larger. A corrected exposure time calculating step for calculating a corrected exposure time that is an exposure time such that the area is smaller than the predetermined area;
A corrected exposure time storage step of storing the corrected exposure time calculated in the corrected exposure time calculating step in association with the ID of the individual who is the subject of shooting;
A re-shooting control step for performing control so that shooting is performed again at the corrected exposure time corresponding to the ID input in the input step;
By collating the first body image corresponding to the ID of the individual to be identified with the second body image of the individual acquired in the photographing step, the individual is the person himself / herself. An identification step for identifying whether there is,
The personal identification method characterized by comprising.
個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第二の身体画像を取得するための撮影を行う撮影方法であって、
前記第一の身体画像を取得するために当該個人の身体の撮影を行った際の撮影距離と露出時間とを含む撮影条件とともに、少なくとも年齢または性別のいずれかを個人に発行されたIDと対応付けて記憶する撮影条件記憶ステップと、
前記識別の対象となる個人の前記IDを入力する入力ステップと、
前記識別の対象となる個人の前記第二の身体画像を取得するために、入力された前記IDに対応する少なくとも年齢または性別および前記撮影条件に基づいて当該個人の身体の撮影を行う撮影ステップと、
を有してなることを特徴とする撮影方法。
In order to identify an individual by collating a first body image acquired by photographing in advance with a second body image obtained by photographing when performing the identification, the second body image is used. A shooting method for shooting to obtain
Corresponds to the ID issued to the individual, at least either age or gender, together with the photographing conditions including the photographing distance and exposure time when photographing the individual's body to acquire the first body image A shooting condition storing step for storing the information;
An input step of inputting the ID of the individual to be identified;
An imaging step of imaging the body of the individual based on at least the age or gender corresponding to the input ID and the imaging conditions in order to obtain the second body image of the individual to be identified; ,
A photographing method characterized by comprising:
個人の識別を、予め撮影により取得しておいた第一の身体画像と当該識別を行う際に撮影により取得する第二の身体画像とを照合することによって行うために、当該第一の身体画像を取得するための撮影を行う撮影方法であって、
個人の身体の撮影を行う撮影ステップと、
前記撮影ステップによる撮影によって取得した個人の前記第一の身体画像と、当該撮影の際の撮影距離と露出時間とを含む撮影条件とを、当該個人に発行されたIDと対応付けて記憶手段に対して出力する出力ステップと、
を有してなることを特徴とする撮影方法。
In order to identify an individual by collating the first body image acquired by photographing in advance with the second body image obtained by photographing when performing the identification, the first body image is used. A shooting method for shooting to obtain
A shooting step for shooting the individual's body;
The first body image of the individual obtained by photographing in the photographing step and the photographing condition including the photographing distance and the exposure time at the time of the photographing are associated with the ID issued to the individual in the storage unit. An output step that outputs to
A photographing method characterized by comprising:
JP2007204710A 2007-08-06 2007-08-06 Photographing device, personal identification method, and photographing method Pending JP2008010006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007204710A JP2008010006A (en) 2007-08-06 2007-08-06 Photographing device, personal identification method, and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007204710A JP2008010006A (en) 2007-08-06 2007-08-06 Photographing device, personal identification method, and photographing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004570132A Division JP4030547B2 (en) 2003-03-28 2003-03-28 Imaging device and personal identification system

Publications (1)

Publication Number Publication Date
JP2008010006A true JP2008010006A (en) 2008-01-17

Family

ID=39068084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007204710A Pending JP2008010006A (en) 2007-08-06 2007-08-06 Photographing device, personal identification method, and photographing method

Country Status (1)

Country Link
JP (1) JP2008010006A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113433A (en) * 2008-11-05 2010-05-20 Hitachi Ltd Biometric authentication system, biometric authentication device, and information recording device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165672A (en) * 1989-11-24 1991-07-17 Olympus Optical Co Ltd Image input/output device
JPH05216110A (en) * 1992-02-03 1993-08-27 Nikon Corp Camera capable of multiple exposure
JPH07213511A (en) * 1994-02-03 1995-08-15 Miki:Kk Personal identification device
JP2000196954A (en) * 1998-12-28 2000-07-14 Canon Inc Device for discriminating picture on photographic film, and camera
JP2001230967A (en) * 2000-02-15 2001-08-24 Matsushita Electric Works Ltd Device and method for processing image
JP2003008827A (en) * 2001-06-18 2003-01-10 Casio Comput Co Ltd Device and method for adjusting sensitivity of two- dimensional image reader

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165672A (en) * 1989-11-24 1991-07-17 Olympus Optical Co Ltd Image input/output device
JPH05216110A (en) * 1992-02-03 1993-08-27 Nikon Corp Camera capable of multiple exposure
JPH07213511A (en) * 1994-02-03 1995-08-15 Miki:Kk Personal identification device
JP2000196954A (en) * 1998-12-28 2000-07-14 Canon Inc Device for discriminating picture on photographic film, and camera
JP2001230967A (en) * 2000-02-15 2001-08-24 Matsushita Electric Works Ltd Device and method for processing image
JP2003008827A (en) * 2001-06-18 2003-01-10 Casio Comput Co Ltd Device and method for adjusting sensitivity of two- dimensional image reader

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113433A (en) * 2008-11-05 2010-05-20 Hitachi Ltd Biometric authentication system, biometric authentication device, and information recording device

Similar Documents

Publication Publication Date Title
JP4030547B2 (en) Imaging device and personal identification system
JP4297876B2 (en) Imaging apparatus, light source control method, and computer program
US20070038118A1 (en) Subcutaneous tissue imager
US11589739B2 (en) Apparatus and method for acquiring near infrared-based diagnostic images of teeth
EP1610545B1 (en) Photographing apparatus, photographing method and computer program
KR20180089646A (en) Multifunction smart mirror
US20230377101A1 (en) Dentition image capturing system and dentition image capturing method
CN111000522A (en) Endoscope and shooting method thereof
JP2004320284A (en) Digital camera
JP2008010006A (en) Photographing device, personal identification method, and photographing method
CN112088293B (en) Method and system for preventing vision deterioration caused by using electronic display in dim light condition
JP4183718B2 (en) Imaging apparatus, imaging method, and computer program
CA1145994A (en) X-ray photographing and developing apparatus
JP2007257658A (en) Imaging device and personal identification system
RU2618980C1 (en) Method of controlling changes in facial skin defects and devicre for its implementation
JP2004329620A (en) Imaging unit
JP2009014520A (en) Face measurement system
KR20210010785A (en) X-ray device capable of automatic controlling of position
KR102555564B1 (en) Method for producing a dental x-ray image, and x-ray device therefor
KR100732931B1 (en) Photographing apparatus, photographing method and a storage medium recording computer program
JP4597178B2 (en) Imaging device and personal confirmation system
TW201642647A (en) Focusing controlling and auto-exposing method and system
JPH08166219A (en) Shape measuring instrument
JPH08189818A (en) Shape measuring apparatus
KR20220095985A (en) Cervical diagnostic camera apparatus with light reflection reduction implemented

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100506