WO2005070301A1 - 男女識別方法 - Google Patents

男女識別方法 Download PDF

Info

Publication number
WO2005070301A1
WO2005070301A1 PCT/JP2005/001035 JP2005001035W WO2005070301A1 WO 2005070301 A1 WO2005070301 A1 WO 2005070301A1 JP 2005001035 W JP2005001035 W JP 2005001035W WO 2005070301 A1 WO2005070301 A1 WO 2005070301A1
Authority
WO
WIPO (PCT)
Prior art keywords
gender
temperature
person
discrimination
extracted
Prior art date
Application number
PCT/JP2005/001035
Other languages
English (en)
French (fr)
Inventor
Satoshi Nishino
Original Assignee
Nihondensikougaku Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihondensikougaku Co., Ltd. filed Critical Nihondensikougaku Co., Ltd.
Priority to JP2005517318A priority Critical patent/JP4359652B2/ja
Priority to US10/586,057 priority patent/US7899218B2/en
Publication of WO2005070301A1 publication Critical patent/WO2005070301A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Definitions

  • the present invention relates to a method for distinguishing between male and female humans.
  • Japanese Patent Laid-Open Publication No. 2001-218020 discloses that gender discrimination is performed based on the appearance of a person in a photograph taken by a camera, and the subject person is identified based on the gender discrimination result. There is disclosed an image processing method for performing image data processing for improving appearance.
  • gender discrimination systems are installed at entrances in various halls and stores, and the number of guests by gender is counted for marketing. A system for acquiring materials is disclosed.
  • a person is photographed with a television camera or digital camera, etc., and from the image data obtained by this, a portion of interest, such as a face, hands, shoes, belongings, etc., is extracted.
  • Gender discrimination is performed by analyzing the content. Specifically, the criteria are the center of gravity of the amount of hair, the time of arm assembly, the size of the back, the length of time during which hands are placed in the pocket, the state of makeup on the face, the use of lipstick, etc. Used.
  • discrimination since the conventional gender discrimination method is based on features that can be changed by human will, such as the appearance and gesture of the discriminated object, discrimination may be uncertain.
  • a method of gender discrimination based on voice data is also known, but in this case, the discrimination becomes uncertain due to the use of voices or the like. Must be enforced, and the range of use is severely restricted.
  • the present invention utilizes biological characteristics that cannot be changed by human will, and specifically utilizes the fact that there is a difference between men and women in the heat generation temperature and / or distribution state of human faces and hands. .
  • the present invention was obtained by examining the gender differences in the fever temperature of the face and hands and their distribution, and medically, the basal metabolic rate is high for males and low for females because the basic metabolic rate is large for males and female for small Women tend to secrete the female hormone estrogen, so they generally have a higher percentage of fat than men and more fat on the body surface, and 'fat is less conductive than muscle' because of its lower thermal conductivity This is based on the finding that women tend to have a lower body surface temperature than men because the body temperature radiation is cut off. Since this feature appears in exposed areas that are not covered by clothing, it is convenient to discriminate between males and females based on the heat generation temperature of the face and hands and their distribution.
  • the inventor first quantitatively examined the influence of the ambient temperature on the face temperature. Specifically, three men and three women of the same age were selected as subjects. Then, in a room with a constant ambient temperature, the subject's ⁇ and chin were subjected to temperature changes using a body warmer and a cooling material, and data on temporal changes in face temperature were collected. Specifically, first, each subject was exposed to the cairo for a period of time (5 minutes) to the ⁇ and the chin, and then the cairo was removed and the time-dependent changes in the temperature of the chin and chin were measured. The temperature was measured after a lapse of 5 seconds, and thereafter every 15 seconds until a lapse of 125 seconds. Next, the same measurement was performed using a coolant instead of Cairo.
  • the vertical axis represents the value obtained by dividing the average ⁇ temperature of the extracted part of each subject by the average chin temperature (hereinafter referred to as [ ⁇ / chin].
  • the horizontal axis in Fig. 2 represents the ⁇ de data 05 001035
  • Figure 3 shows how this value changes with the passage of time, that is, a change in temperature. Chin and ⁇ are exposed to the same ambient temperature, so they undergo the same tendency of temperature change. As a result, the influence of the ambient temperature can be eliminated by focusing on ⁇ data / chin data.
  • Fig. 2 shows that the value of this ratio is not affected by the ambient temperature because the ratio is almost constant even if the time elapses after warming in Cairo, that is, even if the ambient temperature changes. . After all, Fig. 2 shows the normalized value of the ⁇ temperature with the jaw temperature. The following can be seen from the results shown in FIG.
  • this value is not affected by changes in ambient temperature, and there is a gender difference. Therefore, this value is a feature for gender discrimination that is not affected by changes in ambient temperature.
  • the temperature of the subject's ⁇ was extracted using the ⁇ part temperature extraction template shown in Fig. 3, and how the temperature of the extracted part was affected by the ambient temperature was examined.
  • the two men and women selected as subjects were allowed to stand in a room at an ambient temperature of 24 for about 10 minutes, and then the air-conditioning temperature was raised to 27 ° C by 1 degree, and the temperature of each subject was raised to the above temperature. And collected.
  • Figure 4 shows the data of one male in the data collected in this way.
  • Figure 5 shows an example of the temperature distribution of male and female ( ⁇ ). From Fig. 5, it is found that the average value of the temperature in (1) is higher for males, and the temperature (gradation value) distribution is narrower for males and narrower for females than for males. The value should be wide in the low range. I understand. From Fig. 5, it is considered that the difference in variance between men and women appears because women have a wide range of fats, especially in ⁇ .
  • the following equation (1) is an average value
  • the following equation (2) is a separation value
  • the following equation (3) is an equation representing an emphasized variance value.
  • equation (3) used to highlight the difference is a quadratic version of the square part of the generally defined dispersion equation (2).
  • n is the number of pixels in the extracted portion
  • Xi is each gradation value of the pixel in the extracted portion.
  • the value obtained by Expression (3) is referred to as an enhanced variance value. It can be fully understood by comparing FIGS. 5, 6, and 7 that this emphasized variance value increases the distance between men and women and facilitates gender discrimination.
  • Fig. 5 shows the original histogram
  • Figs. 6 and 7 show the variance and emphasis variance values Xi-X squared and quadratic terms corresponding to Xi. Comparing FIG. 6 with FIG. 7, it can be seen that the distance between males and females is clearly larger with the enhanced variance value in FIG. 7 than with the variance value in FIG.
  • the temperature distribution range is narrow for men and wide for women. This is because male fat is concentrated and females are distributed over a wide area. Since this distribution state is a biological characteristic, it is hardly affected by the ambient temperature. Therefore, gender discrimination can be performed by using the difference in the distribution state, for example, the above-described enhanced variance value.
  • the present invention is based on medical grounds and utilizes biological characteristics that cannot be changed by human will. Therefore, it is possible to realize a more advantageous gender discrimination method than conventional methods. If only the emphasis variance value of temperature ⁇ is used, the identification may be erroneous for some reason. Therefore, in order to enhance reliability, three of the following combinations are made by combining two of the following 1 to 5, and statistical discrimination (for example, Mahalanobis distance) is performed on these combinations. It is preferable that the result of the identification be the identification result.
  • FIG. 1 is a diagram showing a chin-shaped temperature extraction template and a ⁇ -shaped temperature extraction template.
  • FIG. 2 is a graph showing the influence on the ambient temperature of a value obtained by dividing the average temperature in the temperature extraction template of ⁇ by the average temperature in the chin temperature extraction template and normalizing the average temperature.
  • FIG. 3 is a diagram showing a template for extracting a ⁇ -shaped temperature for an enhanced variance value.
  • FIG. 4 is a graph showing the influence of the ambient temperature on the variance value of the temperature in the template for extracting ⁇ -type temperature for enhanced variance value of male.
  • FIG. 5 is a diagram showing histograms of males and females of the temperature in the template for extracting type III temperature.
  • Figure 6 is a graph showing the differences in gender variance.
  • FIG. 7 is a graph showing the difference between the emphasis variance values of ⁇ for men and women.
  • FIG. 8 is a block diagram showing an embodiment of the present invention.
  • FIG. 9A is a partial flowchart showing an image data processing program executed in the image data processing device of FIG.
  • FIG. 9B is a partial flowchart showing an image data processing program executed in the image data processing device of FIG.
  • FIG. 10 is a diagram showing a ⁇ -type temperature extraction template from which the influence of glasses has been removed.
  • Fig. 11 shows the main part of the image data processing program that combines the temperature of the hand and the temperature of the face. It is a flow chart.
  • FIG. 12 is a diagram showing a sensor for extracting the temperature of the hand.
  • FIG. 13 is a flow chart showing the main part of an image data processing program using only the palm temperature.
  • FIG. 14 is a flowchart showing the main part of an image data processing program combining the black level of the beard under the nose and the temperature of the face.
  • FIG. 15 is a diagram showing a template for extracting the temperature of the hand.
  • FIG. 8 shows an embodiment of the gender discriminating apparatus according to the present invention.
  • the gender identification device 1 shown in Fig. 8 is installed at the entrance of a building (not shown), identifies whether the person P entering the building is a man or a woman, and enters a display according to the identification result. The configuration is performed for the person P who is about to do.
  • the gender identification device 1 has a television camera 2A for taking an infrared image, which is installed at the entrance so that at least the face of the person P who is going to enter can be photographed.
  • the image pickup signal VDA from the television camera 2A is sent to the image data processing device 3, where it is subjected to processing for discriminating between male and female as described later, and also sent to the monitor device 4, where the monitor device 4 This allows the situation at the entrance to be grasped, for example, at another location (security room).
  • the configuration is such that the imaging signal VDA is sent to the monitor device 4 via the image data processing device 3, but the imaging signal VDA may be sent directly to the monitor device 4.
  • Reference numeral 5 denotes a display comprising a liquid crystal display for displaying a person P.
  • Reference numeral 6 indicates a pushbutton switch that must be operated when a person P tries to enter.
  • the image data processing device 3 is configured as a microcomputer system, and includes a central processing unit (CPU) 3A, a memory 3B, and an input / output interface (IZF) 3C connected by a bus 3D. It is of a known configuration.
  • the central processing unit (CPU) 3A has a memory 3E in it, and image data processing with gender discrimination function described later. Five
  • a program is stored, and the imaging signal VDA from the television camera 2A is processed according to the image processing program.
  • FIGS. 9A and 9B are flowcharts showing the image data processing program stored in the memory 3E.
  • the image data processing program 10 is executed each time the push button switch 6 is pressed.
  • an infrared person image capturing process for capturing the imaging signal VDA is performed in step 11.
  • infrared face image extraction processing for extracting the face image of the person P based on the data captured in step 11 is performed.
  • step 13 it is determined whether or not the person 'P is wearing glasses based on the infrared face image extracted in step 127. If it is determined that the eyeglasses are worn, the result of the determination in step 13 is YES, and the process proceeds to step 14, where the wearer of the eyeglasses shown in FIG. Prepare a template for the ⁇ emphasis variance value at the time, and proceed to step 15. If it is determined in step 13 that the user does not wear glasses, the determination result in step 13 is NO, and the process proceeds to step 15. In step 15, normal templates that are not used when wearing glasses are prepared in advance. Then, in step 15, one of the templates is selected according to the presence / absence of wearing glasses, and each temperature of ⁇ and the chin of the person P is extracted.
  • step 16 the average temperature of ⁇ and the chin extracted in step 15 is calculated, and in the next step 17, the ratio between the average temperature and the chin average temperature ( ⁇ average temperature / average chin temperature) is calculated I do.
  • step 18 the emphasis dispersion value of the temperature of the portion ⁇ extracted in step 15 is calculated according to equation (3).
  • step 19 processing for expanding the values calculated in steps 17 and 18 on a two-dimensional plane is performed.
  • the classification method (a) is determined by applying the discrimination method based on the Mahalanobis distance obtained in advance and using the curve for classification into two types (ie, men and women) to determine the gender.
  • ⁇ average temperature / chin average temperature is compared with the reference value of gender classification which is obtained in advance to determine gender, and the classification result (b) is obtained.
  • gender classification (c) is performed by comparing the emphasis variance value of the request calculated in step 18 with the previously determined gender classification reference value. For the input infrared face image of the person P who is the identification target, the three gender classification results (a), (b), and (c) classified up to this point are collected in step 23.
  • step 2 of 4 gender discrimination is performed based on whether two or more of the results of the three classifications (a), (b), and (c) match. Output with 5. If the result of the determination in step 24 is a male, the determination result in step 25 is YES, and the process proceeds to step 26 in which the message "Please go to 2F" is displayed on the display 5 to execute the process. The execution of the image data processing program 10 ends. On the other hand, if the result of the determination in step 24 is female, the result of the determination in step 25 is NO, and the process proceeds to step 27 to display the message “Please go to 3F” on the display 5. Then, the execution of the image data processing program 10 ends.
  • the gender identification device 1 is configured as described above, when the person P to enter enters the push button switch 6, the gender identification device 1 operates as described above and the person P to enter is male. It is possible to identify whether it is a woman and, based on the result, guide to the second floor if it is a male and to the third floor if it is a female. In addition, instead of or in addition to the display 5, guidance by sound may be provided.
  • gender discrimination is performed based only on the temperature of the face portion of the person P.
  • FIG. 11 shows a flowchart of the main part of the image processing data program in this case.
  • a sensor 7 shown in FIG. 12 is used instead of the push button switch 6 shown in FIG.
  • the sensor 7 is configured as a push button switch 6 in Fig. 8 *
  • the opening and closing bar of an automatic door as shown by 7 A in Fig. 12 and an infrared temperature sensor 7 A is installed in this part By doing so, the temperature of the palm is detected.
  • a plate 7B is installed near the sensor 7A, and a warning is displayed on the plate 7B saying "Press the palm of your hand.” This detects palm temperature can do.
  • the data processing for gender discrimination by combining palm temperatures is basically the same as that shown in Figs. 9A and 9B. The difference is that a new palm emphasis variance is also used. Same as the previous embodiment except that steps 31 to 37 shown in FIG. 11 are performed instead of steps 17 to 22 shown in FIGS. 9A and 9B .
  • the variance value of the hand emphasis is calculated in steps 31 and 32, and the step is replaced with the ⁇ emphasis variance value in step 18.
  • the classification result (a) is obtained by combining the emphasis variance value of the hand with the mean value / chin average value.
  • the classification result (b) is obtained by combining the emphasis variance value of the hand and the emphasis variance value of ⁇ instead of Steps 19 and 20.
  • the classification result (c) is obtained by using the hand variance value in step 37 in step 37.
  • the image data processing device 3, the monitor device 4, and the display 5 are used, and the sensor 7 shown in FIG. 12 is used in place of the push button switch 6.
  • Can be The data processing in this case executes the processing shown in FIG. 13 instead of the steps 11 to 24 shown in FIGS. 9A and 9B.
  • steps 41A and 42A constituting step 41 are the same processing as steps 31 and 32 in Fig. 11, taking the palm temperature and calculating the emphasis dispersion value. I do.
  • step 42 the calculated palm emphasis variance is compared with a previously determined reference value to classify the gender. Subsequent processing is the same as that after step 25 in FIG. 9B.
  • a man and a woman are identified by using a color image of a beard portion under the nose in addition to the temperature of ⁇ and the temperature of the chin.
  • a color image of the lower part of the nose of the visible image is obtained and combined with the ⁇ temperature and the chin temperature.
  • a visible camera 2B is installed in addition to the infrared camera 2A, and the visible image signal VDB from the visible camera 2B is also processed by the image data processor 3. It is configured to be sent to
  • step 51 in FIG. 14 the infrared face image is extracted.
  • step 52 a color image of the beard under the nose of the face is extracted from the visible image signal VDB of the television camera 2B for taking a visible image.
  • step 53 the extracted color image of the beard below the nose is compared with the black level reference of the previously-obtained beard part of the male, and if it is above the standard level, it is judged to be male, if it is below the standard, Classify as female and get result (a).
  • Steps 54A to 54E constituting step 54 are the same as steps 15 to 19 in FIG. 9A.
  • step 55 the second classification (b) is performed, and in step 56, the third classification (c) is performed. Subsequent steps are the same as steps 24 and on in FIG. 9A.
  • the color of the lipstick in the face visible image the eye shadow around the eyes, the eye line, the mascara, the eyebrow itself and the eyebrow around it, the red lipstick, the skin color of the face, etc. It is also possible to carry out in place of black.
  • the gender discriminating device is configured to function as an unmanned guide device for discriminating between men and women and providing different guidance according to the discrimination result, but the present invention is not limited to this embodiment. Absent. For example, if steps 26 and 27 are described as "I can't enter” and "Welcome,” you can allow only women to enter. Alternatively, a buzzer that sounds only when the decision is made by a male is provided in place of the indicator 5 and applied to the opening and closing of the female entrance door of a female changing room or a public toilet, for example, to prevent the entry of men. Can work as a security device.
  • gender discrimination is performed based on the heat generation temperature of the face of the person P, the temperature of the palm, etc.
  • the eye shadow around the eyes, the eye line, the mascara, and the shield The eyebrow itself and its surroundings, blue lipstick, lipstick painted on the mouth, skin color of the face, ⁇
  • the accuracy of gender discrimination can be further increased by combining gender discrimination methods based on the color of the dark skin due to the chin and beard under the nose and the color of the beard itself.
  • Other application examples include the following.
  • the security system can be further strengthened.
  • Men and women can be distinguished by their appearance, such as clothes, hairstyle, makeup, and walking style, which can be changed according to the will of the person, and by their biological characteristics regardless of their voice. If only biometric features are used, gender can be distinguished regardless of race. Men and women can be identified without contacting the person. Men and women can be distinguished regardless of the ambient temperature. Men and women can be identified regardless of whether or not they use glasses. Reliable gender discrimination can be achieved by performing discrimination based on the combination of each feature. People who cannot determine the discrimination based on their biological characteristics can also be distinguished by sex using the color information of each part of the face. Industrial applicability
  • the gender discrimination method according to the present invention enables gender discrimination based on biological characteristics regardless of appearance, such as clothes, hairstyle, makeup, and how to walk, which can be changed according to the will of a person, and voice. It is useful for building a more accurate gender identification system.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

テレビカメラ(2A)からの撮像信号(VDA)によって判定対象とする人物(P)の赤外線顏画像データを得(11)、赤外線顏画像データに基づいて人物(P)の頬部及びあご部の温度を抽出してこれらの平均温度を算出し(15、16)、頬データ/あごデータを算出する(17)とともに、頬強調分散値を算出する(18)。頬データ/あごデータと頬強調分散値とをX、Y平面上に展開し(19)、この結果に基づいて人物(P)の男女判定を行う。さらに、頬データ/あごデータによる男女判定(21)及び頬強調分散値による男女判定(22)を行い、これら複数の男女判定結果の2つ以上の一致にしたがって男女識別(24)を行う。

Description

明細書 男女識別方法
技術分野
本発明は、 人間の男女を識別するための方法に関するものである。
背景技術
従来より、 種々の分野で人間の男女を識別するための方法が提案されてきている。 例えば、 特開 2 0 0 1 - 2 1 8 0 2 0号公報には、 カメラで撮った写真に写っている 人間の外観に基づいて男女識別を行い、 その男女識別結果に基づいて被写体人物の見 栄えを良くするための画像データ処理を行うようにした画像処理方法が開示されてい る。 また、 特開平 1 0— 2 9 3 8 3 7号公報には、 各種のホールや店頭などのェント ランスに男女識別システムを設置しておき、 来客の男女別人数を計数してマ一ケッテ ィングの資料を取得するためのシステムが開示されている。
従来の男女識別方法は、 人物をテレビカメラ又はデジタルカメラ等によって撮影し、 これにより得られた画像データから人物に関する部分のうち、 着目した部分、 例えば、 顔、 手、 靴、 持物等を抽出し、 その内容を分析することによって男女識別を行ってい る。 具体的には、 髪の毛の量の重心位置、.腕組み時間、 バックの大きさ、 ポケッ 卜に 手を入れている時間の長さ、 顔の化粧状態、 口紅の使用の有無等をその判定基準とし て用いている。
このように、 従来の男女識別方法は、 被判別体の外観やしぐさ等の人間の意志で変 えることのできる特徴に基づくものであるために、 識別が不確実となる虞れがある。 音声データに基づいて男女識別を行う方法も公知であるが、 この場合にも声色を使う 等の手段により判別が不確実なものとなってしまうほか、 音声データを用いるには被 判別人物に発声を強要しなければならず、 利用範囲が著しく制限を受けるという不具 合を有している。
本発明の目的は、 従来技術における上述の問題点を解決することができる男女識別 方法を提供することにある。
本発明の他の目的は、 人体に備わった生体的特徴を利用した男女識別方法を提供す ることにある。 発明の開示
本発明は、 人間の意志で変えることのできない生体的特徵を利用したもので、 具体 的には人間の顔や手の発熱温度及び又は分布状態に男女間差があることを利用したも のである。
本発明は、 顔や手の発熱温度及びその分布状態における男女差を検討して得られた、 医学的に基礎代謝量は男性が大きく女性は小さいので体温は男性が高く女性は低ぐな る傾向を有すること、 また女性は女性ホルモンのエストロゲンが分泌されるので一般 的に脂肪率は男性よりも高く体表面に脂肪が多いこと、'そして、 脂肪は筋肉よりも'熱 伝導率が小さいために体温の放射が遮断されるので、 女性は体表面の温度が男性より も低くなるという傾向を有していること、 という知見に基づいてなされたものである。 衣服に覆われていない露出部分でこの特徴が表れるので、 顔及び手の発熱温度及びそ の分布状態により男女の識別を行うことは好都合である。
本発明者は、 先ず周囲温度の顔の温度に対する影響を定量的に調べた。 具体的には 同一年齢の男性 3名、 女性 3名を被験者に選んだ。 そして、 周囲温度が一定の部屋で 各被験者の頰及びあごに、 カイロ及び冷却材を使用して温度変化を与えた後、 顔の温 度の経時変化についてのデータを採取した。 具体的には、 最初に各被験者にカイロを 頰及びあごに一定時間 (5分間) 当ててもらった後、 カイロを外し頰とあごとの各温 度の経時変化を測定した。 この温度測定は先ず 5秒経過後に測定し、 その後は 1 5秒 毎に 1 2 5秒経過するまで行った。 次に、 カイロの代わりに冷却材を用いて同様の測 定を行った。
上記測定終了後は、 第 1図に示す顿温度抽出用のテンプレー卜とあご温度抽出用の テンプレー卜とを用いて、 各被験者のその抽出部分の頰温度平均値及びあご温度平均 値を計測した。 各被験者のその抽出部分の頰温度平均値をあご温度平均値で割った値 を縦軸 (以下に [頰 /あご]と記す。 また、 第 2図中の横軸は頰デ一夕/あごデータ 05 001035
3 と表示する) にして、 時間経過すなわち温度変化に対するこの値の変化の様子が第 2 図に示されている。 あごと頰は同じ周囲温度にさらされるので同傾向の温度変化をす る。 その結果、 頰データ/あごデータに着目することで周囲温度の影響を除去できる。 第 2図はカイロで温めた後に時間が経過しても、 すなわち周囲温度が変化してもこの 比はほぼ一定であることからこの比の値は周囲温度の影響を受けない事を示している。 結局、 第 2図にはあごの温度で頰温度を正規化した値が示されていることになる。 第 2図に示される結果から次のことが分かる。
1. 頰データ Zあごデータの値は男女共に周囲温度変化があつてもほぼ一定値であ る。
2. [頰 /あご]は男性の値は大きく 1 . 2 ~ 1 . 5程度であり (頰温度が高い) 、 女性は値が小さく 1 . 0〜 1 . 2程度 (頰温度が低い)の傾向がある。
すなわち、 この値は周囲温度変化に対して影響されず、 かつ男女差があるので、 周 囲温度変化の影響を受けない男女識別のための特徴となっている。
次に、 第 3図に示す頰部温度抽出用テンプレートを用いて被験者の頰の温度を抽出 し、 この抽出部分の温度が周囲温度によりどのように影響を受けるかを検討した。 被 験者として選ばれた男女各 2名を周囲温度 2 4での部屋に約 1 0分待機させ、 その後 空調温度を 1度ずつ 2 7 °Cまで上げて各被験者の頰温度を上記テンプレー卜を用いて 採取した。 このようにして採取したデー夕の中の男性 1名のデータが第 4図に示され ている。
第 4図から、 周囲温度が上昇するとヒストグラムの形状と面積 分散) はほとん ど変化しないままヒストグラム全体が階調値 (温度)の高い方に移動しているのが分 かる。 他の男性も同傾向であった。 女性は男性よりも階調値の小さい部分で同傾向を 示した。 したがって、 分散は周囲温度に影響されずに男女の特徴を保持している。 こ のことから頰部分の分散は周囲温度に影響されない男女識別のためめ特徴量として有 効であると言える。
第 5図には、 男性と女性の頰の温度分布 分散) の例が示されている。 第 5図か ら頰の温度の平均値は男性の方が高いこと、 及び温度 (階調値) 分布は、 男性の場合 には分布範囲が狭く女性の場合には分布範囲は男性よりも温度値が低い範囲で広いこ とがわかる。 第 5図から、 女性は頰を中心に広く脂肪が付いているために、 分散値に 男女の相違が表われると考えられる。
この分散値における男女間のデータの相違を際立たせるためには、 データ処理にェ 夫を施すことが有効である。 下式 (1 ) は平均値、 下式 (2 ) は分離値、 下式 (3 ) は強調分散値を表す式である。
1 "
( 1 )
Figure imgf000006_0001
ここで、 相違を際立たせるために使用される式 (3 ) は、 一般に定義されている分 散式 (2 ) の 2乗部分を 4乗にしたものである。
上記の各式において、 nは抽出部分の画素数、 X iは抽出部分の画素の各階調値で ある。 本明細書においては、 式 (3)により求められる値を強調分散値と呼ぶ。 この強 調分散値により男女間の距離が増大して男女識別が容易になることは第 5図、 第 6図、 第 7図を比較することにより充分に分かる。 第 5図はもとのヒストグラムを、 第 6図 と第 7図は分散と強調分散値の X i 一 Xの 2乗及び 4乗の項を X iに対応して表わし たものである。 第 6図と第 7図とを比較すると、 第 6図の分散値よりも第 7図の強調 分散値の方が男女間の距離が明らかに大きくなることがわかる。
前述したように男女間には温度値の相違以外に、 温度分布状態の相違がある。 第 5 図から男性は温度分布範囲が狭く女性は広いことがわかる。 これは男性の脂肪が集中 的に付き、 これに対して女性は広い範囲に分布して付くためである。 この分布状態は 生体的特徵であるので周囲温度に影響されにくい。 したがって、 この分布状態の差異、 例えば前述した強調分散値を利用して男女識別を行うことができる。 このように本発 明は医学的根拠に基づいており、 人間の意志により変えることのできない生体的特徴 を利用するので、 従来方法に比べて有利な男女識別手法を実現することができる。 頰のみの温度の強調分散値を用いるだけであると何らかの理由で識別を誤る可能性 がある。 そこで、 信頼性を強化するために次の 1〜5中の 2つを組み合わせて 3種の 組み合わせをつくり、 これに統計的な判別 (例えばマハラノビス距離) を行い、 その 中の 2種の結果が一致した場合を識別結果とすることが好ましい。
1 . 頰の強調分散値。
2 . [頰 /あご]:頰温度の平均値をあご温度の平均値で割つた値。
3 . 頰温度の平均値。
4 . あご温度の平均値。
5 . 手の強調分散値。 図面の簡単な説明
第 1図はあご型温度抽出用テンプレートと頰型温度抽出用テンプレ一卜を示す図で ある。
第 2図は頰の温度抽出用テンプレート内の平均温度をあごの温度抽出用テンプレー 卜内の平均温度で割り正規化した値の周囲温度に対する影響を示すグラフである。 第 3図は強調分散値用頰型温度抽出用テンプレートを示す図である。
第 4図は男性の強調分散値用頰型温度抽出用テンプレー卜内温度の分散値に対する 周囲温度の影響を示すグラフである。
第 5図は頰型温度抽出用テンプレート内温度の男女のヒストグラムを示す図である。 第 6図は男女の分散の相違を示すグラフである。
第 7図は男女の頰の強調分散値の相違を示すグラフである。
第 8図は本発明の一実施例を示すプロック図である。
第 9 A図は第 8図の画像データ処理装置において実行される画像データ処理プログ ラムを示す一部フローチャートである。 ■ 第 9 B図は第 8図の画像データ処理装置において実行される画像データ処理プログ ラムを示す一部フローチャートである。
第 1 0図は眼鏡の影響を除去した頰型温度抽出用テンプレートを示す図である。 第 1 1図は手の温度と顔の温度を組み合せた画像データ処理プログラムの要部を示 すフローチヤ一トである。
第 1 2図は手の温度抽出用のセンサを示す図である。
第 1 3図は手の平の温度のみを使用した画像データ処理プログラムの要部を示すフ ローチャートである。
第 1 4図は鼻下のひげ部分の黒色レベルと顔の温度を組み合わせた画像データ処理 プログラムの要部を示すフローチヤ一トである。
第 1 5図は手の温度抽出用テンプレートを示す図である。 発明を実施するための最良の形態
本発明をより詳細に説述するために、 添付の図面に従つてこれを説明する。
第 8図には、 本発明による男女識別装置の一実施例が示されている。 第 8図に示さ れる男女識別装置 1は、 図示しない建物の入口に設置され、 当該建物に入構する人物 Pが男性または女性のいずれであるかを識別し、 その識別結果に応じた表示を入構し ようとする人物 Pに対して行う構成となっている。 男女識別装置 1は、 入構しょうと する人物 Pの顔を少なくとも撮影することができるように入口に設置された赤外線画 像撮影用のテレビカメラ 2 Aを有している。 テレビカメラ 2 Aからの撮像信号 V D A は、 画像データ処理装置 3に送られここで後述するようにして男女を識別するための 処理に付されると共に、 モニタ装置 4にも送られ、 モニタ装置 4によって入口の状況 を例えば別の場所 (警備室) で把握できるようになつている。 なお、 ここでは、 撮像 信号 V D Aは画像データ処理装置 3を経由してモニタ装置 4に送られる構成となって いるが、 撮像信号 V D Aをモニタ装置 4に直接送る構成としてもよい。 符号 5で示さ れるのは、 人物 Pに対して表示を行うための液晶表示装置から成る表示器である。 符 号 6で示されるのは、 人物 Pが入構しょうとする場合に操作することが義務付けられ ている押ボタンスィッチである。 · 画像データ処理装置 3は、 マイクロコンピュータシステムとして構成されており、 中央演算処理装置 (C P U) 3 A、 メモリ 3 B及び入出力インタ一フヱイス ( I Z F ) 3 Cがバス 3 Dによって接続されて成る公知の構成のものである。 中央演算処理装置 ( C P U) 3 A内のメモリ 3 Eには、 後述する男女識別機能を有する画像データ処理 5
プログラムが格納されており、 テレビカメラ 2 Aからの撮像信号 V D Aはこの画像デ —夕処理プログラムに従って処理される。
第 9 A図及び第 9 B図は、 メモリ 3 Eに格納されている画像データ処理プログラム を示すフローチヤ一トである。 画像データ処理プログラム 1 0は押ボタンスィツチ 6 が押される度に実行される。 画像データ処理プログラム 1 0の実行が開始されると、 ステップ 1 1で撮像信号 V D Aを取り込む赤外線人物画像取り込み処理が実行される。 そして、 ステップ 1 2において、 ステップ 1 1で取り込まれたデータに基づき人物 P の顔画像を抽出するための赤外線顔画像抽出処理が実行される。
次のステップ 1 3では、 ステップ 1 2 7で抽出された赤外線顔画像に基づいて、 人物' Pがメガネを着用しているか否かが判定される。 メガネを着用していると判定された 場合はステップ 1 3の判別結果が Y E Sとなってステップ 1 4に入り、 ここで、 第 1 0図に示す、 通常テンプレー卜の上部を少し削除したメガネ着用時の頰強調分散値用 テンプレートを準備し、 ステップ 1 5に進む。 ステップ 1 3でメガネを着用していな いと判定された場合はステップ 1 3の判別結果は N Oとなり、 ステップ 1 5に入る。 ステップ 1 5ではメガネ着用時以外に用いられる通常のテンプレートが予め用意され ている。 そして、 ステップ 1 5では、 メガネの着用の有無に従っていずれか一方のテ ンプレートを選択し、 人物 Pの頰とあご部分との各温度を抽出する。
ステップ 1 6では、 ステップ 1 5で抽出した頰とあご部分のそれぞれの平均温度を 求め、 次のステップ 1 7で頼平均温度とあご平均温度との比 (頰平均温度/あご平均 温度) を算出する。 ステップ 1 8ではステップ 1 5で抽出した頰部分の温度の強調分 散値を (3 ) 式に従って算出する。 ステップ 1 9では、 ステップ 1 7、 1 8で算出し た値を 2次元平面上に展開する処理が行われる。
次のステップ 2 0では、 予め求めてあるマハラノビス距離による判別手法を適用し て 2種類 (すなわち男女) に分類するための曲線を利用して男女を-决定して分類結果 (a) を得る。 ステップ 2 1では頰平均温度/あご平均温度を予め求めてある男女分類 の基準値と比較して男女を決定し分類結果(b) を得る。 ステップ 2 2では、 ステップ 1 8で算出した頼の強調分散値を予め求めてある男女分類基準値と比較して男女分類 (c) を行う。 入力された被識別対象である人物 Pの赤外線顔画像に対して、 この時点までに分類 された(a)、 (b)、 (c) の 3つの男女分類結果をステップ 2 3で集め、 次のステップ 2 4で 3つの分類(a)、 (b)、 (c) の結果中 2つ以上が一致したか否かにより男女識 別を行い、 ここで一致した結果が男女識別結果としてステップ 2 5で出力される。 ステップ 2 4での決定結果が男であると、 ステップ 2 5の判別結果は Y E Sとなり、 ステップ 2 6に入ってメッセ一ジ 「2 Fへどうぞ」 を表示器 5によって表示する処理 が実行され、 画像データ処理プログラム 1 0の実行が終了する。 一方、 ステップ 2 4 での決定結果が女であると、 ステップ 2 5の判別結果は N Oとなり、 ステップ 2 7に 入ってメッセ一ジ 「3 Fへどうぞ」 を表示器 5によって表示する処理が実行され、 画 像データ処理プログラム 1 0の実行が終了する。
男女識別装置 1は以上のように構成されているので、 入構しょうとする人物 Pが押 ボタンスィッチ 6を押すと、 男女識別装置 1が上述の如く動作し、 入構しょうとする 人物 Pが男性か女性かを識別し、 その結果によって男性ならば 2 Fへ案内し、 女性な らば 3 Fへ案内することができる。 なお、 表示器 5に代えて、 又はこれに加えて、 音 声での案内としてもよい。
第 9 A図及び第 9 B図に示した実施例では、 人物 Pの顔の部分の温度にのみ基づい て男女識別を行う構成である。 しかし、 人物 Pの顔の温度と手の平の温度とを組み合 わせて男女識別する構成とすることもできる。
次に、 第 8図、 第 9 A図、 第 9 -B図の実施例を一部変更し、 人物 Pの顔の温度と手 の平の温度とを組み合わせる事で男女を識別するようにした実施例について説明する。 この場合の画像処理データプログラムの要部のフローチヤ一卜が第 1 1図に示されて いる。
この実施例の場合には、 第 8図に示した押ボタンスィッチ 6に代えて、 第 1 2図に 示すセンサ 7を用いる。 センサ 7は、 第 8図の押ボタンスィッチ 6 *第 1 2図で 7 A で示されるような自動ドアの開閉バーのような形状にして、 この部分に赤外線温度セ ンサ 7 Aを設置した構成にすることで手の平の温度を検知するようにしたものである。 ここでは、 センサ 7 Aの近くにプレート 7 Bを設置し、 プレート 7 Bに 「手の平部分 を押しつけて下さい」 との注意書きを表示している。 これにより手の平の温度を検知 することができる。
手の平の温度を組み合わせて男女識別を行うための、 第 1 1図に示す処理を含むデ —夕処理も基本的には第 9 A図及び第 9 B図に示したのと同様であるが、 新たに手の 平の強調分散値も使用する点で異なっている。 第 9 A図及び第 9 B図に示したステツ プ 1 7 ~ 2 2に代えて、 第 1 1図に示すステップ 3 1 ~ 3 7の処理が行われる以外は 先の実施例と同じである。
これらの処理について説明すると、 第 9 A図のステップ 1 6までの処理が終了した 後、 ステップ 3 1、 3 2で手の強調分散値を求め、 ステップ 1 8の頰強調分散値の代 わりにステップ 3 3、 3 4で手の強調分散値を頼平均値/あご平均値と組み合わせて 分類結果(a) を得る。 さらに、 ステップ 3 5、 3 6ではステップ 1 9、 2 0の代わり に手の強調分散値と頰の強調分散値を組み合わせて分類結果(b) を得る。 次にステツ プ 2 1の代わりにステップ 3 7で手の強調分散値を使用し分類結果(c) を得る。 以上 のステップで 3つの分類結果を求めた後は第 9 B図のステップ 2 3から 2 7までと同 じ処理を行う。
次に、 手の平部の温度のみを使用した場合の男女識別処理の実施例について説明す る。
この場合には第 8図に示す構成のうち、 画像データ処理装置 3、 モニタ装置 4、 表 示器 5が用いられるほか、 押ボタンスィッチ 6に代えて第 1 2図に示したセンサ 7が 用いられる。 そして、 この場合のデータ処理は、 第 9 A図及び第 9 B図に示すステツ プ 1 1〜2 4に代えて、 第 1 3図に示される処理を実行する。
第 1 3図において、 ステップ 4 1を構成するステップ 4 1 A、 4 2 Aは第 1 1図の ステップ 3 1と 3 2と同じ処理であり、 手の平の温度を取りこみその強調分散値を算 出する。 ステップ 4 2では算出した手の平の強調分散値をあらかじめ求めてある基準 値と比較して男女分類する。 その後の処理は第 9 B図のステップ 2 5以降と同じであ る。
次に、 頰の温度とあご部の温度のほかに、 鼻下のひげ部分のカラー画像を使用して 男女を識別するようにした場合の実施例について説明する。 この実施例では、 可視画 像の鼻下部分のカラー画像を得、 頰温度及びあご部の温度と組み合わせるため、 第 8 図に示される赤外線画像撮影用のテレビカメラ 2 A以外に、 可視画像撮影用のテレビ カメラ 2 Bを設置し、 可視画像撮影用のテレビカメラ 2 Bからの可視画像信号 V D B も画像データ処理装置 3に送られるように構成される。
この場合におけるデータ処理は、 第 9 A図及び第 9 B図のステップ 1 5〜2 3の処 理に代えて、 第 1 4図に示すステツプ 5 1〜 5 6の処理が行われる。
すなわち、 第 9 A図のステップ 1 1と 1 2で赤外線顔画像を抽出してからメガネ着 用を判定後、 第 1 4図のステップ 5 1で赤外線顔画像抽出を行う。 次のステップ 5 2 で可視画像撮影用のテレビカメラ 2 Bの可視画像信号 V D Bから顔部分の鼻下ヒゲ部 分のカラー画像を抽出する。 ステップ 5 3では、 この抽出された鼻下ヒゲ部分のカラ 一画像を予め求めてある男性のひげ部分の黒色レベル基準と比較し、 基準のレベル以 上であれば男性に、 基準以下であれば女性に分類し結果(a) を得る。
ステップ 5 4を構成するステップ 5 4 A〜5 4 Eは第 9 A図,のステップ 1 5からス テツプ 1 9と同じ処理である。 ステップ 5 5で 2つ目の分類(b) を、 ステップ 5 6で 3つ目の分類(c) を行う。 この後のステップは図 9 Aのステップ 2 4以降と同じ処理 である。
同様な考え方で、 顔可視画像の口紅の色や目の周りのアイシャ ドウ、 アイライン、 マスカラ、 眉自体とその周辺の眉墨、 頰の頰紅、 顔の肌の色などを鼻下部分のヒゲの 黒色に代えて実施する事も可能である。
なお、 上記実施例では、 男女識別装置 1力 男女を識別しその識別結果によって異 なる案内を行う無人案内装置として働くように構成されているが、 本発明はこの実施 例に限定されるものではない。 例えば、 ステップ 2 6、 2 7をそれぞれ、 「入構でき ません」 「いらっしゃいませ」 とすれば、 女性のみの入構を許可するようにすること ができる。 又は、 決定結果が男性の場合にのみ鳴動するブザーを表示器 5の代わりに 設け、 例えば女性更衣室あるいは公衆トイレの女性用入口扉の開閉に適用すれば、 男 性の侵入を阻止するための警備装置として働かせることができる。
また、 この実施例では、 人物 Pの顔部の発熱温度、 手の平の温度等に基づいて男女 識別を行う構成としたが、 これらに加えて、 目の周りのアイシャ ドウ、 アイライン、 マスカラ、 盾自体とその周辺の眉墨、 頰の頰紅、 口に塗られた口紅、 顔の肌の色、 頰 からあごおよび鼻の下のひげによる黒みがかった肌の色やひげ自体の色等による男女 識別方法を組み合わせることで男女識別の精度をより一層高くすることができる。 このほかの応用例としては以下のものを挙げることができる。
デパート、 各種ショ ッピングセンタ一、 店舗、 及びアミューズメント施設の入店 ' 入場者数の男女別統計を自動的に取る構成とすることにより、 この統計結果をもとに 販売方法や施設の改善を行うことができる。
個人認証に本発明の男女識別を併用すれば、 セキュリティ · システムをより強固に できる。
本発明によれば、 以下に記載される効果を奏する。
人物の意志により変えることのできる服装、 髮型、 化粧、 歩き方、 などの外見や、 声に無関係に生体的特徴により男女識別ができる。 生体的特徴のみを使用した場合は 人種に無関係に男女識別ができる。 人物に非接触で男女識別できる。 周囲温度に影響 されずに男女識別できる。 眼鏡使用の有無にかかわらず男女識別できる。 各特徵の組 み合わせによる識別を行うことで信頼性の高い男女識別ができる。 生体的特徴で識別 を決定できない人物も、 顔の各部の色情報を併用することで男女識別できる。 産業上の利用可能性
以上のように、 本発明による男女識別方法は、 人物の意志により変えることのでき る服装、 髪型、 化粧、 歩き方、 などの外見や、 声に無関係に生体的特徵により男女識 別ができるので、 より精度の高 、男女識別システムの構築に役立つ。

Claims

請求の範囲
1 . 人間の体表面の温度を利用することを特徵とする男女識別方法。
2 . 人間の顔の一部分の温度に基づいて男女識別を行うことを特徴とする男女識別 方法。
3 . 前記顔の"^部分が、 頰部分である請求の範囲第 2項記載の男女識別方法。
4 . 頰部分の温度に基づいて男女識別を行う請求の範囲第 3項記載の男女識別方法。
5 . 頰部分の温度と温度分散とに基づいて男女識別を行う請求の範囲第 3項記載の 男女識別方法。
6 . 前記温度分散が 一〉: (Α',. - に基づく分散値である請求の範囲第 5項
" .
記載の男女識別方法。
7 . 前記温度分散が式 : ·ΛΛ !'— ^ に基づく強調分散値である請求
n i=l
の範囲第 5項記載の男女識別方法。
8 . 前記顔の一部分が、 頰部分とあご部分である請求の範囲第 2項記載の男女識別 方法。
9 . 前記頰部分とあご部分との各温度の比に基づいて男女識別を行う請求の範囲第 8項記載の男女識別方法。
1 0 . 人間の顔の各部分と手の各部の温度を組み合わせて男女識別を行うことを特 徵とする男女識別方法。
1 1 . 人間の顔の各部分に温度抽出用テンプレートかけてその抽出部分の温度に統 計処理を施し男女識別を行う請求項 1記載の男女識別方法。
1 2 . 人間の手の部分に温度抽出用テンプレートかけてその抽出部分の温度に統計 処理を施し男女識別を行う請求項 1記載の男女識別方法。
1 3 . 人間の顔と手の各部分に温度抽出用テンプレートかけてその抽出部分の温度 の分散を計算する各項の 2乗を 4乗に変えて統計処理を施し、 この値を使用して男女 識別を行う請求項 1又は請求項 2記載の男女識別方法。
1 4 . 人間の顔の各部分に温度抽出用テンプレートかけてその抽出部分の温度に統 計処理を施したデ一タと人間の手の部分に温度抽出用テンプレートかけてその抽出部 分の温度に統計処理を施したデータを組み合わせて男女識別を行う請求項 1、 請求項 2又は請求項 5記載の男女識別方法。
1 5 . 請求項 2、 請求項 3、 請求項 4、 請求項 5又は請求項 6記載の方法に基づい て 3通りの方法を組み合わせ、 その中の 2通りの方法の結果が一致する場合を男女認 識結果とする男女識別方法。
1 6 . 眼鏡を着用していても眼鏡部分に影響を受けない請求項 1、 請求項 2、 請求 項 3、 請求項 4、 請求項 5、 請求項 6又は請求項 7記載の方法に基づく男女識別方法。
1 7 . 人間の目の周りのアイシャ ドウ、 アイライン、 マスカラ、 眉自体とその周辺 の眉墨、 頰の頰紅、 口に塗られた口紅、 顔の肌の色、 頰からあごおよび鼻の下のひげ による黒みがかった肌の色やひげ自体の色と、 請求項 1、 請求項 2、 請求項 3、 請求 項 4、 請求項 5 , 請求項 6又は請求項 7記載の方法を組み合わせて行う男女識別方法。
1 8 . 判定対象人物が男女いずれであるかを識別するための男女識別方法において、 判別対象人物の赤外線顔画像データを得、 該赤外線顔画像データに基づいて前記判定 対象人物の頰部分の温度を抽出し、 抽出された頰部分の温度に基づ 1、て前記判定対象 人物が男性であるか女性であるかを判定することを特徴とする男女識別方法。
1 9 . 前記赤外線顔画像データに基づいて前記判定対象人物のあご部分の温度も抽 出し、 抽出された頰部分の温度とあご部分の温度とに基づいて前記判定対象人物が男 性であるか女性であるかを判定するようにした請求の範囲第 1 8項記載の男女識別方 法。
2 0 . 前記判定対象人物の可視顔画像データを得、 該可視顔画像デ—タに基づいて 前記判定対象人物の鼻下ヒゲ部分の黒色レベルに基づいて前記判定対象人物が男性で あるか女性であるかを判定するステップをさらに備え、 複数の男女判定結果に基づい て男女識別を行うようにした請求の範囲第 1 8項又は第 1 9項記載の男女識別方法。
2 1 . 判定対象人物の手の平の温度データを得、 該手の平の温度データに基づいて 前記判定対象人物が男性であるか女性であるかを判定するステップをさらに備え、 複 数の男女判定結果に基づいて男女識別を行うようにした請求の範囲第 1 8項又は第 1 9項記載の男女識別方法。
2 2 . 判定対象人物が男女いずれであるかを識別するための男女識別方法において、 テレビカメラからの撮像信号によつて前記判定対象人物の赤外線顔画像デ一タを得、 赤外線顔画像データに基づいて前記判定対象人物の頰部及びあご部の温度を抽出して これらの平均温度を算出し、 頰データ/あごデータ及び頰強調分散値を算出し、 頰デ —夕/あごデ一夕と頰強調分散値とを X、 Y平面上に展開して第 1の男女判定を行い、 頰デ一夕/あごデ一夕による第 2の男女判定及び頰強調分散値による第 3の男女判定 を行い、 第 1乃至第 3の男女判定結果の 2つ以上の一致にしたがって前記判定対象人 物の男女識別を行うようにした男女識別方法。
PCT/JP2005/001035 2004-01-22 2005-01-20 男女識別方法 WO2005070301A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005517318A JP4359652B2 (ja) 2004-01-22 2005-01-20 男女識別方法
US10/586,057 US7899218B2 (en) 2004-01-22 2005-01-20 Gender identification method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-045440 2004-01-22
JP2004045440 2004-01-22

Publications (1)

Publication Number Publication Date
WO2005070301A1 true WO2005070301A1 (ja) 2005-08-04

Family

ID=34805960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001035 WO2005070301A1 (ja) 2004-01-22 2005-01-20 男女識別方法

Country Status (3)

Country Link
US (1) US7899218B2 (ja)
JP (1) JP4359652B2 (ja)
WO (1) WO2005070301A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027242A (ja) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc 対象物の部位判別装置及び性別判定装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7904461B2 (en) * 2007-05-01 2011-03-08 Google Inc. Advertiser and user association
US8055664B2 (en) 2007-05-01 2011-11-08 Google Inc. Inferring user interests
US8041082B1 (en) 2007-11-02 2011-10-18 Google Inc. Inferring the gender of a face in an image
US8027521B1 (en) * 2008-03-25 2011-09-27 Videomining Corporation Method and system for robust human gender recognition using facial feature localization
DE102011011767A1 (de) * 2011-02-18 2012-08-23 Fresenius Medical Care Deutschland Gmbh Medizintechnisches Gerät mit Mehrfunktionsdisplay
US20120182427A1 (en) * 2011-06-06 2012-07-19 Aaron Marshall System and method for providing thermal gender recognition
FR2997528B1 (fr) * 2012-10-26 2021-10-15 Oberthur Technologies Identification biometrique
US9852324B2 (en) 2015-12-08 2017-12-26 Intel Corporation Infrared image based facial analysis
KR101664940B1 (ko) * 2016-05-12 2016-10-12 (주)엘리비젼 가상현실을 이용한 헤어 스마트 미러 시스템
US20180070850A1 (en) * 2016-09-15 2018-03-15 Karen S. Stafford Apparatus and method for detecting body composition and correlating it with cognitive efficiency
US11185235B2 (en) * 2017-03-27 2021-11-30 Panasonic Intellectual Property Management Co., Ltd. Information processing method, information processing device, and recording medium
US11450151B2 (en) * 2019-07-18 2022-09-20 Capital One Services, Llc Detecting attempts to defeat facial recognition
US11984222B2 (en) 2021-09-02 2024-05-14 Safety Shield Products, LLC System and method for sharing health data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249444A (ja) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 物体属性検出方法
JPH10293837A (ja) * 1997-04-21 1998-11-04 Oki Electric Ind Co Ltd 2値データ識別方法
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5163094A (en) * 1991-03-20 1992-11-10 Francine J. Prokoski Method for identifying individuals from analysis of elemental shapes derived from biosensor data
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249444A (ja) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> 物体属性検出方法
JPH10293837A (ja) * 1997-04-21 1998-11-04 Oki Electric Ind Co Ltd 2値データ識別方法
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
IRIKI M. ET AL: "Kenjo Nipponjin Kokuon no Tokeichi ni Tsuite -Kokuon Sokutei no Mondaiten Oyobi Ekikaon tono Hikaku", NAIKA, vol. 62, no. 1, 1 July 1988 (1988-07-01), pages 162 - 165, XP002990290 *
KIHARA M. ET AL: "Seijo Seijin Sokkonbu Hifuon no Shinkei Seirigakuteki Kento -Seisa, Sayusa, Oyobi Kareiteki Henka ni Tsuite", JAPANESE JOURNAL OF GERIATRICS, vol. 21, no. 4, July 1984 (1984-07-01), pages 381 - 382, XP002990292 *
NISHINO S. ET AL: "Sekigaisen Gazo o Mochiita Danjo Shikibetsu no Shiko", 2004 NEN THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS SOGO TAIKAI KOEN RONBUNSHU JOHO SYSTEM 2, 8 March 2004 (2004-03-08), pages 181, XP002990288 *
OKAMOTO N. ET AL: "Danjo Taion no Hikaku Kenkyu -Shisatsuho Oyobi Cosinor-ho o Mochitte", RINSHO NOHA, vol. 33, no. 7, 1 July 1991 (1991-07-01), pages 485 - 488, XP002990289 *
YAMAMOTO K. ET AL: "Shitsuon no Chigai ni yoru Haibu Seishiki ga Hifuon, Komakuon Oyobi Onnetsu Kankaku ni Oyobosu Eikyo", JAPANESE JOURNL OF PHYSIOLOGICAL ANTHROPOLOGY, vol. 8, no. 4, November 2003 (2003-11-01), pages 217 - 223, XP002990287 *
YOSHIUE S. ET AL: "Seijochi . Ijochi Taion", SOGO RINSHO, vol. 34, 10 August 1985 (1985-08-10), pages 1599 - 1606, XP002990291 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027242A (ja) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc 対象物の部位判別装置及び性別判定装置

Also Published As

Publication number Publication date
US20070274572A1 (en) 2007-11-29
US7899218B2 (en) 2011-03-01
JPWO2005070301A1 (ja) 2007-09-06
JP4359652B2 (ja) 2009-11-04

Similar Documents

Publication Publication Date Title
JP4359652B2 (ja) 男女識別方法
Silva et al. A new database for breast research with infrared image
Wang et al. Infrared imaging of hand vein patterns for biometric purposes
WO2019090769A1 (zh) 一种人脸脸型识别方法、装置和智能终端
KR20190051256A (ko) 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
AU2017217944B2 (en) Systems and methods for evaluating pigmented tissue lesions
CN106241584A (zh) 一种基于扶梯安全的智能视频监控系统及方法
JP2004529703A (ja) ポリグラフ検査のための熱画像解析
JP2004529702A (ja) ポリグラフ検査のための熱画像解析
KR20160078208A (ko) 생체 인증 장치 및 방법
JPH06500177A (ja) バイオセンサデータから導き出された基本形状の解析から個人を識別する方法
KR101301821B1 (ko) 안색 정보 생성 장치 및 그 방법, 안색 정보를 이용한 건강 상태 판단 장치 및 그 방법, 건강 분류 함수 생성 장치 및 그 방법
JP2004527313A (ja) 被験者の行動解析
JP2007068620A (ja) 心理状態計測装置
Beveridge et al. Focus on quality, predicting FRVT 2006 performance
Marzec et al. Automatic method for detection of characteristic areas in thermal face images
Mohd et al. A non-invasive facial visual-infrared stereo vision based measurement as an alternative for physiological measurement
KR20130141285A (ko) 피부상태 진단 방법 및 장치와 이를 이용한 피부상태 적합 화장정보 제공 방법
Boudouane et al. Wearable camera for fall detection embedded system
Buddharaju et al. Face recognition beyond the visible spectrum
JP2001061817A (ja) 個人識別方法及び個人識別プログラムを記録した記録媒体
CN110399786A (zh) 一种无感识别方法及系统
Gupta et al. Detection of cancer in breast thermograms using mathematical threshold based segmentation and morphology technique
Sharma et al. Lip print recognition for security systems: an up-coming biometric solution
CN112950242A (zh) 一种信息推送方法、装置及电子设备

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005517318

Country of ref document: JP

122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 10586057

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10586057

Country of ref document: US