JP2009172181A - Health checkup method and health checkup apparatus - Google Patents

Health checkup method and health checkup apparatus Download PDF

Info

Publication number
JP2009172181A
JP2009172181A JP2008014577A JP2008014577A JP2009172181A JP 2009172181 A JP2009172181 A JP 2009172181A JP 2008014577 A JP2008014577 A JP 2008014577A JP 2008014577 A JP2008014577 A JP 2008014577A JP 2009172181 A JP2009172181 A JP 2009172181A
Authority
JP
Japan
Prior art keywords
color information
health
color
pupil
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008014577A
Other languages
Japanese (ja)
Inventor
Michihiro Nagaishi
道博 長石
Sunao Murata
すなお 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008014577A priority Critical patent/JP2009172181A/en
Publication of JP2009172181A publication Critical patent/JP2009172181A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • G06F19/00

Abstract

<P>PROBLEM TO BE SOLVED: To provide a health checkup method and a health checkup apparatus capable of judging a health condition accurately and easily by using of a face image. <P>SOLUTION: In an image of a user face, the color information of the eye part is difficult to be affected by the lighting condition and the health condition and the face color information is corrected from the eye color information to perform color correction of the face color information (step S270). Then the health condition of the user is determined corresponding to the face color information after correction (step S280). By using of the eye color information which is difficult to be affected by the lighting condition, the color correction of the face color information can be performed without setting the predetermined color standard differently, and the determination of health condition from the face color can be performed accurately and easily. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、人物を写した画像を用いて健康状態を判定する健康診断方法、および健康診断装置に関する。   The present invention relates to a health checkup method and a health checkup apparatus that determine a health condition using an image of a person.

従来、例えば、顔色に青色がかっているときに体調が優れないなど、ユーザーの顔色と健康状態とは密接な関係を有していることが知られており、この性質を利用して、撮影した顔画像を用いて人物の健康状態を判定する技術が提案されている(例えば、非特許文献1参照)。   Conventionally, it has been known that there is a close relationship between the user's face color and health condition, such as poor physical condition when the face color is blue, etc. A technique for determining a person's health state using a face image has been proposed (for example, see Non-Patent Document 1).

また、非特許文献1に記載の技術では、所定の色基準と人物とを1フレーム内に撮影し、撮影された色基準の色を用いて顔の色を校正することにより、健康状態の判定において、撮影時における照明条件の影響を排除するようにしている。   In the technique described in Non-Patent Document 1, a predetermined color reference and a person are photographed in one frame, and the face color is calibrated using the photographed color reference color, thereby determining the health condition. In this case, the influence of the illumination condition at the time of photographing is excluded.

石橋伸之、他2名、“顔色計測を簡素化して「健康の目安」にする方法”、[online]、インターネット、<http://chihara.aist-nara.ac.jp/gakkai/VIR/PDF/A-08.pdf>Nobuyuki Ishibashi and two others, “How to simplify facial color measurement to become“ a measure of health ”” [online], Internet, <http://chihara.aist-nara.ac.jp/gakkai/VIR/PDF /A-08.pdf>

しかしながら、非特許文献1に記載の技術では、撮影時に、色校正を行うための色基準をセットする必要があるので、健康状態の判定を受けようとするユーザーにとっては、撮影にかかる手間が増えて不便になってしまうという課題があった。特に、携帯電話などの携帯機器の場合、屋外などにおいては色基準をセットすることが困難な場合も多いので、色基準のセットを要する健康状態の判定機能を携帯機器に搭載してもユーザーにとっての利便性に欠けた、利用し難い機能となることが考えられる。   However, in the technique described in Non-Patent Document 1, since it is necessary to set a color reference for color calibration at the time of shooting, it takes more time for shooting for a user who wants to receive a health condition determination. There was a problem of becoming inconvenient. In particular, in the case of mobile devices such as mobile phones, it is often difficult to set color standards outdoors, etc., so even if the mobile device is equipped with a health condition determination function that requires setting of color standards, It is conceivable that it becomes a function that is difficult to use and lacks convenience.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]顔画像を用いて健康状態を診断する健康診断方法であって、前記顔画像から瞳の色情報を検出する検出ステップと、前記瞳の色情報に基づいて、前記顔画像の色情報を校正する校正ステップと、色校正後の前記顔画像の色情報に基づいて健康状態を判定する判定ステップと、を備えることを特徴とする健康診断方法。   Application Example 1 A health diagnosis method for diagnosing a health condition using a face image, wherein a detection step of detecting pupil color information from the face image, and based on the pupil color information, A health diagnosis method comprising: a calibration step of calibrating color information; and a determination step of determining a health state based on color information of the face image after color calibration.

このようにすれば、照明条件の影響を受け難い瞳の色を基準にして、健康状態の判定に用いる顔画像の色が校正されるので、顔画像の撮影時における照明条件に関わらずに健康状態を正確に判定することができる。また、瞳の色を基準にして色校正を行うので、非特許文献1に記載の技術と異なり、色基準をセットする必要がない。したがって、顔画像を用いて行う健康状態の判定を正確且つ容易に行うことができる。   In this way, the color of the face image used to determine the health condition is calibrated based on the color of the pupil that is not easily affected by the lighting conditions. The state can be accurately determined. In addition, since color calibration is performed based on the pupil color, unlike the technique described in Non-Patent Document 1, there is no need to set a color reference. Therefore, it is possible to accurately and easily determine the health state performed using the face image.

[適用例2]上記健康診断方法において、前記校正ステップにおいて、基準となる照明条件下で撮影された瞳の色情報と、検出した前記瞳の色情報との差を低減または解消するように、前記顔画像の色を補正することを特徴とする健康診断方法。   [Application Example 2] In the health check method, in the calibration step, the difference between the color information of the pupil photographed under the reference illumination condition and the detected color information of the pupil is reduced or eliminated. A health diagnostic method comprising correcting the color of the face image.

[適用例3]上記健康診断方法において、前記判定ステップにおいて、前記顔画像のうち目元領域の色情報に基づいて健康状態を判定することを特徴とする健康診断方法。   Application Example 3 In the health diagnosis method, in the determination step, a health condition is determined based on color information of an eye area in the face image.

[適用例4]上記健康診断方法において、撮影対象の被写体を写した画像と瞳の位置合わせ用のマークとを重ねて表示し、撮影対象の瞳と前記位置合わせ用マークの位置とを合わせた状態で前記撮影対象の撮影を行うことにより、前記顔画像を取得する撮影ステップ、をさらに備えることを特徴とする健康診断方法。   Application Example 4 In the above health checkup method, an image showing a subject to be photographed and a pupil alignment mark are displayed in an overlapping manner, and the pupil to be photographed is aligned with the position of the alignment mark. A health diagnosis method, further comprising: a photographing step of obtaining the face image by photographing the photographing object in a state.

[適用例5]顔画像を用いて健康状態を診断する健康診断装置であって、前記顔画像から瞳の色情報を検出する検出手段と、前記瞳の色情報に基づいて、前記顔画像の色情報を校正する校正手段と、色校正後の前記顔画像の色情報に基づいて健康状態を判定する判定手段と、を備えることを特徴とする健康診断装置。   Application Example 5 A health diagnostic apparatus for diagnosing a health condition using a face image, the detection means for detecting color information of a pupil from the face image, and the detection of the face image based on the color information of the pupil A health diagnostic apparatus comprising: calibration means for calibrating color information; and determination means for determining a health state based on color information of the face image after color calibration.

以下、本発明の実施の形態について、実施例に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on examples.

図1は、本実施例に係る健康診断装置の構成を示したブロック図である。図1に示すように、健康診断装置1は、デジタルカメラ部10と、色情報検出部20と、リファレンス登録部30と、データベース部40と、色校正部(校正手段)50と、健康状態判定部(判定手段)60と、ユーザーが健康診断装置1を操作するための各種スイッチを含む操作パネル70と、LCD(Liquid Crystal Display)や有機ELディスプレイなどの表示パネル80と、デジタルカメラ部10、操作パネル70および表示パネル80の動作を制御する制御部90とを備えている。なお、本実施例の健康診断装置1は、健康状態の診断対象とするユーザーの顔をデジタルカメラ部10により撮影し、撮影した顔色によりユーザーの健康状態を判定するものである。健康診断装置1の具体例としては、デジタルカメラ機能を備えた、携帯電話、PHS(Personal Handyphone System)などの携帯機器が挙げられる。以下、健康診断装置1の各構成について説明する。   FIG. 1 is a block diagram illustrating a configuration of a health diagnosis apparatus according to the present embodiment. As shown in FIG. 1, the health diagnosis apparatus 1 includes a digital camera unit 10, a color information detection unit 20, a reference registration unit 30, a database unit 40, a color calibration unit (calibration means) 50, and a health condition determination. Unit (determination means) 60, an operation panel 70 including various switches for the user to operate the health diagnostic apparatus 1, a display panel 80 such as an LCD (Liquid Crystal Display) or an organic EL display, the digital camera unit 10, And a control unit 90 for controlling operations of the operation panel 70 and the display panel 80. The health diagnosis apparatus 1 of the present embodiment captures a user's face as a health condition diagnosis target with the digital camera unit 10, and determines the user's health condition based on the photographed face color. Specific examples of the health diagnostic apparatus 1 include portable devices such as a mobile phone and a PHS (Personal Handyphone System) that have a digital camera function. Hereinafter, each component of the health checkup apparatus 1 will be described.

色情報検出部20は、瞳色情報検出部(検出手段)21と、顔色情報検出部22とを有している。瞳色情報検出部21は、デジタルカメラ部10により撮像された画像データに撮影された顔画像に対して輪郭抽出などの画像処理を行うことにより目、鼻などの部位を特定し、目の領域のうち瞳部分の色情報(以下、「瞳色情報」という)を検出する処理を行う。また、顔色情報検出部22は、顔画像のうち顔色を表す色情報(以下、「顔色情報」という)として検出する。なお、本実施例では、目元領域の色情報が顔色情報として検出される。目元領域の色情報を顔色情報とするのは、目元の色は健康状態の変化に応じて色変化が生じ易く、且つ鼻や頬などに比べて照明による陰影の影響を受け難いためである。   The color information detection unit 20 includes a pupil color information detection unit (detection means) 21 and a face color information detection unit 22. The pupil color information detection unit 21 specifies a part such as an eye and a nose by performing image processing such as contour extraction on the face image captured in the image data captured by the digital camera unit 10, and the eye region Among these, processing for detecting color information of the pupil part (hereinafter referred to as “pupil color information”) is performed. The face color information detection unit 22 detects color information representing the face color (hereinafter referred to as “face color information”) in the face image. In this embodiment, the color information of the eye area is detected as face color information. The reason why the color information of the eye area is the face color information is that the color of the eye area is likely to change in accordance with the change of the health condition and is less susceptible to the shadows due to illumination than the nose and cheeks.

リファレンス登録部30は、後述する色校正に用いるためのリファレンスデータRDをデータベース部40に登録する部分であり、リファレンスデータRDを登録する際には、検出された瞳色情報に加えて、ユーザー名、撮影日時などの情報をリファレンスデータRDとしてデータベース部40に登録する。   The reference registration unit 30 is a part for registering reference data RD to be used for color calibration, which will be described later, in the database unit 40, and when registering the reference data RD, in addition to the detected pupil color information, the user name Information such as the shooting date and time is registered in the database unit 40 as reference data RD.

また、データベース部40には、人物の顔色と健康状態との関係を示す状態判定テーブルHTが予め登録されている。状態判定テーブルHTには、図2(a)、(b)に示すように、xy色度座標上の色域T1〜T5と、顔色が各色域の範囲内の色であるときの代表的な健康状態とが対応付けられている。例えば、黄色系の顔色に対応する色域T1については、顔色に黄色がかっているユーザーは良好な健康状態であるとされ、白色系の顔色に対応する色域T2については、肺や鼻などの呼吸器系に注意が必要な健康状態であるとされる。同様に、赤色系の顔色に対応する色域T3については心臓に注意が必要な健康状態、緑色系の顔色に対応する色域T4については胃腸に注意が必要な健康状態、青色系の顔色に対応する色域T5については内臓またはストレスに注意が必要な健康状態、であるとされる。このように、状態判定テーブルHTには、人の顔色と健康状態との関係が示されている。もちろん、図2(a)に示した各色域T1〜T5、および図2(b)に示した状態判定テーブルHTの内容は、様々な健康状態に応じて適宜設定すべきものであって、図2の例に限られるものではない。また、本実施例では、xy色度座標上で各健康状態を分類するようにしているが、例えば、HSV表色系における彩度や明度の値により健康状態を分類するようにしてもよい。   In the database unit 40, a state determination table HT indicating the relationship between the person's face color and the health state is registered in advance. In the state determination table HT, as shown in FIGS. 2A and 2B, color gamuts T1 to T5 on the xy chromaticity coordinates and representative colors when the face color is within the range of each color gamut. Health status is associated. For example, for a color gamut T1 corresponding to a yellowish complexion, a user who has a yellowish complexion is considered to be in good health, and for a color gamut T2 corresponding to a white complexion, such as lungs and nose It is said to be a health condition that requires attention to the respiratory system. Similarly, for the color gamut T3 corresponding to the red color, the health state requires attention to the heart, and for the color gamut T4 corresponding to the green color, the health condition requires attention to the gastrointestinal tract and the blue color. The corresponding color gamut T5 is considered to be a visceral state or a healthy state that requires attention to stress. Thus, the state determination table HT shows the relationship between the human face color and the health state. Of course, the contents of the color gamuts T1 to T5 shown in FIG. 2A and the state determination table HT shown in FIG. 2B should be set as appropriate according to various health conditions. It is not limited to the example. In the present embodiment, the health states are classified on the xy chromaticity coordinates. However, for example, the health states may be classified based on values of saturation and lightness in the HSV color system.

色校正部50は、ユーザーの健康状態を判定する際に、リファレンスデータRDを参照して、瞳色情報を用いた顔色情報の色校正を行う。そして、健康状態判定部60は、状態判定テーブルHTを参照して、色校正後の顔色情報に対応する健康状態を判定する処理を行う。なお、顔色情報の色校正に瞳色情報を用いるのは、瞳の色は健康状態に左右され難く安定しているため、色校正用の色基準として適するからである。   The color calibration unit 50 performs color calibration of the face color information using the pupil color information with reference to the reference data RD when determining the health state of the user. Then, the health condition determination unit 60 refers to the condition determination table HT and performs a process of determining a health condition corresponding to the face color information after color calibration. The reason why the pupil color information is used for the color calibration of the face color information is that the color of the pupil is not affected by the health condition and is stable and is suitable as a color reference for color calibration.

そして、健康状態判定部60は、状態判定テーブルHTを参照して、色校正後の顔色情報に基づき健康状態を判定する。すなわち、色校正後の顔色情報に対応する色域を色域T1〜T5のうちから選択し、選択した色域に対応する健康状態が、判定対象とするユーザーの健康状態であると判定する。   Then, the health condition determination unit 60 refers to the condition determination table HT to determine the health condition based on the face color information after color calibration. That is, the color gamut corresponding to the face color information after color calibration is selected from the color gamuts T1 to T5, and the health state corresponding to the selected color gamut is determined to be the health state of the user to be determined.

以上に説明したように、本健康診断装置1は、撮影した画像データにおいて、健康状態の影響を受け難い瞳色情報を用いて顔色情報の色校正を行うことにより、撮影時の照明条件による顔色への影響を排除もしくは低減した上で、健康状態の判定を行うようにしている。   As described above, the health diagnostic apparatus 1 performs facial color information color calibration using pupil color information that is not easily affected by the health condition in the captured image data, so that the facial color according to the illumination condition at the time of imaging is determined. The health condition is determined after eliminating or reducing the impact on the health.

次に、以上に説明した健康診断装置1により健康状態を判定する処理の流れについてフローチャートに従って説明する。以下、まず、図3のフローチャートに従って、リファレンスデータ登録時の処理について説明する。   Next, the flow of processing for determining a health condition by the health diagnostic apparatus 1 described above will be described with reference to a flowchart. Hereinafter, first, the processing at the time of reference data registration will be described according to the flowchart of FIG.

リファレンスデータRDの登録は、例えば、標準光源D65など、基準とする所定の照明環境下において行われる。基準とする照明環境下にいるユーザーが、操作パネル70を操作してリファレンスデータRDを登録する旨の指示を入力すると、図3の処理が開始される。処理が開始されると、まず、図4に例として示すように、制御部90の制御により表示パネル80には、被写体の画像に重ねて、瞳の位置を合わせるための位置合わせ用マークMが表示される(ステップS100)。ユーザーは、表示パネル80に表示された位置合わせ用マークMの位置を確認して、自身の瞳の位置を位置合わせ用マークMに合わさるように、自身とデジタルカメラ部10との位置関係を調整する。そして、操作パネル70に含まれる撮影用スイッチが押下されると(ステップS110:Yes)、デジタルカメラ部10はユーザーの顔を撮影して、瞳位置が所定位置に合わせられた画像データを取り込む(ステップS120)。   Registration of the reference data RD is performed under a predetermined illumination environment as a reference, such as a standard light source D65. When the user in the reference lighting environment operates the operation panel 70 and inputs an instruction to register the reference data RD, the process of FIG. 3 is started. When the processing is started, first, as shown in FIG. 4 as an example, the display panel 80 is provided with an alignment mark M for aligning the pupil position on the display panel 80 under the control of the control unit 90. It is displayed (step S100). The user confirms the position of the alignment mark M displayed on the display panel 80 and adjusts the positional relationship between itself and the digital camera unit 10 so that the position of his / her pupil matches the alignment mark M. To do. When the photographing switch included in the operation panel 70 is pressed (step S110: Yes), the digital camera unit 10 photographs the user's face and takes in image data in which the pupil position is adjusted to a predetermined position ( Step S120).

次に、瞳色情報検出部21は、撮影した画像データの画像に対して画像処理を行って目、鼻などの顔に含まれる部位の領域および顔の輪郭を特定し、図5に示すように、撮影した画像データにおいて顔を表す顔画像FPのうち瞳領域の色情報をリファレンスの瞳色情報Rとして検出する(ステップS130)。そして、検出した瞳色情報Rが、瞳の色に対応する所定の色範囲に含まれているか否かにより、瞳の色として適切な色となっているかを判断する(ステップS140)。例えば、コンタクトレンズが装着された瞳が赤目となって撮影されたときやフラッシュ光による色かぶりが強く発生したときなど、瞳の色として適切な色になっていない場合は(ステップS140:No)、ステップS100に戻って、ユーザーの顔を撮影し直す。   Next, the pupil color information detection unit 21 performs image processing on the image of the captured image data to identify the region of the face and the contour of the face such as the eyes and nose, as shown in FIG. Then, the color information of the pupil region is detected as the reference pupil color information R in the face image FP representing the face in the captured image data (step S130). Then, it is determined whether or not the detected pupil color information R is an appropriate color as a pupil color based on whether or not the detected pupil color information R is included in a predetermined color range corresponding to the pupil color (step S140). For example, when a pupil with a contact lens is photographed with red eyes or when a color cast due to flash light is intense, the color of the pupil is not appropriate (step S140: No). Returning to step S100, the user's face is photographed again.

一方、瞳の色として適切な色になっていた場合(ステップS140:Yes)、リファレンス登録部30は、ステップS130において検出された瞳色情報R、ユーザー名、および撮影日時などの情報をリファレンスデータRDとして、データベース部40に登録する(ステップS150)。ステップS150において、リファレンスデータRDが登録されると、図3の処理を終了する。   On the other hand, when the pupil color is appropriate (step S140: Yes), the reference registration unit 30 uses the pupil color information R, user name, and shooting date / time information detected in step S130 as reference data. The RD is registered in the database unit 40 (step S150). When the reference data RD is registered in step S150, the process in FIG.

以上のように、リファレンスデータ登録時には、基準とする照明環境において撮影された瞳の色情報がリファレンスデータRDとして登録される。次に、健康状態を判定する際に行う処理の流れについて、図6のフローチャートに従って説明する。   As described above, at the time of reference data registration, the color information of the pupil imaged in the reference illumination environment is registered as the reference data RD. Next, the flow of processing performed when determining the health state will be described with reference to the flowchart of FIG.

例えば、ユーザーが、屋外などリファレンスの登録時に基準とした環境と異なる照明条件において、操作パネル70を操作することにより、ユーザー名を入力して健康状態を判定する旨の指示を入力すると、図6の処理が開始される。処理が開始されると、まず、図4に例として示すように、表示パネル80には、瞳の位置を合わせるための位置合わせ用マークMが表示される(ステップS200)。ユーザーは、表示パネル80に表示された位置合わせ用マークMの位置を確認して、自分の瞳の位置が位置合わせ用マークMに合わさるようにして、自身とデジタルカメラ部10との位置関係を調整する。そして、撮影用スイッチが押下されると(ステップS210:Yes)、デジタルカメラ部10は被写体とするユーザーの顔を撮影して、瞳位置が所定位置に合わせられた画像データを取り込む(ステップS220)。   For example, when the user inputs an instruction to input the user name and determine the health condition by operating the operation panel 70 under lighting conditions different from the environment used as a reference when registering the reference, such as outdoors, FIG. The process is started. When the processing is started, first, as shown in FIG. 4 as an example, the alignment mark M for aligning the pupil position is displayed on the display panel 80 (step S200). The user confirms the position of the alignment mark M displayed on the display panel 80, and adjusts the positional relationship between the user and the digital camera unit 10 so that the position of his / her pupil is aligned with the alignment mark M. adjust. When the photographing switch is pressed (step S210: Yes), the digital camera unit 10 photographs the user's face as a subject and takes in image data in which the pupil position is adjusted to a predetermined position (step S220). .

次に、瞳色情報検出部21は、撮影した画像データの画像における目、鼻などの部位の領域を特定して、図7に示すように、目の領域のうち瞳領域の色情報を瞳色情報Hとして検出する(ステップS230)。そして、顔色情報検出部22は、目元領域の色情報を顔色情報Fとして検出する(ステップS240)。目元領域を特定する方法としては、例えば、目の位置より下側、且つ鼻の位置に対して左右に広がる所定幅の領域を目元領域とするとよい。また、顔色情報Fとしては、鼻の位置に対して左右に分布する目元領域の色情報を別々に算出し、それぞれ顔色情報F1,F2とする。   Next, the pupil color information detection unit 21 specifies the region of the part such as the eyes and the nose in the image of the captured image data, and as shown in FIG. It is detected as color information H (step S230). Then, the face color information detection unit 22 detects the color information of the eye area as the face color information F (step S240). As a method for specifying the eye area, for example, an area having a predetermined width that extends below the eye position and to the left and right with respect to the nose position may be used as the eye area. Further, as the face color information F, the color information of the eye area distributed to the left and right with respect to the position of the nose is calculated separately, and is set as the face color information F1 and F2, respectively.

そして、検出した瞳色情報Hおよび顔色情報Fが適切な値となっているか否かを判断する(ステップS250)。例えば、ユーザーがコンタクトレンズを装着していた場合に瞳が赤目となっているときや、撮影した画像全体に強い色かぶりが生じているときなど、適切な色になっていない場合(ステップS250:No)、ステップS200に戻って、ユーザーの顔を撮影し直す。   Then, it is determined whether or not the detected pupil color information H and face color information F have appropriate values (step S250). For example, when the user is wearing a contact lens and the pupil has red eyes, or when a strong color cast is generated in the entire captured image, the color is not appropriate (step S250: No), returning to step S200, the user's face is photographed again.

一方、瞳色情報Hおよび顔色情報Fが適切な色になっていた場合(ステップS250:Yes)、色校正部50は、データベース部40に登録されたリファレンスデータRDを参照して、ステップS230において検出した瞳色情報Hと、リファレンスの瞳色情報Rとの差を検出する(ステップS260)。ここでは、図8に示すように、xy色度座標において、リファレンスの瞳色情報R(=(Rx,Ry))と、検出した瞳色情報H(=(Hx,Hx))との差ΔH(=(Rx−Hx,Ry−Hx))を算出する。この値ΔHは、リファレンス登録時の照明条件と、健康状態の判定を行おうとするユーザーがいる場所の照明条件との違いにより生じた差であると想定できるので、値ΔHを照明条件の違いによる影響を補正するための補正値とする。   On the other hand, when the pupil color information H and the face color information F are appropriate colors (step S250: Yes), the color calibration unit 50 refers to the reference data RD registered in the database unit 40, and in step S230. A difference between the detected pupil color information H and the reference pupil color information R is detected (step S260). Here, as shown in FIG. 8, the difference ΔH between the reference pupil color information R (= (Rx, Ry)) and the detected pupil color information H (= (Hx, Hx)) in the xy chromaticity coordinates. (= (Rx−Hx, Ry−Hx)) is calculated. Since this value ΔH can be assumed to be a difference caused by the difference between the lighting condition at the time of reference registration and the lighting condition of the place where the user who is going to determine the health condition, the value ΔH depends on the difference in the lighting condition. The correction value is used to correct the influence.

次に、色校正部50は、顔色情報F1,F2のそれぞれについて、補正値ΔH分の色度座標を補正する(ステップS270)。ここでは、図8に示すように、顔色情報F1,F2の各色度座標に対して補正値ΔH分の色度座標を補正することにより、色校正された顔色情報F1’(=F1+ΔH),F2’(=F2+ΔH)を取得する。   Next, the color proofing unit 50 corrects the chromaticity coordinates corresponding to the correction value ΔH for each of the face color information F1 and F2 (step S270). Here, as shown in FIG. 8, the color calibrated face color information F1 ′ (= F1 + ΔH), F2 is obtained by correcting the chromaticity coordinates corresponding to the correction value ΔH with respect to the chromaticity coordinates of the face color information F1, F2. '(= F2 + ΔH) is acquired.

次に、健康状態判定部60は、データベース部40に登録された状態判定テーブルHTを参照して、補正後の顔色情報F1’,F2’に対応する健康状態を判定する(ステップS280)。ここでは、顔色情報F1’,F2’の平均値に対応する健康状態を、ユーザーの健康状態として判定し、例えば、顔色情報F1’,F2’の平均値が、色域T4の範囲に含まれる場合、状態判定テーブルHTに従って胃腸に注意が必要な状態と判定される。なお、顔の左右の目元領域で色が異なり、一方の顔色情報が含まれる色域と、他方の顔色情報が含まれる色域とが異なる場合、顔色情報F1’,F2’の平均値が色域の境界付近にあると想定できるため、例えば、「やや注意が必要」などと、注意の程度を引き下げるように判定してもよい。こうして、ユーザーの健康状態が判定されると、制御部90は判定結果の健康状態を表示パネル80に表示させることにより(ステップS290)、ユーザーに判定結果の健康状態を通知する。ステップS290の処理が行われると、図6の処理を終了する。   Next, the health condition determination unit 60 refers to the condition determination table HT registered in the database unit 40 to determine the health condition corresponding to the corrected face color information F1 'and F2' (step S280). Here, the health state corresponding to the average value of the face color information F1 ′ and F2 ′ is determined as the user's health state. For example, the average value of the face color information F1 ′ and F2 ′ is included in the range of the color gamut T4. In this case, it is determined that the gastrointestinal needs attention according to the state determination table HT. If the color is different in the left and right eye area of the face and the color gamut including one face color information is different from the color gamut including the other face color information, the average value of the face color information F1 ′ and F2 ′ is the color. Since it can be assumed that the area is near the boundary of the area, for example, it may be determined that the degree of attention is lowered, for example, “Slight attention is required”. Thus, when the user's health condition is determined, the control unit 90 displays the determination result on the display panel 80 (step S290), thereby notifying the user of the determination result. If the process of step S290 is performed, the process of FIG. 6 will be complete | finished.

なお、ステップS200〜S220の処理が請求項に記載の撮影ステップ、ステップS230の処理が請求項に記載の検出ステップ、ステップS260,S270の処理が請求項に記載の校正ステップ、ステップS280の処理が請求項に記載の判定ステップに相当する。   Note that the processing in steps S200 to S220 is the photographing step described in the claims, the processing in step S230 is the detection step in the claims, the processing in steps S260 and S270 is the calibration step in the claims, and the processing in step S280 is This corresponds to the determination step recited in the claims.

以上に説明した健康診断装置1によれば、健康状態の影響を受け難く安定した色をもつ瞳の色を色基準として色校正を行っているので、健康状態を判定するときの照明条件に関わらずに、健康状態を正確に判定することができる。これにより、ユーザーは、リファレンスを撮影したときの照明条件に限られることなく、場所を選ばずに健康状態の診断を受けることができる。また、非特許文献1に記載の技術と異なり、色基準をセットする手間をかけることなく顔色情報を色校正することができるので、健康診断装置1を携帯して場所を移動する場面が多いモバイル環境においても、ユーザーは自身の健康状態の正確な診断を簡易に受けることができ、ユーザーにとっての利便性に優れる。以上のことから、顔色による健康状態の判定を正確且つ容易に行うことができる。なお、本健康診断方法は、撮影場所が固定でない携帯機器に適用した場合に特に有用である。   According to the health diagnostic apparatus 1 described above, color calibration is performed using the color of a pupil that is not easily affected by the health condition and has a stable color as a color reference. Without being able to accurately determine the state of health. Thereby, the user is not limited to the illumination conditions when the reference is photographed, and can receive a health condition diagnosis without choosing a place. Further, unlike the technique described in Non-Patent Document 1, since face color information can be color calibrated without taking the time and effort of setting a color reference, there are many scenes in which the health diagnosis apparatus 1 is carried and the location is moved. Even in the environment, the user can easily receive an accurate diagnosis of his / her health condition, which is convenient for the user. From the above, it is possible to accurately and easily determine the health condition based on the face color. Note that this health checkup method is particularly useful when applied to a portable device whose shooting location is not fixed.

また、健康状態の変化が表れ易い目元領域の色情報を用いて健康状態を判定しているので、健康状態の変化を感度良く判定することができるとともに、目元領域には照明による陰影が生じ難いので、健康状態を正確に判定することができる。   In addition, since the health condition is determined using color information of the eye area where changes in the health condition are likely to appear, changes in the health condition can be determined with high sensitivity, and shadows due to illumination are less likely to occur in the eye area. Therefore, the health condition can be accurately determined.

さらに、リファレンス登録時および健康状態の判定時に、位置合わせ用マークMに瞳の位置を合わせて撮影するようにしたことにより、人物の顔を斜め方向から撮影することによる瞳への光源の写り込みを防ぐことができるので、瞳色情報を用いた健康状態の判定をより正確に行うことができる。   Further, when the reference is registered and when the health condition is determined, the position of the pupil is aligned with the alignment mark M, and the image of the light source is reflected on the pupil by capturing the face of the person from an oblique direction. Therefore, the health condition can be determined more accurately using the pupil color information.

以上、健康診断装置の一実施例について説明したが、以下の変形例としてもよい。   As mentioned above, although one Example of the health-diagnosis apparatus was demonstrated, it is good also as the following modifications.

(変形例1)上記実施例では、健康診断装置1によりリファレンスの登録および健康状態の判定を行うようにしたが、リファレンスの登録を行う装置と、健康診断装置とを別構成にしてもよい。例えば、基準となる照明条件の環境下に設置され、パーソナルコンピュータおよびデジタルスチルカメラを備えたリファレンス登録用のシステムによってリファレンスデータRDを生成するようにしてもよい。この場合、パーソナルコンピュータから携帯機器である健康診断装置1にリファレンスデータRDを転送して、健康診断装置1のデータベース部40にリファレンスデータRDを登録することにより、健康診断装置1はリファレンスデータRDを用いた健康状態の判定を行うことができる。   (Modification 1) In the above embodiment, the health diagnosis device 1 performs reference registration and health status determination. However, the reference registration device and the health diagnosis device may be configured separately. For example, the reference data RD may be generated by a reference registration system that is installed in an environment with a reference illumination condition and includes a personal computer and a digital still camera. In this case, by transferring the reference data RD from the personal computer to the health diagnostic apparatus 1 which is a portable device and registering the reference data RD in the database unit 40 of the health diagnostic apparatus 1, the health diagnostic apparatus 1 stores the reference data RD. The used health condition can be determined.

(変形例2)上記実施例では、判定結果を表示パネル80に表示することにより判定結果および診断結果を通知するようにしたが、判定結果を音声などによってユーザーに通知するようにしてもよい。また、判定結果をインターネットや無線通信網を介して病院に送信して、かかりつけの医師などに通知するシステムとしてもよい。   (Modification 2) In the above embodiment, the determination result and the diagnosis result are notified by displaying the determination result on the display panel 80. However, the determination result may be notified to the user by voice or the like. Alternatively, the determination result may be transmitted to a hospital via the Internet or a wireless communication network and notified to a doctor in charge.

(変形例3)上記実施例の健康診断装置1は、携帯機器であったが、これに限られることなく、デジタルスチルカメラやウェブカメラなどのデジタルカメラ部が接続されたパーソナルコンピュータであってもよい。また、ドレッサーなどにデジタルカメラ部を備え付けて健康診断装置としての機能を持たせるようにしてもよい。   (Modification 3) The health diagnosis apparatus 1 of the above embodiment is a portable device, but is not limited thereto, and may be a personal computer to which a digital camera unit such as a digital still camera or a web camera is connected. Good. Further, a digital camera unit may be provided in a dresser or the like so as to have a function as a health diagnostic apparatus.

本実施例に係る健康診断装置の構成を示したブロック図。The block diagram which showed the structure of the health-diagnosis apparatus which concerns on a present Example. 状態判定テーブルを説明するための図であり、(a)はxy色度座標において、健康状態に対応する色域を示した図、(b)は状態判定テーブルの一例を示した図。It is a figure for demonstrating a state determination table, (a) is a figure which showed the color gamut corresponding to a healthy state in xy chromaticity coordinates, (b) was a figure which showed an example of the state determination table. リファレンスデータを登録する際の処理の流れを示したフローチャート。The flowchart which showed the flow of the process at the time of registering reference data. 位置合わせ用マークの一例を示した図。The figure which showed an example of the mark for alignment. リファレンスとする瞳色情報の検出方法を説明するための図。The figure for demonstrating the detection method of the pupil color information used as a reference. 健康状態を判定する処理の流れを示したフローチャート。The flowchart which showed the flow of the process which determines a health state. 瞳色情報および顔色情報の検出方法を説明するための図。The figure for demonstrating the detection method of pupil color information and face color information. 色補正を説明するための図。The figure for demonstrating color correction.

符号の説明Explanation of symbols

1…健康診断装置、10…デジタルカメラ部、20…色情報検出部、21…検出手段としての瞳色情報検出部、22…顔色情報検出部、30…リファレンス登録部、40…データベース部、50…校正手段としての色校正部、60…判定手段としての健康状態判定部、70…操作パネル、80…表示パネル、RD…リファレンスデータ、HT…状態判定テーブル、H…瞳色情報、R…リファレンスの瞳色情報、F…顔色情報、M…位置合わせ用マーク。   DESCRIPTION OF SYMBOLS 1 ... Health diagnostic apparatus, 10 ... Digital camera part, 20 ... Color information detection part, 21 ... Pupil color information detection part as a detection means, 22 ... Facial color information detection part, 30 ... Reference registration part, 40 ... Database part, 50 Color calibration unit as calibration means 60 Health state determination unit as judgment means 70 Operation panel 80 Display panel RD Reference data HT State determination table H Eye pupil color information R Reference Pupil color information, F ... face color information, M ... positioning mark.

Claims (5)

顔画像を用いて健康状態を診断する健康診断方法であって、
前記顔画像から瞳の色情報を検出する検出ステップと、
前記瞳の色情報に基づいて、前記顔画像の色情報を校正する校正ステップと、
色校正後の前記顔画像の色情報に基づいて健康状態を判定する判定ステップと、を備えることを特徴とする健康診断方法。
A health diagnosis method for diagnosing a health condition using a face image,
A detection step of detecting pupil color information from the face image;
A calibration step of calibrating the color information of the face image based on the color information of the pupil;
And a determination step of determining a health state based on color information of the face image after color calibration.
請求項1に記載の健康診断方法において、
前記校正ステップにおいて、基準となる照明条件下で撮影された瞳の色情報と、検出した前記瞳の色情報との差を低減または解消するように、前記顔画像の色を補正することを特徴とする健康診断方法。
The health check method according to claim 1,
In the calibration step, the color of the face image is corrected so as to reduce or eliminate a difference between color information of a pupil photographed under a reference illumination condition and color information of the detected pupil. Health checkup method.
請求項1または2に記載の健康診断方法において、
前記判定ステップにおいて、前記顔画像のうち目元領域の色情報に基づいて健康状態を判定することを特徴とする健康診断方法。
The health check method according to claim 1 or 2,
In the determination step, a health condition is determined based on color information of an eye area of the face image.
請求項1ないし3のいずれか一項に記載の健康診断方法において、
撮影対象の被写体を写した画像と瞳の位置合わせ用のマークとを重ねて表示し、撮影対象の瞳と前記位置合わせ用マークの位置とを合わせた状態で前記撮影対象の撮影を行うことにより、前記顔画像を取得する撮影ステップ、をさらに備えることを特徴とする健康診断方法。
In the health checkup method according to any one of claims 1 to 3,
By displaying an image of a subject to be photographed and a pupil alignment mark in an overlapping manner, and photographing the subject in a state where the pupil to be photographed and the position of the alignment mark are aligned. And a photographing step for acquiring the face image.
顔画像を用いて健康状態を診断する健康診断装置であって、
前記顔画像から瞳の色情報を検出する検出手段と、
前記瞳の色情報に基づいて、前記顔画像の色情報を校正する校正手段と、
色校正後の前記顔画像の色情報に基づいて健康状態を判定する判定手段と、を備えることを特徴とする健康診断装置。
A health diagnosis device for diagnosing a health condition using a face image,
Detecting means for detecting color information of the pupil from the face image;
Calibration means for calibrating the color information of the face image based on the color information of the pupil;
And a determination unit that determines a health state based on color information of the face image after color calibration.
JP2008014577A 2008-01-25 2008-01-25 Health checkup method and health checkup apparatus Withdrawn JP2009172181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008014577A JP2009172181A (en) 2008-01-25 2008-01-25 Health checkup method and health checkup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008014577A JP2009172181A (en) 2008-01-25 2008-01-25 Health checkup method and health checkup apparatus

Publications (1)

Publication Number Publication Date
JP2009172181A true JP2009172181A (en) 2009-08-06

Family

ID=41027981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008014577A Withdrawn JP2009172181A (en) 2008-01-25 2008-01-25 Health checkup method and health checkup apparatus

Country Status (1)

Country Link
JP (1) JP2009172181A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101253445B1 (en) * 2011-08-31 2013-04-12 한국 한의학 연구원 Apparatus and method for determining health using skin features, apparatus and method for generating health sort function
KR101301821B1 (en) 2011-08-30 2013-08-29 한국 한의학 연구원 Apparatus and method for detecting complexion, apparatus and method for determinig health using complexion, apparatus and method for generating health sort function
KR101310500B1 (en) 2012-12-27 2013-09-25 한국 한의학 연구원 Apparatus and method for determining health using skin features, apparatus and method for generating health sort function
EP2884414A1 (en) * 2013-12-11 2015-06-17 Korea Institute of Oriental Medicine Health state determining method and apparatus using facial image
EP2919142A1 (en) * 2014-03-14 2015-09-16 Samsung Electronics Co., Ltd Electronic apparatus and method for providing health status information
KR20150107565A (en) * 2014-03-14 2015-09-23 삼성전자주식회사 Electronic apparatus for providing health status information, method for controlling the same, and computer-readable storage medium
CN106999045A (en) * 2014-11-12 2017-08-01 柯尼卡美能达株式会社 Organic image filming apparatus and program
WO2019111600A1 (en) * 2017-12-06 2019-06-13 新東工業株式会社 Industrial machine startup control system, startup control method, and program
JP2019102046A (en) * 2017-12-06 2019-06-24 新東工業株式会社 Industrial machine start-up control system, start-up control method, and program
US10956716B2 (en) 2018-02-28 2021-03-23 Chanel Parfums Beaute Method for building a computer-implemented tool for assessment of qualitative features from face images
JP2022105026A (en) * 2011-10-19 2022-07-12 ファーストフェイス カンパニー リミテッド Method, system, and mobile communication terminal for causing predetermined operation to be executed in activation of the mobile communication terminal
WO2022201379A1 (en) * 2021-03-24 2022-09-29 シミックホールディングス株式会社 Control device, computer program, and non-transitory computer-readable medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101301821B1 (en) 2011-08-30 2013-08-29 한국 한의학 연구원 Apparatus and method for detecting complexion, apparatus and method for determinig health using complexion, apparatus and method for generating health sort function
KR101253445B1 (en) * 2011-08-31 2013-04-12 한국 한의학 연구원 Apparatus and method for determining health using skin features, apparatus and method for generating health sort function
JP2022105026A (en) * 2011-10-19 2022-07-12 ファーストフェイス カンパニー リミテッド Method, system, and mobile communication terminal for causing predetermined operation to be executed in activation of the mobile communication terminal
JP7416851B2 (en) 2011-10-19 2024-01-17 ファーストフェイス カンパニー リミテッド Method, system, and mobile communication terminal for performing specific operations when the mobile communication terminal is activated
KR101310500B1 (en) 2012-12-27 2013-09-25 한국 한의학 연구원 Apparatus and method for determining health using skin features, apparatus and method for generating health sort function
EP2884414A1 (en) * 2013-12-11 2015-06-17 Korea Institute of Oriental Medicine Health state determining method and apparatus using facial image
EP2919142A1 (en) * 2014-03-14 2015-09-16 Samsung Electronics Co., Ltd Electronic apparatus and method for providing health status information
US10366487B2 (en) 2014-03-14 2019-07-30 Samsung Electronics Co., Ltd. Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
KR102420100B1 (en) * 2014-03-14 2022-07-13 삼성전자주식회사 Electronic apparatus for providing health status information, method for controlling the same, and computer-readable storage medium
KR20150107565A (en) * 2014-03-14 2015-09-23 삼성전자주식회사 Electronic apparatus for providing health status information, method for controlling the same, and computer-readable storage medium
CN106999045A (en) * 2014-11-12 2017-08-01 柯尼卡美能达株式会社 Organic image filming apparatus and program
WO2019111600A1 (en) * 2017-12-06 2019-06-13 新東工業株式会社 Industrial machine startup control system, startup control method, and program
JP2019102046A (en) * 2017-12-06 2019-06-24 新東工業株式会社 Industrial machine start-up control system, start-up control method, and program
JP7028002B2 (en) 2017-12-06 2022-03-02 新東工業株式会社 Industrial machine start control system, start control method, and program
US11543785B2 (en) 2017-12-06 2023-01-03 Sintokogio, Ltd. Industrial machine startup control system, startup control method, and program
US10956716B2 (en) 2018-02-28 2021-03-23 Chanel Parfums Beaute Method for building a computer-implemented tool for assessment of qualitative features from face images
WO2022201379A1 (en) * 2021-03-24 2022-09-29 シミックホールディングス株式会社 Control device, computer program, and non-transitory computer-readable medium

Similar Documents

Publication Publication Date Title
JP2009172181A (en) Health checkup method and health checkup apparatus
US11250550B2 (en) Image processing method and related device
JP6945620B2 (en) System operating method and program
US10200663B2 (en) Image processing device, imaging device, image processing method, and program
JP2004222118A (en) Photographing equipment
JP2009159496A5 (en)
JP2013123223A (en) System and method for controlling luminance of display panel of electronic apparatus
US20180177434A1 (en) Image based jaundice diagnosing method and apparatus and image based jaundice diagnosis assisting apparatus
JP2006024193A (en) Image correction device, image correction program, image correction method and image correction system
JP2008152622A (en) Pointing device
JP2014180305A (en) Information terminal device
US10049599B2 (en) System and method for assisting a colorblind user
JP2011034133A (en) Person identification device and person identification method
WO2022000975A1 (en) Image processing method and apparatus for stereoscopic endoscope, and storage medium
WO2020162262A1 (en) Medicine identification system, medicine identification device, medicine identification method, and program
WO2013178145A1 (en) Backlight compensation method, device and terminal
WO2014091358A1 (en) Medical device or system for measuring hemoglobin levels during accidents using a camera-projector system
JP2010246695A (en) Image processing method and image processing apparatus
CN109754439A (en) Scaling method, device, electronic equipment and medium
CN109147911A (en) Illness information display method and device, computer readable storage medium
JP2004329620A (en) Imaging unit
CN113412615B (en) Information processing terminal, recording medium, information processing system, and color correction method
JP2022031323A (en) Display control device, light emission control device, display control method, light emission control method, and program
JP7178622B2 (en) heating cooker
JP2022000623A (en) Color chart

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405