JP2018160128A - Image processing apparatus, image processing system, and image processing method - Google Patents

Image processing apparatus, image processing system, and image processing method Download PDF

Info

Publication number
JP2018160128A
JP2018160128A JP2017057356A JP2017057356A JP2018160128A JP 2018160128 A JP2018160128 A JP 2018160128A JP 2017057356 A JP2017057356 A JP 2017057356A JP 2017057356 A JP2017057356 A JP 2017057356A JP 2018160128 A JP2018160128 A JP 2018160128A
Authority
JP
Japan
Prior art keywords
image
information
pupil
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017057356A
Other languages
Japanese (ja)
Other versions
JP6796525B2 (en
Inventor
裕紀 若菜
Hironori Wakana
裕紀 若菜
益義 山田
Masuyoshi Yamada
益義 山田
伸宏 福田
Nobuhiro Fukuda
伸宏 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017057356A priority Critical patent/JP6796525B2/en
Publication of JP2018160128A publication Critical patent/JP2018160128A/en
Application granted granted Critical
Publication of JP6796525B2 publication Critical patent/JP6796525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve high correction precision of an image affected by an influence of external light.SOLUTION: The image processing apparatus includes: a camera 105 for imaging a face image 12 including at least an eye image; a pupil size-related processing unit for acquiring a pupil size P on the basis of the face image 12 imaged by the camera 105; an image correction unit for correcting the face image 12 imaged by the camera 105 on the basis of a pupil size ratio calculated from the pupil size P acquired by a pupil information acquisition unit; and a biological information extraction unit for acquiring biological information, such as pulse and blood pressure, from a skin image 13 in the corrected face image 12.SELECTED DRAWING: Figure 1

Description

本発明は、外光の影響を受けた画像の補正を行う画像処理装置、画像処理システム及び画像処理方法の技術に関する。   The present invention relates to a technique of an image processing apparatus, an image processing system, and an image processing method for correcting an image affected by external light.

車両の自動運転、安全技術の向上に伴い、ドライバの状態検知技術が必要となっている。
すなわち、自動運転から手動運転に切り替わる際に、ドライバの健康状態を検知することが必要になってくる。
そして、大学や、企業等の多様な機関が、カメラや、センサを用いた状態監視の技術を研究している。ここで、監視される状態は、心拍、姿勢、眠気等である。
With the automatic driving of vehicles and the improvement of safety technology, driver state detection technology is required.
In other words, when switching from automatic operation to manual operation, it is necessary to detect the health condition of the driver.
Various institutions such as universities and companies are studying state monitoring technology using cameras and sensors. Here, the monitored states are heartbeat, posture, sleepiness, and the like.

また、非接触で人の状態を検知する技術として、カメラ画像での画像処理やドップラセンサを用いたものが報告されている。これらの技術では、カメラで撮像した人の画像から人の生体情報(心拍、呼吸、脈波、血圧等)を取得することができる。   In addition, as a technique for detecting the state of a person without contact, a technique using image processing with a camera image or a Doppler sensor has been reported. In these techniques, it is possible to acquire human biological information (heartbeat, respiration, pulse wave, blood pressure, etc.) from a human image captured by a camera.

また、特許文献1には、「脈波検出装置1は、動画のフレーム画像をRGB成分からYIQ成分に色変換し、予めQ成分で用意してあるユーザの目の色を用いて、目の部分を特定する。そして、脈波検出装置1は、目の部分のY値によって撮影環境の明度を検出する。次に、脈波検出装置1は、フレーム画像の皮膚の部分のQ値の平均から脈波信号Qmを検出し、更に、これから目の部分のY値の平均値Yeを減算することにより明度の変化分を補正して、明度補正後のQmを出力する。これにより、ユーザが車両などで移動することにより明度が変化するような場合でも、良好に脈波を検出することができる」脈波検出装置、及び脈波検出プログラムが開示されている(要約参照)。   Patent Document 1 states that “the pulse wave detection device 1 color-converts a moving image frame image from an RGB component to a YIQ component, and uses the eye color of the user prepared in advance as the Q component, Then, the pulse wave detection device 1 detects the brightness of the imaging environment based on the Y value of the eye portion, and then the pulse wave detection device 1 averages the Q value of the skin portion of the frame image. From this, the pulse wave signal Qm is detected, and further, the amount of change in brightness is corrected by subtracting the average value Ye of the Y values of the eyes from this, and the Qm after brightness correction is output. A pulse wave detection device and a pulse wave detection program that can detect a pulse wave satisfactorily even when the brightness changes due to movement by a vehicle or the like are disclosed (see summary).

特開2016−193021号公報JP 2006-193021 A

しかしながら、前記した状態監視技術は、判定精度や、機器の装着に伴う負担感等から普及していない。
特に、外光の影響を受けることで、生体情報を正しく測定できないという課題がある。つまり、前記した生体情報は、顔画像の特定色成分の揺らぎから算出するため、光の当たり方が異なると、人の顔色が変化したのか、外部環境が変化したのかを区別することが難しい。このようなことが計測精度向上の妨げとなっている。
However, the above-described state monitoring technique is not widespread due to determination accuracy, a feeling of burden associated with equipment mounting, and the like.
In particular, there is a problem that biological information cannot be measured correctly due to the influence of external light. That is, since the above-described biometric information is calculated from fluctuations in the specific color component of the face image, it is difficult to distinguish whether the face color of the person has changed or the external environment has changed if the way the light strikes is different. This is an obstacle to improving measurement accuracy.

特許文献1に記載の技術は、画像における人の瞳孔の輝度情報(YIQ表色系のY成分)を用いて皮膚の輝度調整を行っている。しかし、暗いところや、サングラスを使用している場合には使用できない。   The technique described in Patent Document 1 performs skin brightness adjustment using luminance information (Y component of the YIQ color system) of human pupils in an image. However, it cannot be used in dark places or when using sunglasses.

このような背景に鑑みて本発明がなされたのであり、本発明は、外光の影響を受けた画像の補正精度を向上させることを課題とする。   The present invention has been made in view of such a background, and an object of the present invention is to improve the correction accuracy of an image affected by external light.

前記した課題を解決するため、本発明は、少なくとも目の画像を含む画像を撮像する撮像部と、前記撮像部で撮像された前記画像を基に、瞳孔の大きさに関する情報を取得する瞳孔情報取得部と、前記瞳孔情報取得部で取得された前記瞳孔の大きさに関する情報を基に、前記撮像部で撮像された前記画像の補正を行う画像補正部と、を有することを特徴とする。
その他の解決手段は実施形態中で適宜記載する。
In order to solve the above-described problem, the present invention provides an imaging unit that captures an image including at least an eye image, and pupil information that acquires information related to the size of the pupil based on the image captured by the imaging unit. An acquisition unit and an image correction unit that corrects the image captured by the imaging unit based on information about the size of the pupil acquired by the pupil information acquisition unit.
Other solutions will be described as appropriate in the embodiments.

本発明によれば、外光の影響を受けた画像の補正精度を向上させることができる。   According to the present invention, it is possible to improve the correction accuracy of an image affected by external light.

本実施形態で行われる画像補正処理の概要を示す図である。It is a figure which shows the outline | summary of the image correction process performed in this embodiment. 第1実施形態で用いられる濃度変換マップの例を示す図である。It is a figure which shows the example of the density | concentration conversion map used by 1st Embodiment. 1実施形態で用いられるコントラスト変換マップの例を示す図である。It is a figure which shows the example of the contrast conversion map used by 1 embodiment. 外部環境が暗い(P/Pr>1)場合における画像変換例を示す図である。It is a figure which shows the example of an image conversion in case an external environment is dark (P / Pr> 1). 外部環境が明るい(P/Pr<1)場合における画像変換例を示す図である。It is a figure which shows the example of an image conversion in case an external environment is bright (P / Pr <1). 第1実施形態に係る画像処理装置1の構成例を示す図である。1 is a diagram illustrating a configuration example of an image processing apparatus 1 according to a first embodiment. 目に影がかかっている顔画像12の例である。It is an example of the face image 12 with a shadow on the eyes. 第1実施形態で用いられる処理部100の詳細な構成を示す図である。It is a figure which shows the detailed structure of the process part 100 used by 1st Embodiment. 第1実施形態で用いられる画像処理部110の詳細な構成を示す図である。It is a figure which shows the detailed structure of the image process part 110 used by 1st Embodiment. 第1実施形態で行われる画像補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image correction process performed in 1st Embodiment. 第2実施形態で用いられる処理部100aの詳細な構成を示す図である。It is a figure which shows the detailed structure of the process part 100a used by 2nd Embodiment. 第2実施形態で行われる画像補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image correction process performed in 2nd Embodiment. 第3実施形態で用いられる異常検知システムZaの構成例を示す図である。It is a figure which shows the structural example of the abnormality detection system Za used by 3rd Embodiment. 第3実施形態で用いられる異常検知装置51の構成例を示す図である。It is a figure which shows the structural example of the abnormality detection apparatus 51 used by 3rd Embodiment. 第3実施形態で行われる異常検知処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the abnormality detection process performed in 3rd Embodiment. 第4実施形態で用いられるストレス環境管理システムZbの構成を示す図である。It is a figure which shows the structure of the stress environment management system Zb used by 4th Embodiment. 第4実施形態で用いられる異常検知装置51aの構成例を示す図である。It is a figure which shows the structural example of the abnormality detection apparatus 51a used by 4th Embodiment. は、第4実施形態で行われる異常処理の手順を示すフローチャートである。These are the flowcharts which show the procedure of the abnormality process performed in 4th Embodiment. 第5実施形態で用いられる在宅監視装置61の構成を示す図である。It is a figure which shows the structure of the home monitoring apparatus 61 used by 5th Embodiment.

次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、各図において、同様の構成については同一の符号を付して説明を省略する。   Next, modes for carrying out the present invention (referred to as “embodiments”) will be described in detail with reference to the drawings as appropriate. In addition, in each figure, the same code | symbol is attached | subjected about the same structure and description is abbreviate | omitted.

[第1実施形態]
<処理概要>
図1は、本実施形態で行われる画像補正処理の概要を示す図である。
まず、カメラ(撮像部)105により顔画像12が撮像される。その後、顔画像12のうちの瞳孔画像11から瞳孔サイズPが抽出される。
そして、その瞳孔サイズPを基に、カメラ105で撮像された顔画像12の濃度が補正される。そして、補正された顔画像12のうち、肌画像13の部分を基に、血圧や、脈拍等の生体情報が抽出される。なお、濃度とは色の濃淡を示すものである。濃度の代わりに、輝度や、明度等が使用されてもよい。
なお、カメラ105は、一般的な可視光カメラとしてもよいが、赤外線カメラ(撮像部)106とすることで、夜間や、サングラス装着時にも瞳孔サイズPを取得できる。
なお、黒目サイズK1、目頭から目尻までの距離K2については後記する。
[First Embodiment]
<Process overview>
FIG. 1 is a diagram showing an outline of image correction processing performed in the present embodiment.
First, the face image 12 is captured by the camera (imaging unit) 105. Thereafter, the pupil size P is extracted from the pupil image 11 in the face image 12.
Based on the pupil size P, the density of the face image 12 captured by the camera 105 is corrected. Then, based on the skin image 13 portion of the corrected face image 12, biological information such as blood pressure and pulse is extracted. The density indicates the color density. Instead of density, brightness, brightness, or the like may be used.
The camera 105 may be a general visible light camera, but by using the infrared camera (imaging unit) 106, the pupil size P can be acquired at night or when wearing sunglasses.
The black eye size K1 and the distance K2 from the top of the eye to the outside of the eye will be described later.

<画像補正>
次に、図2〜図5を参照して、瞳孔サイズPを用いた画像補正について説明する。
(濃度変換マップ)
図2は、第1実施形態で用いられる濃度変換マップの例を示す図である。
図2では、横軸が入力濃度を示し、縦軸が出力濃度を示している。それぞれの濃度は256諧調である。
濃度は、値が小さければ小さいほど暗く、大きければ大きいほど明るくなる。
図2に示すような濃度変換マップにより、瞳孔サイズ比P/Prによって濃度が変換される。なお、Pは瞳孔サイズの現在値、Prは基準となる瞳孔サイズ(基準瞳孔サイズ)である。基準瞳孔サイズとは、所定の明るさにおける瞳孔のサイズである。なお、瞳孔サイズは、瞳孔の直径でもよいし、瞳孔の面積でもよい。
<Image correction>
Next, image correction using the pupil size P will be described with reference to FIGS.
(Concentration conversion map)
FIG. 2 is a diagram illustrating an example of a density conversion map used in the first embodiment.
In FIG. 2, the horizontal axis represents the input density, and the vertical axis represents the output density. Each density is 256 tone.
The density is darker as the value is smaller, and brighter as the value is larger.
With the density conversion map as shown in FIG. 2, the density is converted according to the pupil size ratio P / Pr. Note that P is a current value of the pupil size, and Pr is a reference pupil size (reference pupil size). The reference pupil size is the size of the pupil at a predetermined brightness. The pupil size may be the diameter of the pupil or the area of the pupil.

そして、図2に示すように瞳孔サイズ比P/Pr=1である場合、濃度変換マップの対角線上に変換線(変換情報)21が配置されている。これは、ある濃度が同じ濃度に変換され、出力されることを意味している。   As shown in FIG. 2, when the pupil size ratio P / Pr = 1, the conversion line (conversion information) 21 is arranged on the diagonal line of the density conversion map. This means that a certain density is converted to the same density and output.

次に、瞳孔サイズ比P/Pr>1の場合について説明する。瞳孔サイズ比P/Pr>1の場合とは、現在の瞳孔サイズPが基準瞳孔サイズPrより大きい場合であり、外部環境が暗い場合である。
このような場合の変換線(変換情報)22は、変換線21より下に配置される。この変換線22は、濃度63〜255が、濃度0〜255に変換されることを意味している。すなわち、画像のうち、明るい部分だけが抽出される。これにより、画像全体が明るくなるよう変換される。
Next, the case where the pupil size ratio P / Pr> 1 will be described. The case of the pupil size ratio P / Pr> 1 is a case where the current pupil size P is larger than the reference pupil size Pr and a case where the external environment is dark.
The conversion line (conversion information) 22 in such a case is arranged below the conversion line 21. This conversion line 22 means that the density 63 to 255 is converted to the density 0 to 255. That is, only a bright part is extracted from the image. As a result, the entire image is converted to be bright.

また、瞳孔サイズ比P/Pr<1の場合について説明する。瞳孔サイズ比P/Pr<1の場合とは、現在の瞳孔サイズPが基準瞳孔サイズPrより小さい場合であり、外部環境が明るい場合である。
このような場合の変換線(変換情報)23は、変換線21より上に配置される。この変換線23は、濃度0〜157が、濃度0〜255に変換されることを意味している。すなわち、画像のうち、暗い部分だけが抽出される。これにより、画像全体が暗くなるよう変換される。
このような濃度変換マップは、予め作成され、設定されている。
A case where the pupil size ratio P / Pr <1 will be described. The case of the pupil size ratio P / Pr <1 is a case where the current pupil size P is smaller than the reference pupil size Pr and a case where the external environment is bright.
The conversion line (conversion information) 23 in such a case is disposed above the conversion line 21. This conversion line 23 means that the density 0 to 157 is converted to the density 0 to 255. That is, only a dark part is extracted from the image. As a result, the entire image is converted to be dark.
Such a density conversion map is created and set in advance.

ちなみに、基準瞳孔サイズPrの代わりに、図1に示す黒目サイズK1が用いられてもよい。この他にも、基準瞳孔サイズPrの代わりに、目頭から目尻までの距離K2を用いる等、大きさや、距離が一定のものを用いることが可能である。このようにすることで、顔が動くことによって顔画像12中における瞳孔サイズPに変化が生じても適切な補正を行うことができる。また、基準瞳孔サイズPrの代わりに、黒目サイズK1や、目頭から目尻までの距離K2を用いることにより、予め基準瞳孔サイズPrが設定される必要がなくなる。これにより、ユーザの負担を軽減することができる。   Incidentally, the black eye size K1 shown in FIG. 1 may be used instead of the reference pupil size Pr. In addition to this, it is possible to use one having a constant size and distance, such as using a distance K2 from the top of the eye to the outside of the eye instead of the reference pupil size Pr. By doing so, appropriate correction can be performed even if a change occurs in the pupil size P in the face image 12 due to the movement of the face. Further, by using the black eye size K1 or the distance K2 from the eye head to the corner of the eye instead of the reference pupil size Pr, it is not necessary to set the reference pupil size Pr in advance. Thereby, a user's burden can be reduced.

瞳孔サイズ比P/Pr>1の状態で、瞳孔サイズ比P/Prが大きくなればなるほど、変換線21は変換線22の方向へ移動し、その傾きは大きくなる。
同様に、瞳孔サイズ比P/Pr<1の状態で、瞳孔サイズ比P/Prが小さくなればなるほど、変換線21は変換線23の方向へ移動し、その傾きは大きくなる。
In a state where the pupil size ratio P / Pr> 1, as the pupil size ratio P / Pr increases, the conversion line 21 moves in the direction of the conversion line 22 and the inclination thereof increases.
Similarly, in a state where the pupil size ratio P / Pr <1, the smaller the pupil size ratio P / Pr, the more the conversion line 21 moves in the direction of the conversion line 23 and the inclination thereof increases.

(コントラスト変換マップ)
図3は、第1実施形態で用いられるコントラスト変換マップの例を示す図である。
図3では、横軸が入力濃度を示し、縦軸が出力濃度を示している。それぞれの濃度は256諧調である。
そして、コントラスト変換曲線31が図3に示すように設定されている。このコントラスト変換曲線31は、画像のうち、暗い部分がより暗くよう、明るい部分がより明るくなるよう濃度を変換する。
これにより、画像のコントラストが高くなる。
なお、図3のコントラスト変換マップによる画像変換は一般的な画像処理で行われているものである。
(Contrast conversion map)
FIG. 3 is a diagram illustrating an example of a contrast conversion map used in the first embodiment.
In FIG. 3, the horizontal axis represents the input density, and the vertical axis represents the output density. Each density is 256 tone.
A contrast conversion curve 31 is set as shown in FIG. The contrast conversion curve 31 converts the density of the image so that the dark part becomes darker and the bright part becomes brighter.
This increases the contrast of the image.
Note that image conversion based on the contrast conversion map in FIG. 3 is performed by general image processing.

(実際の画像変換:外部環境が暗い場合)
図4は、外部環境が暗い(P/Pr>1)場合における画像変換例を示す図である。
図4は、肌画像13(図1参照)の濃度ヒストグラムを示しており、横軸が濃度、縦軸が画素数を示している。なお、図4、図5における濃度ヒストグラムは緑光の濃度ヒストグラムである。
そして、図4の上段には変換前の濃度ヒストグラムを示し、下段には変換後の濃度ヒストグラムを示している。なお、変換とは、図2の濃度変換マップによる変換、及び、図3のコントラスト変換マップによる変換が含まれる。
特に、図2の濃度変換マップにより、変換前(上段)の濃度範囲41が変換後(下段)の濃度0〜255まで広げられている。つまり、明るい部分が抽出されている。これにより、画像全体が明るくなる。
(Actual image conversion: When the external environment is dark)
FIG. 4 is a diagram illustrating an example of image conversion when the external environment is dark (P / Pr> 1).
FIG. 4 shows a density histogram of the skin image 13 (see FIG. 1), where the horizontal axis indicates density and the vertical axis indicates the number of pixels. The density histograms in FIGS. 4 and 5 are green light density histograms.
The upper part of FIG. 4 shows a density histogram before conversion, and the lower part shows a density histogram after conversion. The conversion includes conversion using the density conversion map of FIG. 2 and conversion using the contrast conversion map of FIG.
In particular, according to the density conversion map of FIG. 2, the density range 41 before conversion (upper stage) is expanded from 0 to 255 after conversion (lower stage). That is, a bright part is extracted. This brightens the entire image.

(実際の画像変換:外部環境が明るい場合)
図5は、外部環境が明るい(P/Pr<1)場合における画像変換例を示す図である。
図5は、肌画像13の濃度ヒストグラムを示しており、横軸が濃度、縦軸が画素数を示している。
そして、図5の上段には変換前の濃度ヒストグラムを示し、下段には変換後の濃度ヒストグラムを示している。なお、変換とは、図2の濃度変換マップによる変換、及び、図3のコントラスト変換マップによる変換が含まれる。
特に、図2の濃度変換マップにより、変換前(上段)の濃度範囲42が変換後(下段)の濃度0〜255まで広げられている。つまり、暗い部分が抽出されている。これにより、画像全体が暗くなる。
(Actual image conversion: When the external environment is bright)
FIG. 5 is a diagram illustrating an example of image conversion when the external environment is bright (P / Pr <1).
FIG. 5 shows a density histogram of the skin image 13, where the horizontal axis indicates the density and the vertical axis indicates the number of pixels.
The upper part of FIG. 5 shows a density histogram before conversion, and the lower part shows a density histogram after conversion. The conversion includes conversion using the density conversion map of FIG. 2 and conversion using the contrast conversion map of FIG.
In particular, according to the density conversion map of FIG. 2, the density range 42 before conversion (upper stage) is expanded from 0 to 255 after conversion (lower stage). That is, a dark part is extracted. This darkens the entire image.

このように、図2に示す濃度変換マップを用いることにより、外部環境が暗い場合、つまり、画像が暗い場合、画像全体を明るくする。また、外部環境が明るい場合、つまり、画像が明るい場合、画像全体を暗くする。
このようにして、画像の明るさを適切な明るさにすることができる。
Thus, by using the density conversion map shown in FIG. 2, when the external environment is dark, that is, when the image is dark, the entire image is brightened. When the external environment is bright, that is, when the image is bright, the entire image is darkened.
In this way, the brightness of the image can be made appropriate.

このように濃度変換マップを使用することで、顔画像12の濃度補正が容易となる。   By using the density conversion map in this manner, the density correction of the face image 12 is facilitated.

<画像処理装置1>
図6は、第1実施形態に係る画像処理装置1の構成例を示す図である。適宜、図1を参照する。
図6に示すように、画像処理装置1はメモリ101、CPU(Central Processing Unit)102、送受信装置103を有している。また、画像処理装置1はカメラ105(赤外線カメラ106)及び記憶装置104のそれぞれを有している。
メモリ101は、ROM(Read Only Memory)等であり、記憶装置104はRAM(Random Access Memory)等である。
メモリ101には、プログラムが格納されており、このプログラムがCPU102によって実行される。これにより、処理部100及び処理部100を構成する各部100〜112,120〜122,131(図8、図9で後記)が具現化している。
<Image processing apparatus 1>
FIG. 6 is a diagram illustrating a configuration example of the image processing apparatus 1 according to the first embodiment. Reference is made to FIG. 1 as appropriate.
As illustrated in FIG. 6, the image processing apparatus 1 includes a memory 101, a CPU (Central Processing Unit) 102, and a transmission / reception apparatus 103. The image processing apparatus 1 includes a camera 105 (infrared camera 106) and a storage device 104.
The memory 101 is a ROM (Read Only Memory) or the like, and the storage device 104 is a RAM (Random Access Memory) or the like.
A program is stored in the memory 101, and this program is executed by the CPU 102. As a result, the processing unit 100 and the units 100 to 112, 120 to 122, 131 (described later in FIGS. 8 and 9) constituting the processing unit 100 are embodied.

カメラ105は顔画像12を撮像するためのカメラである。また、前記したように、カメラ105として赤外線カメラ106が用いられることにより、夜や、トンネル等の暗い場所や、ユーザがサングラスを装着している場合でも瞳孔サイズPを取得することが可能となる。
なお、暗いところでは赤外線カメラ106によって瞳孔画像11が取得され、明るいところでは可視光カメラによって瞳孔画像11が取得されてもよい。
The camera 105 is a camera for capturing the face image 12. Further, as described above, by using the infrared camera 106 as the camera 105, the pupil size P can be acquired at night, in a dark place such as a tunnel, or when the user wears sunglasses. .
Note that the pupil image 11 may be acquired by the infrared camera 106 in a dark place, and the pupil image 11 may be acquired by a visible light camera in a bright place.

図7は後記する。   FIG. 7 will be described later.

<処理部100>
図8は、第1実施形態で用いられる処理部100の詳細な構成を示す図である。適宜、図1を参照する。
処理部100は、瞳孔サイズ関連処理部(瞳孔情報取得部)120、画像処理部110、生体情報抽出処理部131を有している。
瞳孔サイズ関連処理部120は、瞳孔サイズPに関する処理を行い、有効判定処理部121及び瞳孔サイズ比算出処理部122を有している。
有効判定処理部121は、カメラ105で撮像された顔画像12が瞳孔サイズ比P/Prを算出するのに適しているか(有効であるか)否かを判定する。有効判定処理部121による判定の詳細は後記する。
瞳孔サイズ比算出処理部122は、カメラ105で撮像された顔画像12中の瞳孔画像11から瞳孔サイズ比P/Prを算出する。
<Processing unit 100>
FIG. 8 is a diagram illustrating a detailed configuration of the processing unit 100 used in the first embodiment. Reference is made to FIG. 1 as appropriate.
The processing unit 100 includes a pupil size related processing unit (pupil information acquisition unit) 120, an image processing unit 110, and a biological information extraction processing unit 131.
The pupil size related processing unit 120 performs processing related to the pupil size P, and includes an validity determination processing unit 121 and a pupil size ratio calculation processing unit 122.
The validity determination processing unit 121 determines whether or not the face image 12 captured by the camera 105 is suitable (effective) for calculating the pupil size ratio P / Pr. Details of the determination by the validity determination processing unit 121 will be described later.
The pupil size ratio calculation processing unit 122 calculates the pupil size ratio P / Pr from the pupil image 11 in the face image 12 captured by the camera 105.

画像処理部110は、瞳孔サイズ比算出処理部122で算出された瞳孔サイズ比P/Prを基に、図2〜図5で説明した手法によりカメラ105で撮像された顔画像12の濃度が補正される。画像処理部110の詳細は後記する。
生体情報抽出処理部131は、補正された顔画像12の中の肌画像13から脈拍値や、血圧値等の生体情報を抽出する。
Based on the pupil size ratio P / Pr calculated by the pupil size ratio calculation processing unit 122, the image processing unit 110 corrects the density of the face image 12 captured by the camera 105 using the method described with reference to FIGS. Is done. Details of the image processing unit 110 will be described later.
The biological information extraction processing unit 131 extracts biological information such as a pulse value and a blood pressure value from the skin image 13 in the corrected face image 12.

<画像処理部110>
図9は、第1実施形態で用いられる画像処理部110の詳細な構成を示す図である。適宜、図1、図8を参照する。
画像処理部110は、濃度ヒストグラム生成部111及び画像補正部112を有している。
濃度ヒストグラム生成部111は、カメラ105で撮像された顔画像12の濃度ヒストグラムを生成する。
画像補正部112は、瞳孔サイズ関連処理部120(瞳孔サイズ比算出処理部122(図8参照))で算出された瞳孔サイズ比P/Prを基に、図2、図4、図5に示す手法を用いて濃度ヒストグラムを変換する。その後、画像補正部112は、変換した濃度ヒストグラムに基づいて顔画像12の濃度を補正する。また、画像補正部112は、コントラストや、シャープネス等の補正を適宜行う。
<Image processing unit 110>
FIG. 9 is a diagram illustrating a detailed configuration of the image processing unit 110 used in the first embodiment. Reference is made to FIGS. 1 and 8 as appropriate.
The image processing unit 110 includes a density histogram generation unit 111 and an image correction unit 112.
The density histogram generation unit 111 generates a density histogram of the face image 12 captured by the camera 105.
The image correction unit 112 is shown in FIGS. 2, 4, and 5 based on the pupil size ratio P / Pr calculated by the pupil size related processing unit 120 (pupil size ratio calculation processing unit 122 (see FIG. 8)). The density histogram is converted using a technique. Thereafter, the image correction unit 112 corrects the density of the face image 12 based on the converted density histogram. Further, the image correction unit 112 appropriately corrects contrast, sharpness, and the like.

(フローチャート)
図10は、第1実施形態で行われる画像補正処理の手順を示すフローチャートである。適宜、図1、図6、図8、図9を参照する。
図10の処理は、画像処理装置1の電源がONされると開始され、OFFになるまで繰り返される。
まず、カメラ105がユーザの顔画像12を撮像する。
そして、画像処理部110は、撮像された顔画像12を基に、サングラスが装着されているか否かを判定する(S101)。サングラスが装着されているか否かは、一般的な画像認識処理で可能である。
ステップS101の結果、サングラスが装着されている場合(S101→Yes)、瞳孔サイズ関連処理部120はステップS101の前撮像された瞳孔画像11から瞳孔サイズを取得する。そして、瞳孔サイズ関連処理部120は、この瞳孔サイズを基準瞳孔サイズPrとする(S102)。
その後、処理部100は、ステップS111へ処理を進める。
(flowchart)
FIG. 10 is a flowchart illustrating a procedure of image correction processing performed in the first embodiment. Reference is made to FIGS. 1, 6, 8, and 9 as appropriate.
The process of FIG. 10 is started when the power of the image processing apparatus 1 is turned on, and is repeated until it is turned off.
First, the camera 105 captures the user's face image 12.
Then, the image processing unit 110 determines whether sunglasses are worn based on the captured face image 12 (S101). Whether or not sunglasses are worn can be determined by a general image recognition process.
As a result of step S101, when sunglasses are worn (S101 → Yes), the pupil size related processing unit 120 acquires the pupil size from the pupil image 11 taken in the previous step S101. Then, the pupil size related processing unit 120 sets the pupil size as the reference pupil size Pr (S102).
Thereafter, the processing unit 100 advances the processing to step S111.

ステップS101の結果、サングラスが装着されていない場合(S101→No)、カメラ105がユーザの顔画像12を撮像する(S111)。
その後、有効判定処理部121が、撮像した顔画像12から有効判定情報を抽出する(S112)。有効判定情報は、顔画像12における影部分の場所の情報、まぶた状態の情報、光量変化の情報である。なお、光量変化は、前回の顔画像12と比較した光量変化である。従って、図10の処理が開始されて最初の処理では光量変化の抽出は行われない。
As a result of step S101, when sunglasses are not worn (S101 → No), the camera 105 captures the user's face image 12 (S111).
Thereafter, the validity determination processing unit 121 extracts validity determination information from the captured face image 12 (S112). The validity determination information is information on the location of the shadow portion in the face image 12, information on the eyelid state, and information on the light amount change. The light amount change is a light amount change compared to the previous face image 12. Therefore, the light quantity change is not extracted in the first process after the process of FIG. 10 is started.

そして、有効判定処理部121は、ステップS112で抽出された有効判定情報を基にステップS111で撮像された顔画像12が有効であるか否かを判定する(S113)。
有効判定処理部121は、以下の(A1)〜(A3)の条件のうち、少なくとも1つが成立している場合、顔画像12が有効でない(S113→No)と判定する。
(A1)図7に示すように影が目にかかっており、かつ、その他の部分に影がかかっていない。これは、影が目にかかっていると瞳孔サイズPが正確に測定できないためである。すなわち、影が目にかかっていると、肌にあたっている光の量と、瞳孔サイズPとが対応付けられないためである。影が目にかかっている場合、処理が行われないようにすることで、瞳孔サイズPの測定の精度を向上させることができる。
(A2)まぶたが閉じている。これは、まぶたが閉じていると瞳孔サイズPを計測することができないためである。
(A3)光量変化が所定値以上である。これは、光量変化が大きいと、光量の瞳孔の縮小・拡大が光量の変化に追いつかず、適切な瞳孔サイズを取得することができないためである。
Then, the validity determination processing unit 121 determines whether or not the face image 12 captured in step S111 is valid based on the validity determination information extracted in step S112 (S113).
The validity determination processing unit 121 determines that the face image 12 is not valid (S113 → No) when at least one of the following conditions (A1) to (A3) is satisfied.
(A1) As shown in FIG. 7, the shadow is on the eyes and the other parts are not shadowed. This is because the pupil size P cannot be measured accurately when a shadow is on the eyes. That is, when the shadow is on the eyes, the amount of light striking the skin and the pupil size P cannot be associated with each other. When the shadow is in the eyes, the accuracy of measurement of the pupil size P can be improved by preventing the processing from being performed.
(A2) The eyelid is closed. This is because the pupil size P cannot be measured if the eyelid is closed.
(A3) The change in the light amount is a predetermined value or more. This is because if the change in the amount of light is large, the reduction / enlargement of the pupil of the amount of light cannot catch up with the change in the amount of light and an appropriate pupil size cannot be acquired.

ステップS113の結果、顔画像12が有効ではない場合(S113→No)、処理部100はステップS111へ処理を戻す。
ステップS113の結果、顔画像12が有効である場合(S113→Yes)、瞳孔サイズ関連処理部120は顔画像12から瞳孔サイズPを抽出する(S121)。このとき、瞳孔サイズ比算出処理部122は、一方(例えば、左目等)の瞳孔サイズPを抽出してもよいし、両目の瞳孔サイズを平均したものを瞳孔サイズPとしてもよい。
When the face image 12 is not valid as a result of step S113 (S113 → No), the processing unit 100 returns the process to step S111.
If the result of step S113 is that the face image 12 is valid (S113 → Yes), the pupil size related processing unit 120 extracts the pupil size P from the face image 12 (S121). At this time, the pupil size ratio calculation processing unit 122 may extract one (for example, the left eye) pupil size P, or may be an average of the pupil sizes of both eyes as the pupil size P.

次に、瞳孔サイズ比算出処理部122が、瞳孔サイズ比P/Prを算出する(S122)。
続いて、濃度ヒストグラム生成部111が、顔画像12の濃度ヒストグラムを生成する(S123)。
そして、画像補正部112は、算出された瞳孔サイズ比P/Prを基に、図2〜図5で説明した手法で濃度ヒストグラムの補正を行う(S124)。
そして、画像補正部112は、ステップS124で補正された濃度ヒストグラムを基に顔画像12の補正を行う(S125)。
Next, the pupil size ratio calculation processing unit 122 calculates the pupil size ratio P / Pr (S122).
Subsequently, the density histogram generation unit 111 generates a density histogram of the face image 12 (S123).
Then, the image correction unit 112 corrects the density histogram by the method described with reference to FIGS. 2 to 5 based on the calculated pupil size ratio P / Pr (S124).
Then, the image correction unit 112 corrects the face image 12 based on the density histogram corrected in step S124 (S125).

生体情報抽出処理部131は、補正された顔画像12を基に血圧、脈拍数等の生体情報を取得する(S131)。生体情報抽出処理部131は、生体情報の抽出を、特許文献1に記載の手法によって行ってもよい。なお、特許文献1に記載の手法では、肌画像13における特定の波長域(緑等)の時間変動等から血圧、脈拍等の生体情報が抽出されている。その他、波長スペクトルの変動から脈波等を検出するもので生体情報が取得されてもよい。
カメラ105が赤外線カメラである場合、肌画像13における赤外領域での時間変動等から血圧、脈拍等の生体情報が抽出可能である。
また、カメラ105として、赤外線カメラと、可視光カメラとが使用されている場合、他の車のライト等で照らしだされた可視光の肌画像13から前記した手法で生体情報が抽出されてもよい。
そして、生体情報抽出処理部131は、抽出した生体情報を記憶装置104に保存し(S132)、処理部100はステップS301へ処理を戻す。
The biological information extraction processing unit 131 acquires biological information such as blood pressure and pulse rate based on the corrected face image 12 (S131). The biological information extraction processing unit 131 may perform extraction of biological information by the method described in Patent Document 1. In the method described in Patent Document 1, biological information such as blood pressure and pulse is extracted from temporal fluctuations in a specific wavelength region (such as green) in the skin image 13. In addition, biological information may be acquired by detecting a pulse wave or the like from a change in wavelength spectrum.
When the camera 105 is an infrared camera, it is possible to extract biological information such as blood pressure and pulse from time variation in the infrared region of the skin image 13.
Further, when an infrared camera and a visible light camera are used as the camera 105, even if biometric information is extracted from the visible light skin image 13 illuminated by the light of another car or the like by the method described above. Good.
The biometric information extraction processing unit 131 stores the extracted biometric information in the storage device 104 (S132), and the processing unit 100 returns the process to step S301.

第1実施形態によれば、画像処理装置1は瞳孔のサイズに関する情報を基にカメラ105で撮像された顔画像12(肌画像13)を補正する。これにより、精度の高い画像補正を行うことが可能となる。特に、周囲が暗い場合や、ユーザがサングラスをかけている場合でも画像補正を行うことが可能となる。この結果、生体情報の抽出精度を向上させることができる。
なお、周囲が暗い場合や、サングラスがかけられている場合でも、瞳孔は周囲の明暗に反応する。
特許文献1に記載の技術は、瞳孔の色を用いているので、周囲が暗い場合や、サングラスがかけられている場合では使用することができない。
According to 1st Embodiment, the image processing apparatus 1 correct | amends the face image 12 (skin image 13) imaged with the camera 105 based on the information regarding the size of a pupil. As a result, highly accurate image correction can be performed. In particular, image correction can be performed even when the surroundings are dark or when the user is wearing sunglasses. As a result, the extraction accuracy of biological information can be improved.
Even when the surroundings are dark or when sunglasses are worn, the pupil reacts to the surrounding brightness.
Since the technique described in Patent Document 1 uses the color of the pupil, it cannot be used when the surroundings are dark or when sunglasses are worn.

また、第1実施形態では、肌の色の濃度が補正されることで、生体情報の抽出精度を向上させることができる。
そして、第1実施形態では、補正された画像を基に脈拍、血圧が抽出されることで、精度よく脈拍、血圧を取得することができる。
Moreover, in 1st Embodiment, the extraction accuracy of biometric information can be improved by correcting the density of the skin color.
In the first embodiment, the pulse and blood pressure can be obtained with high accuracy by extracting the pulse and blood pressure based on the corrected image.

また、本実施形態では、濃度ヒストグラムが平坦化されている(図4、図5参照)。画像補正部112は、濃度が平坦化された顔画像12に対してアンシャープマスク処理を行うことで、顔画像12を鮮鋭化することができる。   In the present embodiment, the density histogram is flattened (see FIGS. 4 and 5). The image correction unit 112 can sharpen the face image 12 by performing an unsharp mask process on the face image 12 whose density is flattened.

また、過去における環境の明るさと、瞳孔の大きさとを保管しておき、環境の明るさの割に瞳孔が大きい場合、交感神経が働いていると判定されてもよい。逆に、環境の明るさの割に瞳孔が小さい場合、副交感神経が働いていると判定されてもよい。
また、瞳孔の収縮速度が、これまでの平均値よりも所定値以上大きいである場合、副交感神経が働いている判定されてもよい。逆に、瞳孔の散大速度が、これまでの平均値よりも所定値以上大きいである場合、交感神経が働いている判定されてもよい。
Alternatively, the brightness of the environment and the size of the pupil in the past may be stored, and if the pupil is large relative to the brightness of the environment, it may be determined that the sympathetic nerve is working. Conversely, when the pupil is small relative to the brightness of the environment, it may be determined that the parasympathetic nerve is working.
Further, when the contraction speed of the pupil is larger than the average value so far by a predetermined value or more, it may be determined that the parasympathetic nerve is working. On the contrary, when the dilation speed of the pupil is larger than the average value so far by a predetermined value or more, it may be determined that the sympathetic nerve is working.

[第2実施形態]
<処理部100a>
図11は、第2実施形態で用いられる処理部100aの詳細な構成を示す図である。
図11において、図8と同様の構成については同一の符号を付して説明を省略する。
図11に示す処理部100aが図8に示す処理部100と異なる点は、肌情報処理部132を有している点である。
肌情報処理部132は、予め記憶装置104(図6参照)に格納されている肌情報のベース値と、撮像された肌画像13における肌情報の差(ベース差分値)を算出する。そして、肌情報処理部132は、算出したベース差分値を画像処理部110にわたす。
[Second Embodiment]
<Processing unit 100a>
FIG. 11 is a diagram illustrating a detailed configuration of the processing unit 100a used in the second embodiment.
In FIG. 11, the same components as those in FIG.
The processing unit 100a illustrated in FIG. 11 is different from the processing unit 100 illustrated in FIG. 8 in that a skin information processing unit 132 is included.
The skin information processing unit 132 calculates the difference (base difference value) between the skin information base value stored in advance in the storage device 104 (see FIG. 6) and the skin information in the captured skin image 13. Then, the skin information processing unit 132 passes the calculated base difference value to the image processing unit 110.

<フローチャート>
図12は、第2実施形態で行われる画像補正処理の手順を示すフローチャートである。
なお、図12において、図10と同様の処理については同一のステップ番号を付して説明を省略する。
ステップS122で瞳孔サイズ比P/Prが算出された後、肌情報処理部132が肌情報を抽出する(S201)。肌情報とは、肌の色に関する情報である。具体的には、肌のRGB各値が抽出される。
<Flowchart>
FIG. 12 is a flowchart illustrating a procedure of image correction processing performed in the second embodiment.
In FIG. 12, the same processes as those in FIG. 10 are denoted by the same step numbers and description thereof is omitted.
After the pupil size ratio P / Pr is calculated in step S122, the skin information processing unit 132 extracts skin information (S201). Skin information is information about skin color. Specifically, each RGB value of skin is extracted.

次に、肌情報処理部132は、予め取得されている肌情報のベース値と、ステップS111で撮像された顔画像12における肌情報の差(ベース差分値)を算出する(S202)。
そして、画像補正部112は、瞳孔サイズ比P/Prと、ステップS102で算出された肌情報のベース差分値とを基に、濃度ヒストグラムを補正する(S124a)。
以下のような処理が行われることによって、肌情報のベース値との差を基に濃度ヒストグラムが補正される。
例えば、R(Red)値が少なくなっている場合、肌情報処理部132は、R値についてベース差分値を算出する。そして、画像補正部112は、ベース差分値分濃度を顔画像12(肌画像13)のR値分多くする。
ステップS125以降は、図10の処理と同様の処理が行われる。
Next, the skin information processing unit 132 calculates a difference (base difference value) between the skin information base value acquired in advance and the skin information in the face image 12 captured in step S111 (S202).
Then, the image correcting unit 112 corrects the density histogram based on the pupil size ratio P / Pr and the base difference value of the skin information calculated in step S102 (S124a).
By performing the following processing, the density histogram is corrected based on the difference from the skin information base value.
For example, when the R (Red) value is small, the skin information processing unit 132 calculates a base difference value for the R value. Then, the image correction unit 112 increases the density of the base difference value by the R value of the face image 12 (skin image 13).
After step S125, the same processing as that of FIG. 10 is performed.

第2実施形態によれば、貧血等を起こして肌が白くなっている場合でも、顔画像12(肌画像13)の濃度を適切にすることができる。
また、第2実施形態によれば、個人差による肌の色の違いによる影響を抑制することができる。
According to the second embodiment, the density of the face image 12 (skin image 13) can be made appropriate even when anemia is caused and the skin is white.
Moreover, according to 2nd Embodiment, the influence by the difference in the color of the skin by an individual difference can be suppressed.

[第3実施形態]
<システム概略>
図13は、第3実施形態で用いられる異常検知システムZaの構成例を示す図である。
第3実施形態に示す異常検知システム(画像処理システム)Zaは、以下の処理を行う。すなわち、車両52に搭載された異常検知装置51がドライバの異常を検知すると、クラウドサービス55を介して、管理会社サーバ53や、保険会社サーバ54へ異常を検知した旨を通知する。
なお、管理会社サーバ53は管理会社に設置されているサーバである。管理会社とは、ドライバの異常検知が通知されると、オペレータ等が該ドライバに対して呼びかけを行ったり、救急車の手配等をサービスしたりする会社である。
また、保険会社サーバ54は保険会社に設置されているサーバである。
[Third Embodiment]
<System outline>
FIG. 13 is a diagram illustrating a configuration example of an abnormality detection system Za used in the third embodiment.
The abnormality detection system (image processing system) Za shown in the third embodiment performs the following processing. That is, when the abnormality detection device 51 mounted on the vehicle 52 detects a driver abnormality, the management company server 53 and the insurance company server 54 are notified of the abnormality being detected via the cloud service 55.
The management company server 53 is a server installed in the management company. The management company is a company that, when notified of a driver's abnormality detection, calls an operator or services an ambulance.
The insurance company server 54 is a server installed in the insurance company.

<異常検知装置51>
図14は、第3実施形態で用いられる異常検知装置51の構成例を示す図である。
図14において、図6と同様の構成については図6と同一の符号を付して説明を省略する。
異常検知装置51は、画像処理装置1bと、車両機器2とで構成される。ここでは、画像処理装置1bと車両機器2が互いに接続されている関係となっているが、画像処理装置1bが車両機器2に搭載される形式となっていてもよい。
<Abnormality detection device 51>
FIG. 14 is a diagram illustrating a configuration example of the abnormality detection device 51 used in the third embodiment.
14, the same components as those in FIG. 6 are denoted by the same reference numerals as those in FIG.
The abnormality detection device 51 includes the image processing device 1b and the vehicle device 2. Here, the image processing device 1b and the vehicle device 2 are connected to each other, but the image processing device 1b may be mounted on the vehicle device 2.

(画像処理装置1b)
画像処理装置1bは、処理部100で抽出された生体情報を基に、ドライバの異常を検知する異常検知処理部141がCPU102によって実行されている点が図6と異なっている。異常検知処理部141が行う処理については後記する。なお、異常検知処理部141が車両機器2に搭載されてもよい。
(Image processing apparatus 1b)
The image processing apparatus 1b is different from FIG. 6 in that an abnormality detection processing unit 141 that detects an abnormality of the driver is executed by the CPU 102 based on the biological information extracted by the processing unit 100. The processing performed by the abnormality detection processing unit 141 will be described later. Note that the abnormality detection processing unit 141 may be mounted on the vehicle device 2.

(車両機器2)
車両機器2は車両52(図13参照)に標準的に搭載されている機器である。車両機器2は、CPU201、スピーカ202、表示装置203を有している。また、車両機器2は、時計204、GPS(Global Positioning System)信号受信装置205、ジャイロセンサ206及び車両制御装置207及び送受信装置208を有している。
このうちGPS信号受信装置205はGPS用人工衛星(不図示)から発信されるGPS信号を受信する。
ジャイロセンサ206は車両52の姿勢を検知する。
車両制御装置207は、画像処理装置1bがドライバの異常を検知すると、自律運転によって車両52を安全な場所に停車させる。
(Vehicle equipment 2)
The vehicle device 2 is a device that is normally mounted on the vehicle 52 (see FIG. 13). The vehicle device 2 includes a CPU 201, a speaker 202, and a display device 203. The vehicle device 2 includes a clock 204, a GPS (Global Positioning System) signal reception device 205, a gyro sensor 206, a vehicle control device 207, and a transmission / reception device 208.
Among these, the GPS signal receiving device 205 receives a GPS signal transmitted from a GPS artificial satellite (not shown).
The gyro sensor 206 detects the attitude of the vehicle 52.
When the image processing apparatus 1b detects an abnormality of the driver, the vehicle control device 207 stops the vehicle 52 at a safe place by autonomous driving.

<フローチャート>
図15は、第3実施形態で行われる異常検知処理の手順を示すフローチャートである。適宜、図13及び図14を参照する。
異常検知処理部141は、過去N回の生体値の平均値を算出する(S301)。生体値とは、生体情報に含まれる血圧値、脈拍値等である。
次に、処理部100が図10又は図12の処理を行い、生体情報を取得する(S302)。
そして、異常検知処理部141は生体値が正常であるか否かを判定する(S303)。生体値が正常であるか否かは、ステップS302で取得した生体値がステップS301に対して所定値以上離れているか否か等である。所定値とは、例えば、2σ(σは標準偏差)等である。
<Flowchart>
FIG. 15 is a flowchart illustrating a procedure of abnormality detection processing performed in the third embodiment. Reference is made to FIGS. 13 and 14 as appropriate.
The abnormality detection processing unit 141 calculates the average value of the past N biological values (S301). The biological value is a blood pressure value, a pulse value, or the like included in the biological information.
Next, the processing unit 100 performs the processing of FIG. 10 or FIG. 12 to acquire biological information (S302).
Then, the abnormality detection processing unit 141 determines whether or not the biological value is normal (S303). Whether or not the biological value is normal is whether or not the biological value acquired in step S302 is a predetermined value or more away from step S301. The predetermined value is, for example, 2σ (σ is a standard deviation).

ステップS303の結果、正常である場合(S303→Yes)、異常検知処理部141はステップS301へ処理を戻す。
ステップS303の結果、正常ではない場合(S303→No)、異常検知処理部141はステップS302で所得された生体をNG値として記憶装置104に保存する(S311)。
そして、異常検知処理部141は、ステップS303で正常ではないと判定されたのがN回連続であるか否かを判定する(S312)。
ステップS312の結果、ステップS303で正常ではないと判定されたのがN回連続ではない場合(S312→No)、異常検知処理部141はステップS301へ処理を戻す。
If the result of step S303 is normal (S303 → Yes), the abnormality detection processing unit 141 returns the process to step S301.
If the result of step S303 is not normal (S303 → No), the abnormality detection processing unit 141 stores the living body obtained in step S302 as an NG value in the storage device 104 (S311).
Then, the abnormality detection processing unit 141 determines whether it is N times consecutively determined as not normal in step S303 (S312).
As a result of step S312, when it is determined that it is not normal in step S303 for N consecutive times (S312 → No), the abnormality detection processing unit 141 returns the process to step S301.

ステップS312の結果、ステップS303で正常ではないと判定されたのがN回連続である場合(S312→Yes)、異常検知処理部141は車両機器2にドライバの状態が異常である旨を通知する。
車両機器2のCPU201は、ドライバの状態が異常である旨を表示装置203に出力(警告出力)させる(S321)。出力は、スピーカ202からの呼びかけ等としてもよい。
さらに、CPU201は車両制御装置207に車両52に対して緊急停止処理を行わせる(S322)。緊急停止処理は、路肩等へ移動後停止する処理等である。
そして、CPU201は、送受信装置208を介してクラウド経由で管理会社サーバ53や、保険会社サーバ54へ異常発生情報を送信する(S323)。
その後、管理会社のオペレータによる状態確認が行われる(S324)。オペレータによる状態確認とは、テレビ電話等を介してオペレータがドライバに話しかけることである。
As a result of step S312, when it is determined that it is not normal in step S303 for N consecutive times (S312 → Yes), the abnormality detection processing unit 141 notifies the vehicle device 2 that the state of the driver is abnormal. .
The CPU 201 of the vehicle device 2 causes the display device 203 to output (warning output) that the driver is in an abnormal state (S321). The output may be a call from the speaker 202 or the like.
Further, the CPU 201 causes the vehicle control device 207 to perform emergency stop processing on the vehicle 52 (S322). The emergency stop process is a process of stopping after moving to the road shoulder or the like.
Then, the CPU 201 transmits abnormality occurrence information to the management company server 53 and the insurance company server 54 via the cloud via the transmission / reception device 208 (S323).
Thereafter, the status is checked by the operator of the management company (S324). The state confirmation by the operator means that the operator talks to the driver via a video phone or the like.

また、保険会社は、異常発生情報を基に保険の設定見直し等を行う。   In addition, the insurance company reviews insurance settings based on the information on the occurrence of abnormalities.

第3実施形態によれば、画像処理装置1bが用いられることにより、異常検知の精度を向上させることができる。また、ステップS312で、画像処理装置1bはN回連続した場合、異常検知を出力することによって、生体情報が偶然異常となったときに異常検知の出力を行うことを防止することができる。
また、画像処理装置1bが車両52に搭載されることにより、ドライバの健康状態を監視することが可能となる。
According to the third embodiment, the accuracy of abnormality detection can be improved by using the image processing apparatus 1b. In step S312, when the image processing apparatus 1b continues N times, it can prevent abnormality detection from being output when biological information is accidentally abnormal by outputting abnormality detection.
In addition, by mounting the image processing apparatus 1b on the vehicle 52, it is possible to monitor the health condition of the driver.

[第4実施形態]
<ストレス環境管理システムZb>
図16は、第4実施形態で用いられるストレス環境管理システムZbの構成を示す図である。
ストレス環境管理システム(画像処理システム)Zbは、複数の車両52それぞれに搭載されている異常検知装置51aが検知したストレス情報がクラウドサービス55を介して管理会社サーバ53や、保険会社サーバ54に集められる。
ここで、ストレス情報は、位置情報と対応付けられており、管理会社や、保険会社は、どこで多くの人がストレスを感じているかを把握することができる。このような情報は、警告区間の設定や、保険料の設定に利用される。
[Fourth Embodiment]
<Stress environment management system Zb>
FIG. 16 is a diagram showing a configuration of a stress environment management system Zb used in the fourth embodiment.
The stress environment management system (image processing system) Zb collects stress information detected by the abnormality detection device 51a mounted on each of the plurality of vehicles 52 in the management company server 53 and the insurance company server 54 via the cloud service 55. It is done.
Here, the stress information is associated with the position information, and the management company and the insurance company can grasp where many people feel stress. Such information is used for setting warning intervals and insurance premiums.

<異常検知装置51a>
図17は、第4実施形態で用いられる異常検知装置51aの構成例を示す図である。
図17において、図14と同様の構成については図14と同一の符号を付して説明を省略する。
異常検知装置51aは、画像処理装置1cと、車両機器2とで構成される。ここでは、画像処理装置1cと車両機器2が互いに接続されている関係となっているが、画像処理装置1cが車両機器2に搭載される形式となっていてもよい。
<Abnormality detection device 51a>
FIG. 17 is a diagram illustrating a configuration example of an abnormality detection device 51a used in the fourth embodiment.
In FIG. 17, the same components as those in FIG. 14 are denoted by the same reference numerals as those in FIG.
The abnormality detection device 51a includes an image processing device 1c and a vehicle device 2. Here, the image processing device 1c and the vehicle device 2 are connected to each other, but the image processing device 1c may be mounted on the vehicle device 2.

(画像処理装置1c)
画像処理装置1cは、ストレス度処理部142及び外部環境処理部143がCPU102によって実行されている点が図6と異なっている。また、画像処理装置1cは、異常検知処理部141(図14参照)の代わりにストレス度処理部142及び外部環境処理部143がCPU102が備わっている点が図14と異なっている。
ストレス度処理部142は、処理部100で抽出された生体情報を基に、ドライバの疲労度や、緊張度といったストレス度を算出する。
外部環境処理部143は、ストレス度処理部142がストレス度を算出したときの車両52の位置等を検出する。
ストレス度処理部142及び外部環境処理部143が行う処理については後記する。
また、車両機器2は図14に示すものと同じであるので、ここでの説明を省略する。
なお、ストレス度処理部142及び外部環境処理部143が車両機器2に搭載されてもよい。
(Image processing apparatus 1c)
The image processing apparatus 1 c is different from FIG. 6 in that the stress level processing unit 142 and the external environment processing unit 143 are executed by the CPU 102. Further, the image processing apparatus 1c is different from FIG. 14 in that the CPU 102 is provided with a stress degree processing unit 142 and an external environment processing unit 143 instead of the abnormality detection processing unit 141 (see FIG. 14).
Based on the biological information extracted by the processing unit 100, the stress level processing unit 142 calculates a stress level such as a driver's fatigue level and tension level.
The external environment processing unit 143 detects the position of the vehicle 52 when the stress level processing unit 142 calculates the stress level.
The processing performed by the stress level processing unit 142 and the external environment processing unit 143 will be described later.
Moreover, since the vehicle apparatus 2 is the same as that shown in FIG. 14, description here is abbreviate | omitted.
The stress level processing unit 142 and the external environment processing unit 143 may be mounted on the vehicle device 2.

<フローチャート>
図18は、第4実施形態で行われる異常処理の手順を示すフローチャートである。
まず、図10又は図12の処理が行われることで生体情報が取得される(S401)。
次に、外部環境処理部143が、GPS信号受信装置205が受信したGPS信号や、ジャイロセンサ206から受信したジャイロ信号等を共に、車両52の現在情報を特定する(S402)。現在情報は、現在時刻、車両52の現在位置、車両52の向き等を含む情報である。なお、車両52の現在位置及び向きは、すなわちカメラ105で撮像される人物の現在位置及び向きである。
そして、ストレス度処理部142は、ステップS401及びステップS402の処理がM回以上実施されたか否かを判定する(S403)。
ステップS403の結果、ステップS401及びステップS402の処理がM回以上行われていない場合(S403→No)、ストレス度処理部142はステップS401へ処理を戻す。
<Flowchart>
FIG. 18 is a flowchart illustrating the procedure of the abnormality process performed in the fourth embodiment.
First, biometric information is acquired by performing the processing of FIG. 10 or FIG. 12 (S401).
Next, the external environment processing unit 143 specifies the current information of the vehicle 52 together with the GPS signal received by the GPS signal receiving device 205, the gyro signal received from the gyro sensor 206, and the like (S402). The current information is information including the current time, the current position of the vehicle 52, the direction of the vehicle 52, and the like. Note that the current position and orientation of the vehicle 52 are the current position and orientation of the person imaged by the camera 105.
Then, the stress degree processing unit 142 determines whether or not the processes of Step S401 and Step S402 have been performed M times or more (S403).
As a result of step S403, when the processes of step S401 and step S402 have not been performed M times or more (S403 → No), the stress degree processing unit 142 returns the process to step S401.

ステップS403の結果、ステップS401及びステップS402の処理がM回以上行われている場合(S403→Yes)、ストレス度処理部142はストレス度を算出する(S411)。ストレス度は蓄積された生体値から疲労度、緊張度等から算出される。ストレス度の算出は、脈拍及び/又は血圧が所定値以上となった場合にドライバが強いストレスを感じているとする。
そして、外部環境処理部143は、ステップS402で特定した現在位置と、地図データとのマッチングを行うことで、疲労、緊張の高い外部環境を特定する(S412)。
その後、ストレス度処理部142はステップS412で特定した外部環境に関する情報(外部環境情報)と、ストレス度をクラウド経由で管理会社サーバ53や、保険会社サーバ54へ送信する(S413)。この送信は、画像処理装置1cの送受信装置103が行ってもよいし、車両機器2の送受信装置208が行ってもよい。
そして、管理会社サーバ53は、他の車両52から収集した疲労、緊張の高い外部環境等を基に、疲労、緊張が高い傾向にある外部環境を情報共有レポートとして出力する(S414)。
As a result of step S403, when the processes of step S401 and step S402 are performed M times or more (S403 → Yes), the stress level processing unit 142 calculates the stress level (S411). The stress level is calculated from the accumulated biometric value based on the fatigue level, the tension level, and the like. The calculation of the stress level assumes that the driver feels a strong stress when the pulse and / or blood pressure exceeds a predetermined value.
Then, the external environment processing unit 143 specifies an external environment with high fatigue and tension by matching the current position specified in step S402 with the map data (S412).
Thereafter, the stress level processing unit 142 transmits information related to the external environment (external environment information) identified in step S412 and the stress level to the management company server 53 and the insurance company server 54 via the cloud (S413). This transmission may be performed by the transmission / reception device 103 of the image processing device 1c or the transmission / reception device 208 of the vehicle device 2.
And the management company server 53 outputs the external environment which tends to have high fatigue and tension as an information sharing report based on the fatigue and high external environment collected from other vehicles 52 (S414).

例えば、管理会社は、複数の車両52に搭載されている異常検知装置51aから収集する。そして、管理会社は、収集したストレス度と、ストレスを感じた位置情報とを基に、多くのドライバがストレスを強く感じる区間等を特定する。そして、管理会社は、この区間をドライバに配布することで、ストレスを強く感じる区間に対する警戒を促すことができる。
また、保険会社は、ストレスを強く感じる区間を多く走るドライバの保険料を高く設定する。
このように、第4実施形態によれば、ストレスを感じる区間を特定することができる。
For example, the management company collects from the abnormality detection devices 51 a mounted on the plurality of vehicles 52. Then, the management company specifies a section where many drivers feel strong stress based on the collected stress level and the location information where the stress is felt. Then, the management company distributes this section to the driver, and can thereby promote alertness to the section where stress is strongly felt.
In addition, insurance companies set high insurance premiums for drivers who run a lot in stress-sensitive sections.
Thus, according to the fourth embodiment, it is possible to specify a section where stress is felt.

[第5実施形態]
<在宅監視装置61>
図19は第5実施形態で用いられる在宅監視装置61の構成を示す図である。
図19において、図14と同様の構成については同一の符号を付して説明を省略する。
在宅監視装置(画像処理システム)61は、画像処理装置1b及び家電機器3を有する。ここでは、画像処理装置1bと家電機器3とが接続されているが、家電機器3に画像処理装置1bが搭載されている形式としてもよい。
ここで、画像処理装置1bは図14に示すものと同じであるので、ここでの説明を省略する。
[Fifth Embodiment]
<Home monitoring device 61>
FIG. 19 is a diagram showing a configuration of a home monitoring device 61 used in the fifth embodiment.
In FIG. 19, the same components as those in FIG.
The at-home monitoring device (image processing system) 61 includes an image processing device 1 b and a home appliance 3. Here, the image processing device 1b and the home appliance 3 are connected, but the home appliance 3 may have a format in which the image processing device 1b is mounted.
Here, since the image processing apparatus 1b is the same as that shown in FIG. 14, the description thereof is omitted here.

(家電機器3)
家電機器3は、エアコンや、インタフォン等といった家電製品である。
家電機器3は、メモリ301、CPU302、カメラ303、時計304、スピーカ305、表示装置306、機器制御装置307及び送受信装置308を有する。なお、家電機器3は、カメラ303、時計304、スピーカ305、表示装置306のすべてを備えたものでなくてもよい。また、家電機器3にカメラ303が備えられている場合、画像処理装置1bのカメラ105(赤外線カメラ106)が省略されてもよい。
(Household appliances 3)
The home appliance 3 is a home appliance such as an air conditioner or an interphone.
The home appliance 3 includes a memory 301, a CPU 302, a camera 303, a clock 304, a speaker 305, a display device 306, a device control device 307, and a transmission / reception device 308. Note that the household electrical appliance 3 may not include all of the camera 303, the clock 304, the speaker 305, and the display device 306. When the home appliance 3 is provided with the camera 303, the camera 105 (infrared camera 106) of the image processing apparatus 1b may be omitted.

なお、第5実施形態の在宅監視装置61の処理は、図15の処理において、ステップS322の処理が省略され、車両機器2(図14参照)の処理が家電機器3に置き換わったものであるので、ここでの説明を省略する。
画像処理装置1bが異常を検知すると、家電機器3は管理会社への通知等を行う。
Note that the processing of the home monitoring device 61 of the fifth embodiment is the processing in FIG. 15 in which the processing in step S322 is omitted and the processing in the vehicle device 2 (see FIG. 14) is replaced with the home appliance 3. The description here is omitted.
When the image processing apparatus 1b detects an abnormality, the home appliance 3 performs notification to the management company.

第5実施形態によれば、家電機器3を利用した居住者の健康監視が可能となる。また、例えば、家電機器3が空調であれば、画像処理装置1bが異常を検知すると機器制御装置307が温度調節を行う等といった処理を行ってもよい。   According to the fifth embodiment, it is possible to monitor the health of the resident using the home appliance 3. Further, for example, if the home appliance 3 is air-conditioned, the device control device 307 may perform processing such as temperature adjustment when the image processing device 1b detects an abnormality.

生体情報は、呼吸状態等が含まれてもよい。
なお、補正は所定時間毎に行われるのが望ましい。例えば、図10のステップS125において補正情報が得られると、画像補正部112は、それ以降取得される顔画像12に対して、得られた補正情報を適用し続ける。そして、所定時間経過後、新たな補正情報が得られると、画像補正部112は、それ以降取得される顔画像12に対して、得られた補正情報を適用し続ける。
The biological information may include a respiratory state.
Note that the correction is preferably performed every predetermined time. For example, when the correction information is obtained in step S125 of FIG. 10, the image correction unit 112 continues to apply the obtained correction information to the face image 12 acquired thereafter. When new correction information is obtained after a predetermined time has elapsed, the image correction unit 112 continues to apply the obtained correction information to the face image 12 acquired thereafter.

また、本実施形態では、瞳孔の大きさに関する情報として、瞳孔サイズ比P/Prが用いられているが、これに限らない。例えば、Pr/Pが用いられてもよいし、現在の瞳孔サイズPが用いられてもよい。また、P(t)−P(t−1)が瞳孔の大きさに関する情報として用いられてもよい。ここで、P(t)は時刻tにおける瞳孔の大きさである。   In the present embodiment, the pupil size ratio P / Pr is used as information regarding the size of the pupil, but the present invention is not limited to this. For example, Pr / P may be used, or the current pupil size P may be used. Further, P (t) −P (t−1) may be used as information regarding the size of the pupil. Here, P (t) is the size of the pupil at time t.

また、図10や、図12のステップS113で有効判定処理部121は「まぶたが閉じているか否か」で取得された顔画像12が有効か否かを判定しているが、これに加えて、以下の判定が行われてもよい。すなわち、有効判定処理部121は「所定時間まぶたが閉じたままか否か」を判定することによって、ドライバ(ユーザ)が眠気を催しているか否かを判定してもよい。ドライバ(ユーザ)が眠気を催していると判定した場合、スピーカ202等の音量を大きくする等の処理が行われてもよい。   Further, in step S113 of FIG. 10 and FIG. 12, the validity determination processing unit 121 determines whether or not the face image 12 acquired by “whether or not the eyelid is closed” is valid. In addition to this, The following determination may be made. That is, the validity determination processing unit 121 may determine whether or not the driver (user) is drowsy by determining whether or not the eyelid remains closed for a predetermined time. When it is determined that the driver (user) is drowsy, processing such as increasing the volume of the speaker 202 or the like may be performed.

本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. Moreover, it is possible to add / delete / replace other configurations for a part of the configurations of the embodiments.

また、前記した各構成、機能、各部1〜3、記憶部5等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、図4に示すように、前記した各構成、機能等は、CPU102等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリ101や、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Each of the above-described configurations, functions, units 1 to 3, storage unit 5, etc. may be realized by hardware by designing a part or all of them, for example, with an integrated circuit. Further, as shown in FIG. 4, the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by a processor such as the CPU 102. In addition to storing information such as programs, tables, and files for realizing each function in an HD (Hard Disk), a memory 101, a recording device such as an SSD (Solid State Drive), or an IC (Integrated Circuit) card It can also be stored in a recording medium such as an SD (Secure Digital) card or a DVD (Digital Versatile Disc).
In each embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines are necessarily shown on the product. In practice, it can be considered that almost all configurations are connected to each other.

1,1b,1c 画像処理装置
2 車両機器
3 家電機器
11 瞳孔画像
12 顔画像
13 肌画像
21〜23 変換線(変換情報)
51,51a 異常検知装置
52 車両
53 管理会社サーバ
54 保険会社サーバ
55 クラウドサービス
61 在宅監視装置(画像処理システム)
100 処理部
104 記憶装置
105,303 カメラ(撮像部)
106 赤外線カメラ(撮像部)
110 画像処理部
111 濃度ヒストグラム生成部
112 画像補正部
120 瞳孔サイズ関連処理部(瞳孔情報取得部)
121 瞳孔サイズ比算出処理部
122 有効判定処理部
131 生体情報抽出部
132 肌情報処理部
202,305 スピーカ
203,306 表示装置
205 GPS信号受信装置
206 ジャイロセンサ
207 車両制御装置
307 機器制御装置
Za,Zb 異常検知システム(画像処理システム)
1, 1b, 1c Image processing device 2 Vehicle device 3 Home appliance 11 Pupil image 12 Face image 13 Skin image 21-23 Conversion line (conversion information)
51, 51a Anomaly detection device 52 Vehicle 53 Management company server 54 Insurance company server 55 Cloud service 61 Home monitoring device (image processing system)
DESCRIPTION OF SYMBOLS 100 Processing part 104 Storage device 105,303 Camera (imaging part)
106 Infrared camera (imaging part)
110 Image processing unit 111 Density histogram generation unit 112 Image correction unit 120 Pupil size related processing unit (pupil information acquisition unit)
121 Pupil Size Ratio Calculation Processing Unit 122 Validity Determination Processing Unit 131 Biometric Information Extraction Unit 132 Skin Information Processing Unit 202, 305 Speaker 203, 306 Display Device 205 GPS Signal Receiving Device 206 Gyro Sensor 207 Vehicle Control Device 307 Device Control Device Za, Zb Anomaly detection system (image processing system)

Claims (15)

少なくとも目の画像を含む画像を撮像する撮像部と、
前記撮像部で撮像された前記画像を基に、瞳孔の大きさに関する情報を取得する瞳孔情報取得部と、
前記瞳孔情報取得部で取得された前記瞳孔の大きさに関する情報を基に、前記撮像部で撮像された前記画像の補正を行う画像補正部と、
を有することを特徴とする画像処理装置。
An imaging unit that captures an image including at least an eye image;
Based on the image captured by the imaging unit, a pupil information acquisition unit that acquires information related to the size of the pupil;
An image correction unit that corrects the image captured by the imaging unit based on information on the size of the pupil acquired by the pupil information acquisition unit;
An image processing apparatus comprising:
前記画像は肌の画像を含んでおり、
補正された前記肌の画像を基に、生体情報を抽出する生体情報抽出部
を有することを特徴とする請求項1に記載の画像処理装置。
The image includes a skin image,
The image processing apparatus according to claim 1, further comprising: a biological information extraction unit that extracts biological information based on the corrected skin image.
前記瞳孔の大きさに関する情報と、画素の濃度の変換情報とが対応付けられて記憶部に格納されており、
前記画像補正部は、
前記取得された瞳孔の大きさに関する情報を基に、前記瞳孔の大きさに関する情報と、画素の濃度の変換情報とに基づいて、前記画像の画素の濃度を変換する
ことを特徴とする請求項1に記載の画像処理装置。
Information relating to the size of the pupil and pixel density conversion information are associated with each other and stored in the storage unit,
The image correction unit
The pixel density of the image is converted based on the information on the pupil size and the pixel density conversion information based on the acquired information on the pupil size. The image processing apparatus according to 1.
予め取得された肌の色の濃度に関する情報が記憶部に格納されており、
前記肌の色の濃度に関する情報と、前記画像の肌の濃度に関する情報を基に、前記画像の濃度を補正する
ことを特徴とする請求項1に記載の画像処理装置。
Information regarding the density of the skin color acquired in advance is stored in the storage unit,
The image processing apparatus according to claim 1, wherein the density of the image is corrected based on information on the skin color density and information on the skin density of the image.
前記画像を基に、まぶたが閉じている場合、前記瞳孔情報取得部と、前記画像補正部は処理を行わない
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein when the eyelid is closed based on the image, the pupil information acquisition unit and the image correction unit do not perform processing.
過去において検出された前記生体情報を記憶する記憶部と、
前記過去の生体情報と、取得された前記生体情報とを比較することで前記生体情報の異常を検知する異常検知部と、
を有することを特徴とする請求項2に記載の画像処理装置。
A storage unit for storing the biological information detected in the past;
An abnormality detection unit that detects an abnormality of the biological information by comparing the past biological information and the acquired biological information;
The image processing apparatus according to claim 2, further comprising:
前記異常検知部は、
前記生体情報の異常を所定回数にわたって、連続して検知した場合、前記異常の検知を出力する
ことを特徴とする請求項6に記載の画像処理装置。
The abnormality detection unit
The image processing apparatus according to claim 6, wherein when the abnormality of the biological information is detected continuously for a predetermined number of times, the detection of the abnormality is output.
前記撮像部による撮像対象となる人物の位置情報を取得する位置情報取得部と、
前記異常を検知した際の前記位置情報を前記記憶部に記憶する位置記憶部と、
を有することを請求項6に記載の画像処理装置。
A position information acquisition unit that acquires position information of a person to be imaged by the imaging unit;
A position storage unit that stores the position information when the abnormality is detected in the storage unit;
The image processing apparatus according to claim 6.
前記撮像部は、赤外線カメラである
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the imaging unit is an infrared camera.
前記生体情報は、脈拍及び血圧を少なくとも含む
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the biological information includes at least a pulse and a blood pressure.
少なくとも目の画像を含む画像を撮像する撮像部と、
前記撮像部で撮像された前記画像を基に、瞳孔の大きさに関する情報を取得する瞳孔情報取得部と、
前記瞳孔情報取得部で取得された前記瞳孔の大きさに関する情報を基に、前記撮像部で撮像された前記画像の補正を行う画像補正部と、
を有することを特徴とする画像処理システム。
An imaging unit that captures an image including at least an eye image;
Based on the image captured by the imaging unit, a pupil information acquisition unit that acquires information related to the size of the pupil;
An image correction unit that corrects the image captured by the imaging unit based on information on the size of the pupil acquired by the pupil information acquisition unit;
An image processing system comprising:
前記画像は肌の画像を含んでおり、
補正された前記肌の画像を基に、生体情報を抽出する生体情報抽出部と、
過去において検出された前記生体情報を記憶する記憶部と、
前記過去の生体情報と、取得された前記生体情報とを比較することで前記生体情報の異常を検知する異常検知部と、
検知した前記異常を通知する通知部と、
を有することを特徴とする請求項11に記載の画像処理システム。
The image includes a skin image,
A biometric information extracting unit that extracts biometric information based on the corrected skin image;
A storage unit for storing the biological information detected in the past;
An abnormality detection unit that detects an abnormality of the biological information by comparing the past biological information and the acquired biological information;
A notification unit for notifying the detected abnormality;
The image processing system according to claim 11, further comprising:
前記撮像部は、車両に備えられている
ことを特徴とする請求項11に記載の画像処理システム。
The image processing system according to claim 11, wherein the imaging unit is provided in a vehicle.
前記撮像部は、家電機器に備えられている
ことを特徴とする請求項11に記載の画像処理システム。
The image processing system according to claim 11, wherein the imaging unit is provided in a home appliance.
少なくとも目の画像を含む画像を撮像する撮像部を有する画像処理装置が、
前記撮像部で撮像された前記画像を基に、瞳孔の大きさに関する情報を取得し、
取得された前記瞳孔の大きさに関する情報を基に、前記撮像部で撮像された前記画像の補正を行う
を有することを特徴とする画像処理方法。
An image processing apparatus having an imaging unit that captures an image including at least an eye image,
Based on the image captured by the imaging unit, obtain information on the size of the pupil,
An image processing method comprising: correcting the image captured by the imaging unit based on the acquired information regarding the size of the pupil.
JP2017057356A 2017-03-23 2017-03-23 Image processing equipment, image processing system and image processing method Active JP6796525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017057356A JP6796525B2 (en) 2017-03-23 2017-03-23 Image processing equipment, image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017057356A JP6796525B2 (en) 2017-03-23 2017-03-23 Image processing equipment, image processing system and image processing method

Publications (2)

Publication Number Publication Date
JP2018160128A true JP2018160128A (en) 2018-10-11
JP6796525B2 JP6796525B2 (en) 2020-12-09

Family

ID=63796673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017057356A Active JP6796525B2 (en) 2017-03-23 2017-03-23 Image processing equipment, image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP6796525B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112616227A (en) * 2020-12-17 2021-04-06 内蒙古农业大学 Tunnel light adjusting system and method based on pupil change characteristics of driver
WO2022264218A1 (en) * 2021-06-14 2022-12-22 株式会社I’mbesideyou Video analysis system
JP7372210B2 (en) 2020-06-03 2023-10-31 ヤフー株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104879A (en) * 2010-11-05 2012-05-31 Canon Inc Image capturing device, image display device, image processing method, image processing program, and image-capturing and displaying device
JP2014180305A (en) * 2013-03-18 2014-09-29 Funai Electric Co Ltd Information terminal device
WO2016163019A1 (en) * 2015-04-10 2016-10-13 株式会社日立製作所 Biological information analyzing system
JP2016193021A (en) * 2015-03-31 2016-11-17 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104879A (en) * 2010-11-05 2012-05-31 Canon Inc Image capturing device, image display device, image processing method, image processing program, and image-capturing and displaying device
JP2014180305A (en) * 2013-03-18 2014-09-29 Funai Electric Co Ltd Information terminal device
JP2016193021A (en) * 2015-03-31 2016-11-17 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
WO2016163019A1 (en) * 2015-04-10 2016-10-13 株式会社日立製作所 Biological information analyzing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7372210B2 (en) 2020-06-03 2023-10-31 ヤフー株式会社 Information processing device, information processing method, and information processing program
CN112616227A (en) * 2020-12-17 2021-04-06 内蒙古农业大学 Tunnel light adjusting system and method based on pupil change characteristics of driver
CN112616227B (en) * 2020-12-17 2023-05-16 内蒙古农业大学 Tunnel lamplight adjusting system and method based on pupil change characteristics of driver
WO2022264218A1 (en) * 2021-06-14 2022-12-22 株式会社I’mbesideyou Video analysis system

Also Published As

Publication number Publication date
JP6796525B2 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
US10595732B2 (en) Pulse wave detection device and pulse wave detection program
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
WO2016006027A1 (en) Pulse wave detection method, pulse wave detection program, and pulse wave detection device
CN111414831A (en) Monitoring method and system, electronic device and storage medium
US20150124067A1 (en) Physiological measurement obtained from video images captured by a camera of a handheld device
EP3681371B1 (en) Reliability of gaze tracking data for left and right eye
CN112016457A (en) Driver distraction and dangerous driving behavior recognition method, device and storage medium
EP2401963A1 (en) Driving attention amount determination device, method, and computer program
US10478079B2 (en) Pulse estimation device, pulse estimation system, and pulse estimation method
WO2004040531A1 (en) Method and apparatus for detection of drownsiness and for monitoring biological processes
US10085683B1 (en) Vehicle fatigue monitoring system
JP6796525B2 (en) Image processing equipment, image processing system and image processing method
KR20140110484A (en) Risk behavior detection method using image information
CN114648749A (en) Physiological state detection method and device, electronic equipment and storage medium
Alam et al. Active vision-based attention monitoring system for non-distracted driving
US8405714B2 (en) Pupil hidden state detecting apparatus and vehicle-mounted camera employing the same
KR20150106986A (en) System for detecting drowsiness based on server and the method thereof
CN110801229A (en) Eyesight protection monitoring method, system, equipment and storage medium
US20220284718A1 (en) Driving analysis device and driving analysis method
CN116158741A (en) Wireless medical monitoring system and method
CN115444383A (en) Intelligent health monitoring method, system, equipment and storage medium
EP4111984A1 (en) Information processing method, computer program, information processing device, and information processing system
Beukman et al. A multi-sensor system for detection of driver fatigue
JP6400258B1 (en) Information presenting apparatus, information presenting system, information presenting method, and information presenting program
CN114863399A (en) Physiological state detection method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201116

R150 Certificate of patent or registration of utility model

Ref document number: 6796525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150