JP2007295946A - Detection system for alcohol influence and method - Google Patents

Detection system for alcohol influence and method Download PDF

Info

Publication number
JP2007295946A
JP2007295946A JP2006123767A JP2006123767A JP2007295946A JP 2007295946 A JP2007295946 A JP 2007295946A JP 2006123767 A JP2006123767 A JP 2006123767A JP 2006123767 A JP2006123767 A JP 2006123767A JP 2007295946 A JP2007295946 A JP 2007295946A
Authority
JP
Japan
Prior art keywords
image
data
driver
unit
alcohol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006123767A
Other languages
Japanese (ja)
Inventor
Shinichiro Kito
伸一郎 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2006123767A priority Critical patent/JP2007295946A/en
Publication of JP2007295946A publication Critical patent/JP2007295946A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detection system for alcohol influence and a detection method for alcohol influence capable of taking measures to avoid the risk of an accident according to the degree of alcohol influence on a driver by estimating the degree of alcohol influence on the driver in a contactless state in a vehicle while the driver is driving as well. <P>SOLUTION: The detection system for alcohol influence comprises an image photographing part 2 for photographing the image of the driver of the vehicle; a data accumulation part 10 for storing the normal-time image of the driver of the vehicle in normal time when the driver is not under the influence of alcohol, or the biological data of the driver in the normal time; and data processing/analyzing part 8 for detecting the degree of alcohol influence on the driver of the vehicle by comparing/collating the image photographed by the image photographing part 2 and the biological data obtained by analyzing the image with the normal-time image or biological data in the normal time stored in the data accumulating part 10. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、酒気帯び検知システム及び酒気帯び検知方法に係り、特に車両運転者の酒気帯び度を検出する酒気帯び検知システム及び酒気帯び検知方法に関するものである。   The present invention relates to a drunk detection system and a drunk detection method, and more particularly, to a drunk detection system and a drunk detection method for detecting the degree of drunkness of a vehicle driver.

近年、自動車等の車両の運転者が飲酒運転を行うことに起因する事故等が増加している。そこで、行政側も、例えば車両の運転前に、運転者のアルコール濃度の検査とともに、運転者が酒気帯び状態でない(飲酒していない)ことを確認するために運転者と第三者との面談を行うこと等を交通機関側に要請する等、飲酒運転による事故を未然に防止するための指導や対策を行っている。しかし、車両運転前に運転者が酒気帯び状態でないか否かの検査等をしたのみでは、一旦運転動作を開始した後に酒気帯び状態となった場合等には検知することができず、飲酒運転による事故を十分に防止することができない。   In recent years, there have been an increase in accidents and the like resulting from drunk driving by drivers of vehicles such as automobiles. Therefore, for example, before the vehicle is driven, the administrative side also checks the driver's alcohol concentration and interviews the driver with a third party to confirm that the driver is not drunk (not drinking). It provides guidance and countermeasures to prevent accidents caused by drunk driving, such as requesting the transportation side to perform such activities. However, it is not possible to detect when the driver is drunk after starting the driving operation only by checking whether the driver is not drunk before driving the vehicle. Accidents caused by accidents cannot be sufficiently prevented.

そこで、例えば、運転者の呼気中のアルコール濃度を測定し、それが基準値以上の場合に運転不可能と判断し、管理者サーバに報告する運転者検査システムが提案されている(例えば、特許文献1参照)。
また、被測定者の虹彩画像を撮影して個人認証を行うことにより検査者と対面していなくても他人が被測定者に成り済ますことを防ぐとともに、センサでアルコール濃度や血圧を測定し、該当する個人情報と関連付けて管理する身体状態管理装置およびそのデータ管理方法が提案されている(例えば、特許文献2参照)。
また、車両停止中に車中でアルコール濃度を測定し、測定者の画像とともにメールによって測定結果を報告するよう構成し、アルコール濃度の測定時に健康管理データとして酸素飽和度や血圧を測定して、この測定結果をアルコール濃度の測定結果を報告するメールに同報するアルコール検知システムが提案されている(例えば、特許文献3参照)。
特開2005−296252号公報 特開2005−245956号公報 特開2005−118177号公報
Therefore, for example, a driver inspection system that measures the alcohol concentration in the breath of the driver, determines that driving is impossible when the alcohol concentration exceeds a reference value, and reports to the administrator server has been proposed (for example, a patent) Reference 1).
In addition, by taking a person's iris image and performing personal authentication, it is possible to prevent other people from impersonating the subject even if they are not facing the examiner, and to measure alcohol concentration and blood pressure with the sensor, A physical condition management device and a data management method thereof that are managed in association with corresponding personal information have been proposed (for example, see Patent Document 2).
In addition, the alcohol concentration is measured in the vehicle while the vehicle is stopped, and the measurement result is reported by e-mail together with the image of the measurer. When measuring the alcohol concentration, the oxygen saturation and blood pressure are measured as health management data, There has been proposed an alcohol detection system that broadcasts this measurement result to a mail reporting the measurement result of the alcohol concentration (see, for example, Patent Document 3).
JP 2005-296252 A JP-A-2005-245958 JP-A-2005-118177

しかしながら、前記特許文献1に示された手法によれば、運転手が窓を開ける等することにより、実際には酒気帯び状態であっても測定結果が基準値を超えないようにして酒気帯びとの判定を免れる可能性がある。また、同乗者の呼気と区別をつけられないとの問題もある。
また、特許文献2に示された手法によれば、運転中又は乗車時に測定していないため、運転中の酒気帯び状態を検出することはできない。
また、特許文献3に示された手法によれば、車両停止中にしか測定できないとの問題があり、また、運転者自ら計測機器を操作しなければならないため、アルコール濃度、酸素飽和度や血圧の測定が煩わしく、運転者による計測の拒否も可能である。また、それらのセンサを体表面に装着しなければならないので、運転者に対する侵襲の問題もあった。
However, according to the technique disclosed in Patent Document 1, the driver opens the window, and so on, so that the measurement result does not exceed the reference value even if the driver is actually drunk. There is a possibility of avoiding the judgment. There is also a problem that it cannot be distinguished from the exhalation of a passenger.
In addition, according to the method disclosed in Patent Document 2, since measurement is not performed during driving or getting on, it is not possible to detect a drunk state during driving.
Further, according to the technique disclosed in Patent Document 3, there is a problem that measurement can be performed only while the vehicle is stopped, and since the driver must operate the measuring device himself, the alcohol concentration, oxygen saturation, blood pressure, etc. Measurement is troublesome, and the driver can refuse measurement. In addition, since these sensors must be mounted on the body surface, there has been a problem of invasiveness to the driver.

そこで、本発明は以上のような課題を解決するためになされたものであり、運転中を含む車両内において非接触的に運転者の酒気帯び度を推定し、酒気帯び度に応じて危険を回避する対応を行うことのできる酒気帯び検知システム及び酒気帯び検知方法を提供することを目的とするものである。   Accordingly, the present invention has been made to solve the above-described problems, and estimates the driver's alcohol level in a non-contact manner in a vehicle including during driving, and the risk is determined according to the level of alcohol level. It is an object of the present invention to provide a dampness detection system and a drunkenness detection method capable of taking measures to avoid.

上記課題を解決するため、請求項1に記載の酒気帯び検知システムは、車両運転者の画像を撮影する画像撮影部と、
酒気帯び状態でない平常時における車両運転者の平常時画像又は平常時の生体データを保持する平常時データ保持手段と、
前記画像撮影部により撮影された画像及び当該画像を解析することにより得られる生体データと前記平常時データ保持手段に保持されている前記平常時画像又は前記平常時の生体データとを比較対照することにより車両運転者の酒気帯び度を検出するデータ処理部と、
を備えることを特徴としている。
In order to solve the above-mentioned problem, the drunk detection system according to claim 1, an image capturing unit that captures an image of a vehicle driver,
A normal data holding means for holding a normal image or normal biological data of a vehicle driver in a normal state that is not drunk;
Comparing and contrasting the image captured by the image capturing unit and the biometric data obtained by analyzing the image with the normal image or the normal biometric data stored in the normal data storage unit A data processing unit for detecting the degree of drunkness of the vehicle driver,
It is characterized by having.

このような構成を有する請求項1に記載の発明においては、画像撮影部で撮影した画像及び当該画像を解析して得られる生体データと平常時画像又は平常時の生体データとを比較対照することによって、データ処理部が車両運転者の酒気帯び度を検出するようになっている。   In the invention according to claim 1 having such a configuration, comparing and contrasting the image captured by the image capturing unit and the biological data obtained by analyzing the image with the normal image or the normal biological data. Thus, the data processing unit detects the degree of drunkness of the vehicle driver.

また、請求項2に記載の発明は、請求項1に記載の酒気帯び検知システムにおいて、前記画像撮影部は、車両運転者の頭部及び頚部の画像を撮影するものであることを特徴としている。   According to a second aspect of the present invention, in the drunkenness detection system according to the first aspect, the image capturing unit captures images of the head and neck of a vehicle driver. .

したがって、請求項2に記載の発明では、車両運転者の頭部及び頚部の画像を取得し、これを解析することによって、酒気帯び度の検出に必要な生体データを得るようになっている。   Therefore, in the invention described in claim 2, by acquiring images of the head and neck of the vehicle driver and analyzing the acquired images, biometric data necessary for detecting the degree of drunkenness is obtained.

また、請求項3に記載の発明は、請求項1又は請求項2に記載の酒気帯び検知システムにおいて、前記生体データと車両運転者の酒気帯び度とを関係付ける評価関数又は評価テーブルを保持する関係付けデータ保持手段を備え、
前記データ処理部は、前記関係付けデータ保持手段に保持されている前記評価関数又は前記評価テーブルを参照しつつ車両運転者の酒気帯び度を検出するものであることを特徴としている。
Further, the invention according to claim 3 holds an evaluation function or an evaluation table that relates the biometric data and the degree of drunkness of the vehicle driver in the drunk detection system according to claim 1 or 2. A correlation data holding means,
The data processing unit is characterized by detecting a degree of drunkenness of a vehicle driver while referring to the evaluation function or the evaluation table held in the association data holding means.

したがって、請求項3に記載の発明では、データ処理部は、評価関数又は前記評価テーブルを参照しつつ車両運転者の酒気帯び度を検出するようになっている。   Therefore, in the invention according to claim 3, the data processing unit detects the drunkenness of the vehicle driver while referring to the evaluation function or the evaluation table.

請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の酒気帯び検知システムにおいて、車両運転者の酒気帯び度に基づいて、車両の動作制御に関する指示信号を出力する伝達部を備えていることを特徴としている。   According to a fourth aspect of the present invention, in the drip detection system according to any one of the first to third aspects, an instruction signal relating to vehicle operation control is output based on the dampness level of the vehicle driver. It is characterized by having a transmission part.

したがって、請求項4に記載の発明では、車両運転者の酒気帯び度に基づいて、伝達部から車両の動作制御に関する指示信号を出力するようになっている。   Therefore, in the invention according to the fourth aspect, an instruction signal related to the vehicle operation control is output from the transmission unit based on the degree of drunkenness of the vehicle driver.

さらに、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の酒気帯び検知システムにおいて、前記画像撮影部の撮影特性についてキャリブレーションを行う撮影キャリブレーション手段を備えていることを特徴としている。   Furthermore, the invention described in claim 5 is a drunkenness detection system according to any one of claims 1 to 4, further comprising imaging calibration means for calibrating imaging characteristics of the image capturing unit. It is characterized by having.

したがって、請求項5に記載の発明では、撮影キャリブレーション手段により画像撮影部の撮影特性についてキャリブレーションを行うようになっている。   Therefore, according to the fifth aspect of the present invention, calibration is performed on the photographing characteristics of the image photographing unit by the photographing calibration means.

さらに、請求項6に記載の発明は、請求項3から請求項5のいずれか一項に記載の酒気帯び検知システムにおいて、前記評価関数又は前記評価テーブルについてキャリブレーションを行う解析キャリブレーション手段を備えていることを特徴としている。   Furthermore, the invention described in claim 6 includes an analysis calibration means for calibrating the evaluation function or the evaluation table in the drunkenness detection system according to any one of claims 3 to 5. It is characterized by having.

したがって、請求項6に記載の発明では、解析キャリブレーション手段により評価関数又は評価テーブルについてキャリブレーションを行うようになっている。   Therefore, in the invention described in claim 6, the evaluation function or the evaluation table is calibrated by the analysis calibration means.

請求項7に記載の酒気帯び検知方法は、車両運転者の画像を撮影する画像撮影工程と、
撮影された画像及び当該画像を解析することにより得られる生体データと酒気帯び状態でない平常時における車両運転者の平常時画像又は平常時の生体データとを比較対照することにより車両運転者の酒気帯び度を検出するデータ処理工程と、
を備えることを特徴としている。
According to the seventh aspect of the present invention, there is provided a method for detecting an alcoholic spirit, an image photographing process for photographing an image of a vehicle driver,
By comparing and contrasting the captured image and the biometric data obtained by analyzing the image with the normal image or normal biometric data of the vehicle driver in a normal state that is not drunk, the driver's drunkness Data processing step to detect the degree,
It is characterized by having.

このような構成を有する請求項7に記載の発明においては、撮影した画像及び当該画像を解析して得られる生体データと平常時画像又は平常時の生体データとを比較対照することによって、車両運転者の酒気帯び度を検出するデータ処理を行うようになっている。   In the invention according to claim 7 having such a configuration, the vehicle operation is performed by comparing and contrasting the captured image and the biological data obtained by analyzing the image with the normal image or the normal biological data. Data processing is performed to detect a person's alcohol level.

請求項8に記載の発明は、請求項7に記載の酒気帯び検知方法において、前記画像撮影工程は、車両運転者の頭部及び頚部の画像を撮影することを特徴としている。   According to an eighth aspect of the present invention, in the method for detecting drunkenness according to the seventh aspect, the image capturing step captures images of the head and neck of the vehicle driver.

したがって、請求項8に記載の発明では、車両運転者の頭部及び頚部の画像を取得し、これを解析することによって、酒気帯び度を検出に必要な生体データを得るようになっている。   Therefore, in the invention described in claim 8, by acquiring images of the head and neck of the vehicle driver and analyzing the images, biometric data necessary for detecting the degree of drunkenness is obtained.

請求項9に記載の発明は、請求項7又は請求項8に記載の酒気帯び検知方法において、前記データ処理工程は、前記生体データと車両運転者の酒気帯び度とを関係付ける評価関数又は評価テーブルを参照しつつ車両運転者の酒気帯び度を検出することを特徴としている。   According to a ninth aspect of the present invention, in the method for detecting an alcoholic beverage according to the seventh or eighth aspect, the data processing step includes an evaluation function or an evaluation for relating the biological data and the alcoholic beverage driver's alcoholic beverage degree. It is characterized by detecting the degree of drunkness of the vehicle driver while referring to the table.

したがって、請求項9に記載の発明では、評価関数又は前記評価テーブルを参照しつつ車両運転者の酒気帯び度を検出するデータ処理を行うようになっている。   Therefore, in the invention according to the ninth aspect, data processing for detecting the drunkenness of the vehicle driver is performed while referring to the evaluation function or the evaluation table.

請求項10に記載の発明は、請求項7から請求項9のいずれか一項に記載の酒気帯び検知方法において、車両運転者の酒気帯び度に基づいて、車両の動作制御に関する指示信号を出力する伝達工程を備えていることを特徴としている。   According to a tenth aspect of the present invention, in the method of detecting dampness according to any one of the seventh to ninth aspects, an instruction signal relating to vehicle operation control is output based on the dampness level of the vehicle driver. It is characterized by having a transmission process.

したがって、請求項10に記載の発明では、車両運転者の酒気帯び度に基づいて、車両の動作制御に関する指示信号を出力するようになっている。   Therefore, in the invention described in claim 10, the instruction signal relating to the operation control of the vehicle is output based on the drunkenness degree of the vehicle driver.

請求項11に記載の発明は、請求項7から請求項10のいずれか一項に記載の酒気帯び検知方法において、画像撮影における撮影特性についてキャリブレーションを行う撮影キャリブレーション工程を備えていることを特徴としている。   The invention described in claim 11 includes the photographing calibration step of calibrating the photographing characteristics in image photographing in the method for detecting drunkenness according to any one of claims 7 to 10. It is a feature.

したがって、請求項11に記載の発明では、画像撮影部の撮影特性についてキャリブレーションを行うようになっている。   Therefore, in the invention described in claim 11, calibration is performed for the photographing characteristic of the image photographing unit.

請求項12に記載の発明は、請求項9から請求項11のいずれか一項に記載の酒気帯び検知方法において、前記評価関数又は前記評価テーブルについてキャリブレーションを行う解析キャリブレーション工程を備えていることを特徴としている。   A twelfth aspect of the invention includes an analysis calibration step of calibrating the evaluation function or the evaluation table in the drunkenness detection method according to any one of the ninth to eleventh aspects. It is characterized by that.

したがって、請求項12に記載の発明では、評価関数又は評価テーブルについてキャリブレーションを行うようになっている。   Therefore, in the invention described in claim 12, calibration is performed for the evaluation function or the evaluation table.

請求項1及び請求項7に記載された発明によれば、車両乗車時の車両運転者の酒気帯び度を、非接触的に、運転者本人を煩わせることなく測定することができるという効果を奏する。   According to the invention described in claim 1 and claim 7, it is possible to measure the drunkenness of the vehicle driver at the time of boarding the vehicle in a non-contact manner without bothering the driver himself / herself. Play.

また、車両運転者の平常時のデータを保持しているので、酒気帯びにより車両運転者に生じる影響を適切に検出することができる。   In addition, since the vehicle driver's normal data is held, it is possible to appropriately detect the influence on the vehicle driver due to alcohol.

請求項2及び請求項8に記載された発明によれば、車両運転者の手間を必要とせずに車両運転者の酒気帯び度を検知することができるという効果を奏する。
また、飲酒の影響が現われやすい部位で酒気帯び度の評価を行うことができるとの効果もある。
According to the invention described in claim 2 and claim 8, there is an effect that it is possible to detect the drunkenness degree of the vehicle driver without requiring the labor of the vehicle driver.
In addition, there is an effect that it is possible to evaluate the alcohol level at a site where the influence of drinking is likely to occur.

請求項3及び請求項9に記載された発明によれば、画像を解析することにより得られる生体データと酒気帯び度との関係付けが可能となり、画像に基づいて酒気帯び度を検出することが可能となるという効果を奏する。   According to the invention described in claim 3 and claim 9, it is possible to relate the biometric data obtained by analyzing the image and the alcohol level, and to detect the alcohol level based on the image. There is an effect that it becomes possible.

請求項4及び請求項10に記載された発明によれば、酒気帯び状態での運転に起因する事故を回避することができるという効果を奏する。   According to the invention described in claims 4 and 10, there is an effect that it is possible to avoid an accident caused by driving in a drunk state.

請求項5及び請求項11に記載された発明によれば、画像解析の精度を向上させることができるという効果を奏する。   According to the invention described in claims 5 and 11, there is an effect that the accuracy of image analysis can be improved.

請求項6及び請求項12に記載された発明によれば、酒気帯び度の検出の精度を向上させることができるという効果を奏する。   According to the invention described in Claim 6 and Claim 12, there exists an effect that the precision of detection of a drunkness degree can be improved.

以下、図1から図10を参照しつつ、本発明に係る酒気帯び検知システム及び酒気帯び検知方法の一実施形態について説明する。但し、発明の範囲は、図示例に限定されない。   Hereinafter, with reference to FIG. 1 to FIG. 10, an embodiment of the alcoholic beverage detection system and the alcoholic beverage detection method according to the present invention will be described. However, the scope of the invention is not limited to the illustrated examples.

本実施形態において酒気帯び検知システム1は、例えば車両内の運転席の前方、ダッシュボード等に設置されるものである。   In the present embodiment, the alcohol detection system 1 is installed, for example, in front of a driver's seat in a vehicle, on a dashboard, or the like.

図1は、本実施形態における酒気帯び検知システム1の概略構成を示す機能ブロック図である。
図1に示すように、酒気帯び検知システム1は、画像撮影部2、照明部3、光刺激用照明部4、ユーザインタフェイス部5、表示部6、メモリ部7、データ処理・解析部8、パラメータ設定・管理部9、データ蓄積部10、I/O部11、外部通信部12、車両制御部インタフェイス部13及びこれら各構成部を統括的に制御する制御部15等を備えて構成されている。酒気帯び検知システム1は、外部通信部12を介して各種の外部装置16との間で情報の送受信可能に構成されている。また、酒気帯び検知システム1には、車両制御部インタフェイス部13を介して車両の各種動作を制御する車両動作制御部17が接続されている。
FIG. 1 is a functional block diagram showing a schematic configuration of a drunk detection system 1 in the present embodiment.
As shown in FIG. 1, the drunk detection system 1 includes an image capturing unit 2, an illumination unit 3, a light stimulus illumination unit 4, a user interface unit 5, a display unit 6, a memory unit 7, and a data processing / analysis unit 8. , Parameter setting / management unit 9, data storage unit 10, I / O unit 11, external communication unit 12, vehicle control unit interface unit 13, and control unit 15 that comprehensively controls these components. Has been. The alcohol detection system 1 is configured to be able to transmit and receive information to and from various external devices 16 via the external communication unit 12. In addition, a vehicle operation control unit 17 that controls various operations of the vehicle is connected to the drunk detection system 1 via a vehicle control unit interface unit 13.

図2は、酒気帯び検知システム1を普通自動車等の車両内に設置する場合における画像撮影部2、照明部3、及び光刺激用照明4のそれぞれの配置例を示したものである。
図2に示すように、本実施形態における酒気帯び検知システム1では、画像撮影部2は撮影対象(撮影部位又は解析内容)の異なるカメラ21,22から構成されており、それぞれのカメラ21,22は、撮影対象を考慮してそれぞれ違う位置に設置されている。具体的には、車両運転者の顔部及び目(頭部)を撮影するための画像撮影部2であるカメラ21が車両の運転席101の前方であってフロントガラス103の上端部周辺に設置されている。また、運転者の頚部及び顎部を撮影する画像撮影部2であるカメラ22がフロントガラス103の下端部周辺であってダッシュボード102の中央部周辺に設置されている。また、フロントガラス103の下端部一端には、撮影の際に被写体である車両運転者の各撮影部位(検出部位)の照明を行う照明部3が配置されている。さらに、フロントガラス103の上端中央部付近には、瞳孔測定(瞳孔撮影)の際に目に光刺激を与える光刺激用照明部4が配置されている。
FIG. 2 shows an example of the arrangement of the image capturing unit 2, the illumination unit 3, and the light stimulus illumination 4 when the alcohol detection system 1 is installed in a vehicle such as an ordinary automobile.
As shown in FIG. 2, in the liquor detection system 1 according to the present embodiment, the image capturing unit 2 is composed of cameras 21 and 22 having different capturing targets (imaging site or analysis content). Are installed at different positions in consideration of the object to be photographed. Specifically, a camera 21, which is an image capturing unit 2 for capturing the face and eyes (head) of the vehicle driver, is installed in front of the driver's seat 101 of the vehicle and around the upper end of the windshield 103. Has been. In addition, a camera 22 that is an image capturing unit 2 that captures the driver's neck and chin is provided around the lower end of the windshield 103 and around the center of the dashboard 102. In addition, an illumination unit 3 that illuminates each imaging region (detection region) of the vehicle driver who is the subject at the time of imaging is disposed at one end of the lower end of the windshield 103. Further, near the center of the upper end of the windshield 103, a light stimulation illumination unit 4 that provides light stimulation to the eyes during pupil measurement (pupil imaging) is arranged.

各カメラ21,22には、運転者の頭部の位置や運転席101の位置、高さ等に応じて、カメラ21,22の位置を調整することができる位置調整機構がついていることが好ましい。画像撮影時にはカメラ21,22の位置を固定としてもよいし、カメラ21,22の位置を変えながら撮影し、位置を変えた移動情報を画像データと同時に取得して画像解析に用いるようにしてもよい。また、各カメラ21,22、照明部3、光刺激用照明部4は、非撮影時には収納され、撮影時に自動的にアーム等が伸びて所定の位置に配置される等の構成となっていてもよい。なお、画像撮影部2としてのカメラ21,22、照明部3、及び光刺激用照明部4の配置される位置及び配置される数等はここに例示したものに限定されない。画像撮影部2を一台のカメラで構成し、運転者の顔部から頚部までを当該一台のカメラで撮影するようにしてもよい。   Each of the cameras 21 and 22 preferably has a position adjustment mechanism that can adjust the positions of the cameras 21 and 22 according to the position of the driver's head, the position and height of the driver's seat 101, and the like. . The positions of the cameras 21 and 22 may be fixed at the time of image shooting, or shooting may be performed while the positions of the cameras 21 and 22 are changed, and movement information with the changed positions may be acquired simultaneously with the image data and used for image analysis. Good. Each of the cameras 21, 22, the illumination unit 3, and the light stimulation illumination unit 4 is housed when not photographing, and has an arrangement in which an arm or the like is automatically extended and arranged at a predetermined position during photographing. Also good. In addition, the positions and the number of the cameras 21 and 22 as the image capturing unit 2, the illumination unit 3, and the light stimulation illumination unit 4 are not limited to those illustrated here. The image capturing unit 2 may be configured by a single camera, and the driver's face to neck may be captured by the single camera.

以下酒気帯び検知システム1を構成する各構成部について詳細に説明する。   Hereinafter, each component constituting the alcohol detection system 1 will be described in detail.

画像撮影部2は、前述のように車両の運転者の顔部及び目を撮影するためのカメラ21と運転者の頚部及び顎部を撮影して頚部の脈拍(頚脈拍データ)を取得するための画像を得るカメラ22とから構成されている。カメラ21,22は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の図示しない撮像素子を備え、被写体である運転者の各部を撮影して動画像又は静止画像を得ることが可能となっており、例えば、カラー又はモノクロのビデオカメラ、CCDカメラ、CMOSカメラ、デジタルスチルカメラその他携帯電話等に付属のカメラモジュール等により構成することができる。   As described above, the image capturing unit 2 captures the camera 21 for capturing the face and eyes of the driver of the vehicle and the neck and chin of the driver and acquires the pulse of the neck (cervical pulse data). And a camera 22 that obtains an image of the above. The cameras 21 and 22 include an image sensor (not shown) such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal-Oxide Semiconductor), for example, and obtain a moving image or a still image by photographing each part of the driver as a subject. For example, a color or monochrome video camera, a CCD camera, a CMOS camera, a digital still camera, or a camera module attached to a mobile phone or the like can be used.

特に、運転者の顔部及び目を撮影するためのカメラ21は、運転者の顔部のカラー画像及び熱画像を撮影可能となっている。顔部の画像は静止画像でも動画像でもよい。またカメラ21は、カメラ21の撮影位置及び視線方向を自動的に調整して、運転者の目の動画像を撮影可能となっている。
なお、運転者の顔部及び目を撮影するためのカメラ21として、例えば顔部の色彩データ(顔色彩データ)を取得するための画像を撮影するカメラとしてカラーカメラや、運転者の顔部等の皮膚の表面温度のデータ(顔温度データ)を取得するための画像を撮影するカメラとして被写体の近赤外〜赤外域に感度を有するサーモセンサ(熱画像カメラ)を備えるようにしてもよい。また、顔部の色彩データを取得するための画像を撮影するカメラ及び顔部等の表面温度のデータを取得するための画像を撮影するカメラは、モノクロカメラと帯域フィルタとの組み合わせにより構成してもよい。なお、サーモセンサ(熱画像カメラ)を備える場合には、サーモセンサ(熱画像カメラ)は撮影時にセンサ感度、レンジ、ゲイン又は測定温度域等のパラメータを一定の値に設定するようになっている。また、これらの値が変動した場合は、サーモセンサ内部でこれらの値を補正することにより、同一パラメータの場合と同様の撮影画像を出力できる構成とする必要がある。これは画素値から温度データへのデータ変換の精度を維持するために不可欠である。
In particular, the camera 21 for photographing the driver's face and eyes can capture a color image and a thermal image of the driver's face. The face image may be a still image or a moving image. In addition, the camera 21 can automatically adjust the shooting position and the line-of-sight direction of the camera 21 to take a moving image of the driver's eyes.
In addition, as a camera 21 for photographing a driver's face and eyes, for example, a color camera or a driver's face as a camera for photographing an image for acquiring facial color data (facial color data). A thermosensor (thermal image camera) having sensitivity in the near-infrared to infrared region of the subject may be provided as a camera that captures an image for acquiring skin surface temperature data (face temperature data). In addition, a camera that captures an image for acquiring color data of a face and a camera that captures an image for acquiring surface temperature data of the face and the like are configured by a combination of a monochrome camera and a bandpass filter. Also good. In the case where a thermosensor (thermal image camera) is provided, the thermosensor (thermal image camera) sets parameters such as sensor sensitivity, range, gain, or measurement temperature range to a constant value during shooting. . When these values fluctuate, it is necessary to correct the values inside the thermosensor so that a captured image similar to the case of the same parameter can be output. This is indispensable for maintaining the accuracy of data conversion from pixel values to temperature data.

また、運転者の頚部及び顎部を撮影して頚脈拍データを取得するための画像を得るカメラ22は、被写体の検出部位を少なくとも2秒以上動画撮影するようになっている。このように撮影時間を2秒以上とすることにより、脈拍のほぼ2サイクル分の動画を得ることができる。撮影時間は長いほど正確な脈拍を検出することが可能となるが、その分被写体の動きに対する画像解析の信頼性を向上させる必要がある。
撮影する画像は、カラー画像、モノクロ画像いずれでもよい。例えばカラー画像の場合は、Rチャンネルの画像が後述する画像解析に用いられる。モノクロ画像の場合は、赤〜近赤外域の透過率が高い光学フィルタを用いて撮影を行う。頚動脈の脈動が画像から感知できない場合は、後述するように照明部3を点灯させて頚動脈部に陰影をつけることで感知できるようにして撮影を行う。
The camera 22 that captures images of the driver's neck and jaws to acquire carotid pulse data captures a moving image of the detected part of the subject for at least 2 seconds. In this way, by setting the shooting time to 2 seconds or more, it is possible to obtain a moving image for approximately two cycles of the pulse. The longer the shooting time, the more accurate the pulse can be detected. However, it is necessary to improve the reliability of image analysis for the movement of the subject.
The image to be taken may be either a color image or a monochrome image. For example, in the case of a color image, the R channel image is used for image analysis to be described later. In the case of a monochrome image, photographing is performed using an optical filter having a high transmittance in the red to near infrared region. When the pulsation of the carotid artery cannot be detected from the image, imaging is performed so that it can be detected by turning on the illumination unit 3 and shading the carotid artery as described later.

なお、カメラ21,22は、近赤外領域及び赤外領域の感度が高いカメラにより構成することが望ましい。但し、カメラ21,22に、近赤外領域のカットフィルタ(例えばIRカットフィルタ)が付いている場合には、これを取り除いて撮影を行う。また、各カメラ21,22の位置、角度、絞り又はシャッタースピード等が制御部15により制御可能に構成されていてもよい。   The cameras 21 and 22 are preferably constituted by cameras having high sensitivity in the near infrared region and the infrared region. However, when the cameras 21 and 22 are provided with a cut filter (for example, an IR cut filter) in the near-infrared region, the image is taken by removing this. Further, the position, angle, aperture, shutter speed, or the like of each camera 21, 22 may be configured to be controllable by the control unit 15.

照明部3は、白色から白熱色の可視光を照射するランプであり、撮影時に被写体である運転者の周囲が暗い場合等に被写体を照明するものである。照明部3は、例えばLED(Light Emitting Diode)等の光源により構成されている。なお、照明部3を構成する光源はこれに例示したものに限定されない。また、照明部3の光源は点光源であってもよく、面光源であってもよい。   The illumination unit 3 is a lamp that emits white to incandescent visible light, and illuminates the subject when the surroundings of the driver who is the subject are dark at the time of photographing. The illumination part 3 is comprised by light sources, such as LED (Light Emitting Diode), for example. In addition, the light source which comprises the illumination part 3 is not limited to what was illustrated to this. Further, the light source of the illumination unit 3 may be a point light source or a surface light source.

なお、瞳孔抽出用の赤外光源を別途設けてもよい。また、照明部3として、首や顎を専用に照明する専用照明を別途設けてもよい。このような赤外光源や専用照明を設ける場合には、赤外光源や専用照明は酒気帯び検知システム1の内部に収納可能に構成し、撮影時に自動的にアーム等が伸びて所定の位置に配置される構成とすることができる。また、この赤外光源や専用照明の位置、角度又は照明強度等を制御部15によって制御可能に構成するとよい。   An infrared light source for pupil extraction may be separately provided. Moreover, you may provide the separate illumination which illuminates a neck and a chin as the illumination part 3 separately. In the case of providing such an infrared light source or dedicated illumination, the infrared light source or dedicated illumination is configured so as to be housed in the alcoholic detection system 1, and an arm or the like is automatically extended at a predetermined position during photographing. It can be set as the structure arrange | positioned. Further, the position, angle, illumination intensity, and the like of this infrared light source and dedicated illumination may be configured to be controllable by the control unit 15.

また、首や顎を専用に照明する専用照明を設ける場合には、撮影時に被写体の検出部位に照明光を与えて陰影をつけるように構成されていてもよい。カメラ22は、頚部及び顎部を撮影して脈拍を知るためのデータを取得するためのものであるが、このような脈拍(脈動)は、頚動脈付近において最も顕著に皮膚表面付近での動きが現われる。したがって、被写体の顎及び首周辺に照明光を与えて陰影をつけることにより、動画像において首筋の脈をうっている部位の陰影の状態が変化するのを観測することが可能となる。
すなわち、頚動脈付近の皮膚表面の微妙な動きを検出するために、例えば首や顎を照明する専用の照明を、陰影を撮りやすい方向(例えば被写体の正面方向に対して斜め方向等)から被写体に光を照射することができるように配置する。照明光をあてる方向の角度としては、例えば被写体の正面方向から30度程度とすることができる。但し、被写体の体格や照明部3とカメラ22との距離関係により最適な角度は変化するため、照明光をあてる方向の角度は30度に限られるものではない。
Further, in the case of providing dedicated illumination for exclusively illuminating the neck and chin, it may be configured such that illumination light is applied to the detection part of the subject to provide a shadow during imaging. The camera 22 is used to acquire data for capturing the pulse by photographing the neck and jaw, and such a pulse (pulsation) is most prominent in the vicinity of the carotid artery. Appear. Therefore, by applying illumination light to the subject's jaw and neck periphery to create a shadow, it is possible to observe the change in the shadow state of the part of the moving image where the pulse of the neck muscle is applied.
That is, in order to detect subtle movements of the skin surface near the carotid artery, for example, a dedicated illumination for illuminating the neck and chin is applied to the subject from a direction in which shadows can be easily taken (for example, an oblique direction with respect to the front of the subject). It arrange | positions so that light can be irradiated. The angle in the direction in which the illumination light is applied can be, for example, about 30 degrees from the front direction of the subject. However, since the optimum angle changes depending on the physique of the subject and the distance relationship between the illumination unit 3 and the camera 22, the angle in the direction in which the illumination light is applied is not limited to 30 degrees.

例えば、被写体の検出部位を右首筋とした場合は、左斜め前方から照明光をあてると陰影の変化の状況を最も好ましい状態で撮影することができる。また、被写体の検出部位を喉仏の脇にある窪みとした場合は、照明部3を画像撮影部2と同じ側に置くと直接光があたって陰影ができないことから、左斜め前方から照明光をあてるか、右斜め後方から照明光をあてると陰影の変化の状況を最も好ましい状態で撮影することができる。すなわち、いずれの方向からでも被写体の正面方向に対して検出部位と逆側(検出部位が被写体中心より右側に位置する場合は左側)の斜め方向から光をあてるとよい。但し、例えば、あまり左側に傾け過ぎると右側全体が完全に陰になってしまうので、被写体の正面に対して少し左側に傾ける程度がよい。なお、照明部3の光源の高さは、喉仏と同程度の高さとすることが望ましい。   For example, in the case where the subject detection site is the right neck, it is possible to photograph in the most preferable state of the change in shadow when illumination light is applied obliquely from the left front. In addition, when the detection part of the subject is a dent on the side of the throat Buddha, if the illumination unit 3 is placed on the same side as the image capturing unit 2, direct illumination is applied and shadows cannot be produced. When the light is applied or the illumination light is applied obliquely from the rear right, it is possible to photograph the most preferable state of the change of the shadow. In other words, light may be applied from an oblique direction opposite to the detection part from the front direction of the subject from any direction (left side when the detection part is located on the right side of the subject center). However, for example, if it is tilted too far to the left, the entire right side will be completely shaded, so it is better to tilt it slightly to the left with respect to the front of the subject. In addition, it is desirable that the height of the light source of the illumination unit 3 is approximately the same as that of the throat Buddha.

また、照明部3の光源により格子やパターンの像を形成してこれを被写体の撮影部位(検出部位)に投影してもよい。これにより、撮影画像における格子やパターンの歪みによって脈拍等の生体の動きを検出することが可能となる。   Alternatively, a grid or pattern image may be formed by the light source of the illuminating unit 3 and projected onto the imaging region (detection region) of the subject. Thereby, it is possible to detect a movement of a living body such as a pulse by distortion of a lattice or a pattern in a captured image.

また、照明部3は、撮影画像から抽出した被写体の動きベクトルに連動させて光源位置を移動させるように構成してもよい。この際、陰影をつくる検出部位に対して光源の相対的な位置関係を一定に保つようにする。また、照明部3を上述の首や顎を専用に照明する専用照明とする場合は、動きベクトルの保障分だけアームを移動させる。また、照明部3の光源としてのLEDを1次元状又は2次元状に並べた構成とする場合は、発光する光源の位置がその分ずれるように切り替えることで対応することができる。   Further, the illumination unit 3 may be configured to move the light source position in conjunction with the motion vector of the subject extracted from the captured image. At this time, the relative positional relationship of the light source is kept constant with respect to the detection site for creating the shadow. Further, when the illumination unit 3 is a dedicated illumination that illuminates the neck and chin as described above, the arm is moved as much as the guaranteed motion vector. Moreover, when it is set as the structure which arranged LED as a light source of the illumination part 3 in the one-dimensional form or the two-dimensional form, it can respond by switching so that the position of the light source which light-emits may be shifted | deviated by it.

また、被写体に対する通常の照明と、陰影をつけるための照明を交互に照明させてもよい。交互照明(点滅)が人に分からないぐらいの速さ(20cycle/秒程度以上)で照明すると被写体に違和感を与えずに照明を行うことができる。断続的に点滅させながら撮像を行うにはLEDがよいが、同じ目的を達成できるのであれば他の光源でもよい。   Or, normal illumination for the subject and illumination for shading may be alternately illuminated. Illumination can be performed without giving a sense of incongruity to the subject if illumination is performed at such a speed that the alternate illumination (flashing) is not understood by humans (about 20 cycles / second or more). An LED is preferable for imaging while intermittently flashing, but other light sources may be used as long as the same purpose can be achieved.

なお、複数人で同じ酒気帯び検知システム1を使用する場合、ユーザごとに最適な照明角度が異なるので、例えば、ユーザごとの最適な照明角度をパラメータ設定・管理部9において記憶し、ユーザインタフェイス部5における手入力又はユーザを認証する個人認証等を用いて照明部3の光源の位置を切り替えることが望ましい。この場合、ユーザごとの最適な照明角度は、例えば、予めユーザを適切なポジションに置いて、自分の手で最も脈動を感じる部分を押さえてもらい、それを検出すること等により求めることができる。   In addition, when using the same drunk detection system 1 by several persons, since the optimal illumination angle differs for every user, for example, the optimal illumination angle for every user is memorize | stored in the parameter setting and management part 9, and user interface It is desirable to switch the position of the light source of the illumination unit 3 using manual input in the unit 5 or personal authentication for authenticating the user. In this case, the optimum illumination angle for each user can be obtained by, for example, placing the user in an appropriate position in advance, pressing the part that feels the most pulsation with his / her hand, and detecting it.

光刺激用照明部4は、瞳孔測定(瞳孔撮影)の際に運転者の眼に対して可視光による光刺激を与えるランプであり、強度や照射時間が安定したフラッシュ光(瞬間光)を照射可能なフラッシュ光源(図示せず)を備えて構成される。
瞳孔の撮影を行う場合には、刺激による瞳孔の応答を観察するために、光刺激用照明部4の光源から光刺激であるフラッシュ光を一定間隔ごとに運転者に照射する。但し、フラッシュ光を用いた瞳孔の撮影は車両の停車中に行うものとする。光刺激用照明部4の光源の発光のタイミングや発光時間は、後述する酒気帯び検知システム1のパラメータ設定・管理部9で設定可能となっていることが好ましい。
The light stimulating illumination unit 4 is a lamp that applies light stimulation to the driver's eyes with visible light during pupil measurement (pupil photographing), and irradiates flash light (instant light) with stable intensity and irradiation time. It is configured with a possible flash light source (not shown).
When photographing the pupil, in order to observe the response of the pupil due to stimulation, the driver is irradiated with flash light, which is light stimulation, from the light source of the light stimulation illumination unit 4 at regular intervals. However, imaging of the pupil using flash light is performed while the vehicle is stopped. It is preferable that the light emission timing and the light emission time of the light source of the light stimulation illumination unit 4 can be set by the parameter setting / management unit 9 of the alcoholic beverage detection system 1 described later.

次に、ユーザインタフェイス部5は、例えば、表示部6と一体として構成されたタッチパネルである。なお、ユーザインタフェイス部5は、各種操作ボタン等、タッチパネル以外の構成とすることも可能である。また、スピーカーやマイク等の音響設備を備えることによりユーザの音声や身振り、ジェスチャ(手話等、高度なコミュニケート手段も含む)によってコミュニケートできる構成とすることが望ましい。   Next, the user interface unit 5 is, for example, a touch panel configured integrally with the display unit 6. Note that the user interface unit 5 may have a configuration other than the touch panel, such as various operation buttons. In addition, it is desirable to provide a configuration that can communicate with a user's voice, gesture, and gesture (including sign language and other advanced communication means) by providing sound equipment such as a speaker and a microphone.

本実施形態において、ユーザは、ユーザインタフェイス部5を操作することにより、どの程度の飲酒量、呼気アルコール濃度の場合に酒気帯び状態とし、どの程度までなら酒気帯び状態でないとして許容するか、という酒気帯び状態と判定するか否かの閾値(上限値)の設定を行うことができるようになっている。設定された閾値(上限値)は、例えばパラメータ設定・管理部9に格納される。   In the present embodiment, the user operates the user interface unit 5 to determine how much alcohol is consumed and how much alcohol is in the alcohol state, and how much is allowed to be in the alcoholic state. It is possible to set a threshold value (upper limit value) as to whether or not to determine that the state is drunk. The set threshold value (upper limit value) is stored in, for example, the parameter setting / management unit 9.

上限値をどの程度とするかは酒気帯び検知システム1のユーザが任意に決定できるが、例えば呼気1リットル中0.15mg以上に対応する値を上限値として認めない等、ユーザ側が自由に設定できる値の範囲を限定して所定の値以上を上限値として設定できないようにしてもよい。また、運転者と運転者を管理する立場にある管理者や酒気帯び検知システム1のシステム運用者とが異なる場合には、管理者やシステム運用者のみが上限値を設定でき、設定された上限値を運転者が任意に変更することができないようにセキュリティ機能を設けることも可能である。
なお、上限値の一例としては、例えば、道路交通法(2002年6月1日改正版)において酒気帯び運転違反の下限とされている呼気1リットル中0.15mgに対応する値でもよいし、血中アルコール濃度0.05mgに対応する値(ビール大瓶1本程度)でもよい。また、0以外(少しでもアルコールを摂取している場合)には酒気帯びと判断するように上限値を設定してもよい。
The upper limit value can be determined arbitrarily by the user of the drunkenness detection system 1, but the user can freely set, for example, not accepting a value corresponding to 0.15 mg or more in 1 liter of exhalation as the upper limit value. The range of values may be limited so that a predetermined value or more cannot be set as the upper limit value. Further, when the driver and the manager who manages the driver or the system operator of the drunk detection system 1 are different from each other, only the administrator or the system operator can set the upper limit value, and the set upper limit is set. A security function can be provided so that the driver cannot arbitrarily change the value.
In addition, as an example of the upper limit value, for example, a value corresponding to 0.15 mg in 1 liter of exhaled breath, which is the lower limit of drunken driving violation in the Road Traffic Act (revised June 1, 2002), It may be a value corresponding to a blood alcohol concentration of 0.05 mg (about one large beer bottle). Further, an upper limit value may be set so that it is determined that the person is drunk when other than 0 (when alcohol is consumed even a little).

表示部6は、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイや有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ又は投影方式等のディスプレイ等で構成することが可能であり、画像撮影部2により撮影された画像データ、データ処理・解析部8で画像処理中の画像データ又はデータ蓄積部10により保持された画像データ、後述するパラメータ設定・管理部9で管理されているパラメータ、酒気帯び検知システム1及び当該システムを構成する各構成部の動作状況に関する情報、画像処理結果、外部装置16から与えられた情報等を表示するようになっている。
なお、前述のように、表示部6をタッチパネルにより構成して、表示部6とユーザインタフェイス部5とが一体的に兼ねられる構成としてもよい。
The display unit 6 can be configured by an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an organic EL (Electro Luminescence) display, a plasma display, a projection display, or the like. , Image data being processed by the data processing / analysis unit 8 or image data held by the data storage unit 10, parameters managed by the parameter setting / management unit 9, which will be described later, and drunk detection Information related to the operation status of the system 1 and each component constituting the system, image processing results, information given from the external device 16, and the like are displayed.
As described above, the display unit 6 may be configured by a touch panel, and the display unit 6 and the user interface unit 5 may be integrated with each other.

メモリ部7は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、DIMM(Dual Inline Memory Module)、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous DRAM)等から構成され、撮影した画像データの一時保持や、データ処理・解析部8等において必要なデータをデータ蓄積部10等から転送して一時的に蓄えることにより、酒気帯び検知システム1を高速かつ安定に動作させるようになっている。なお、本実施形態のメモリ部7は、酒気帯び検知システム1における画像処理及び制御をリアルタイムに実行するために必要な程度の容量のメモリ空間を保有していることが必要である。   The memory unit 7 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a DIMM (Dual Inline Memory Module), a DRAM (Dynamic Random Access Memory), an SDRAM (Synchronous DRAM), and the like. The data storage / analysis unit 8 or the like temporarily transfers the necessary data from the data storage unit 10 or the like and temporarily stores it, thereby allowing the drunkenness detection system 1 to operate at high speed and stably. . Note that the memory unit 7 of the present embodiment needs to have a memory space having a capacity necessary for executing image processing and control in the alcoholic detection system 1 in real time.

データ処理・解析部(データ処理部)8は、カメラ21による撮影によって取得された運転者の顔部、目等の画像データや、カメラ22による撮影によって取得された運転者の頚部等の画像データ等の処理・解析を行うことにより顔色彩データ、顔温度データ、瞳孔データ、頚脈拍データ等の生体データの抽出・生成を行うとともに、生成された生体データに基づいて運転者の酒気帯び度を検出し、運転者が酒気帯び状態であるか否かの判定を行うものである。   The data processing / analysis unit (data processing unit) 8 is image data of the driver's face, eyes, etc. acquired by photographing with the camera 21, and image data of the driver's neck, etc. acquired by photographing with the camera 22. Extraction and generation of biometric data such as face color data, face temperature data, pupil data, and carotid pulse data by processing and analysis, etc., and the driver's spirit level is determined based on the generated biometric data It is detected and it is determined whether or not the driver is drunk.

まず、データ処理・解析部8により行われる生体データの抽出・生成処理について説明する。   First, biometric data extraction / generation processing performed by the data processing / analysis unit 8 will be described.

データ処理・解析部8は、カメラ21による撮影によって取得された運転者の顔部のカラー画像から、顔内の所定の位置(検出部位)の顔色彩データを抽出・生成する。
具体的には、データ処理・解析部8は以下のような処理を行う。
後述するようにパラメータ設定・管理部9には予め各検出部位のパターン及び位置情報が記憶されている。カメラ21により運転者の顔部のカラー画像が撮影されると、データ処理・解析部8はパラメータ設定・管理部9から各検出部位のパターン及び位置情報を読み出し、カメラ21によって撮影された画像と前記各検出部位のパターン及び位置情報とのマッチングを行う。このようにしてカメラ21によって撮影された画像について検出部位が特定されると、当該検出部位の画像データを解析して顔色彩データを抽出・生成する。
なお、データを抽出する検出部位は複数がよい。また検出部位としては例えば唇や頬、耳、額等、血行の影響が現れやすい部位がよい。本実施形態においては、顔部のうち、唇、頬、耳、額の4箇所を検出部位とし、当該箇所の画像データを解析して顔色彩データを抽出・生成するようになっている。
The data processing / analysis unit 8 extracts and generates face color data at a predetermined position (detection site) in the face from the color image of the driver's face acquired by photographing with the camera 21.
Specifically, the data processing / analysis unit 8 performs the following processing.
As will be described later, the parameter setting / management unit 9 stores patterns and position information of the respective detection parts in advance. When a color image of the driver's face is captured by the camera 21, the data processing / analysis unit 8 reads out the pattern and position information of each detection region from the parameter setting / management unit 9, and the image captured by the camera 21 Matching with the pattern and position information of each detection part is performed. When a detection site is specified for the image captured by the camera 21 in this manner, the image data of the detection site is analyzed to extract and generate face color data.
Note that a plurality of detection sites from which data is extracted are preferable. Moreover, as a detection site | part, the site | part which is easy to show the influence of blood circulation, such as a lip, a cheek, an ear | edge, a forehead, etc. is good, for example. In the present embodiment, four locations of the lips, cheeks, ears, and forehead of the face are used as detection regions, and face color data is extracted and generated by analyzing the image data of the portions.

顔色彩データの抽出・生成を行うための画像の解析には、例えば画素値と色彩との関係表を用いて解析する手法、sRGBの規格に基づくRGB−XYZ変換公式を用いて解析する手法等、各種公知の手法を用いることができる。データ処理・解析部8は、最終的にはL*, u*, v*又はL*, a*, b*等、明度とその他の要素(色相、彩度)を分離する色空間座標のデータ形式で顔色彩データを抽出・生成するようになっている。   For analysis of an image for extracting and generating face color data, for example, a method of analyzing using a relationship table between pixel values and colors, a method of analyzing using an RGB-XYZ conversion formula based on the sRGB standard, etc. Various known methods can be used. The data processing / analysis unit 8 finally uses color space coordinate data that separates lightness and other elements (hue, saturation) such as L *, u *, v * or L *, a *, b *. Face color data is extracted and generated in a format.

また、データ処理・解析部8は、カメラ21による撮影によって取得された運転者の顔部の熱画像データから顔部のうちデータを抽出する顔内の所定位置(検出部位)の熱画像データを解析して自動的に温度データに変換することにより顔温度データを抽出・生成する。なお、ここにいう顔温度データは顔部表面の温度のデータであり、体温ではない。本実施形態においては、顔色彩データの場合と同様に、顔部のうち、唇、頬、耳、額の4箇所を検出部位とし、当該箇所の画像データを解析して顔温度データを抽出・生成するようになっている。   Further, the data processing / analysis unit 8 extracts thermal image data at a predetermined position (detection site) in the face from which data is extracted from the facial image from the thermal image data of the driver's face acquired by photographing with the camera 21. Face temperature data is extracted and generated by analyzing and automatically converting to temperature data. Note that the face temperature data referred to here is temperature data of the face surface, not body temperature. In the present embodiment, as in the case of face color data, four locations of the lips, cheeks, ears, and forehead are detected in the face, and the image data of the location is analyzed to extract face temperature data. It is designed to generate.

ここで、熱画像の画素値は、例えば8bitなら0〜255の値であり、直接温度を表すものではない。しかし、カメラ21における各パラメータを所定の値に設定すると、熱画像の画素値と温度との関係は一意に決定することができる。そこで、例えば熱画像の画素値と温度とを対応づけたテーブルを予め自動的に作成して後述するパラメータ設定・管理部9に記憶させておき、カメラ21により顔部の熱画像が撮影されると、データ処理・解析部8は、パラメータ設定・管理部9からこのテーブルを読み出して参照することにより顔部の熱画像の画素値を温度に変換することにより顔温度データを抽出・生成するようになっている。なお、顔温度データの抽出・生成手法はここに例示したものに限定されず、各種公知の手法を用いることができる。   Here, the pixel value of the thermal image is, for example, a value of 0 to 255 if it is 8 bits, and does not directly represent the temperature. However, if each parameter in the camera 21 is set to a predetermined value, the relationship between the pixel value of the thermal image and the temperature can be uniquely determined. Therefore, for example, a table in which the pixel values of the thermal image and the temperatures are associated with each other is automatically created in advance and stored in the parameter setting / management unit 9 described later, and a thermal image of the face is captured by the camera 21. Then, the data processing / analysis unit 8 reads out this table from the parameter setting / management unit 9 and refers to this table to extract and generate face temperature data by converting the pixel value of the thermal image of the face into temperature. It has become. Note that the extraction / generation method of the face temperature data is not limited to the one exemplified here, and various known methods can be used.

また、データ処理・解析部8は、カメラ21による撮影によって取得された運転者の目の動画像から瞳孔の直径等の時系列的な変化を解析し、瞳孔の時系列変化についての各種パラメータを抽出・生成する。具体的には、まずデータ処理・解析部8は、カメラ21による撮影によって取得された運転者の目の動画像の各フレームの画像データから瞳孔領域を抽出し、瞳孔のサイズ及び瞳孔中心位置を取得する。   Further, the data processing / analysis unit 8 analyzes time-series changes such as the diameter of the pupil from the moving image of the driver's eyes acquired by photographing with the camera 21, and sets various parameters regarding the time-series changes of the pupil. Extract and generate. Specifically, first, the data processing / analysis unit 8 extracts the pupil region from the image data of each frame of the moving image of the driver's eye acquired by the camera 21, and determines the pupil size and the pupil center position. get.

ここで目領域画像を抽出する手法及び瞳孔領域の画像を抽出する手法は、例えば目領域や瞳孔領域のパターンや位置情報を後述するパラメータ設定・管理部9に予め記憶させておき、撮影された目の動画像と目領域・瞳孔領域のパターンや位置情報とのテンプレートマッチングを行うことにより、カメラ21による撮影によって取得された運転者の目の動画像の各フレームの画像データから目領域画像、瞳孔領域を抽出する等の手法を用いることができる。なお、カメラ21によって目の動画像のみでなく目を含む顔部の動画像を撮影し、データ処理・解析部8は撮影された顔部の動画像から目領域画像を抽出しさらにその中から瞳孔領域を抽出するようにしてもよい。   Here, the method of extracting the eye region image and the method of extracting the image of the pupil region are, for example, stored in advance in the parameter setting / management unit 9 to be described later, and the pattern and position information of the eye region and the pupil region are photographed. By performing template matching between the eye moving image and the pattern and position information of the eye region / pupil region, the eye region image is obtained from the image data of each frame of the driver's eye moving image acquired by the camera 21, A technique such as extracting a pupil region can be used. The camera 21 captures not only a moving image of the eye but also a moving image of the face portion including the eyes, and the data processing / analysis unit 8 extracts an eye region image from the captured moving image of the face portion. A pupil region may be extracted.

また、本実施形態においては、例えば白目と黒目の比率等について予めデータを取得してテンプレートが生成され、パラメータ設定・管理部9に記憶されている。そして、瞳孔領域が抽出されると、データ処理・解析部8は抽出された瞳孔領域のデータをパラメータ設定・管理部9に記憶されているテンプレートを用いて解析し、瞳孔のサイズ及び瞳孔中心位置を取得して、当該瞳孔のサイズ及び瞳孔中心位置の時系列変化に基づく各種のパラメータ(生体データ)を抽出する。なお、瞳孔領域を抽出する手法及び瞳孔のサイズ、瞳孔中心位置を取得する手法は、ここに例示したものに限定されず、各種公知の手法を用いることができる。   Further, in the present embodiment, for example, a template is generated by acquiring data in advance for the ratio of white eyes to black eyes, etc., and stored in the parameter setting / management unit 9. When the pupil region is extracted, the data processing / analysis unit 8 analyzes the extracted pupil region data using the template stored in the parameter setting / management unit 9, and calculates the pupil size and the pupil center position. , And various parameters (biological data) based on the time series change of the pupil size and the pupil center position are extracted. Note that the method of extracting the pupil region and the method of acquiring the pupil size and the pupil center position are not limited to those exemplified here, and various known methods can be used.

ここで瞳孔の時系列変化は、例えば図3のように現われる。図3(a)は、光刺激を3回与えた場合の瞳孔の直径の時系列変化を示したグラフである。光刺激用照明部4を発光させることにより目に光刺激を与えると、図3(a)に示すように、光刺激を与えたとき(刺激付与時(a)、刺激付与時(b)、刺激付与時(c))には、瞳孔の直径が大きく変化する。図3(b)は、図3(a)に示す刺激付与時(b)における瞳孔の時系列変化をより詳細に示したものである。   Here, the time series change of the pupil appears, for example, as shown in FIG. FIG. 3A is a graph showing a time-series change in the diameter of the pupil when light stimulation is applied three times. When a light stimulus is applied to the eyes by causing the illumination unit 4 for light stimulation to emit light, as shown in FIG. 3A, when a light stimulus is applied (when applying a stimulus (a), when applying a stimulus (b), At the time of stimulus application (c)), the diameter of the pupil changes greatly. FIG. 3B shows in more detail the time series change of the pupil at the time of stimulus application (b) shown in FIG.

このような瞳孔の時系列変化からデータ処理・解析部8により抽出・生成されるパラメータとしては、例えば、刺激応答開始径Pa、刺激応答終了径Pb、刺激応答ピーク径Pc、刺激応答開始〜ピーク間時間Ta、刺激応答ピーク〜終了間時間Tb、刺激応答開始〜終了間時間Tc、刺激応答開始〜ピーク間径変化量Sa、刺激応答終了〜ピーク間径変化量Sb、刺激無し時径平均値&分散値(図3(a)の「刺激無し時」参照)、瞳孔中心位置(横方向)分散値(図4の太線グラフ参照)、瞳孔中心位置(縦方向)分散値(図4の細線グラフ参照)等が挙げられる。なお、瞳孔の時系列変化から抽出・生成されるパラメータはここに例示したものに限定されない。また、データ処理・解析部8はこれら全てを抽出・生成してもよいし、このうちの一部のみを抽出・生成してもよい。   Examples of parameters extracted and generated by the data processing / analysis unit 8 from such a time series change of the pupil include a stimulus response start diameter Pa, a stimulus response end diameter Pb, a stimulus response peak diameter Pc, and a stimulus response start to peak. Time Ta, stimulus response peak to end time Tb, stimulus response start to end time Tc, stimulus response start to peak-to-peak diameter change Sa, stimulus response end to peak-to-peak diameter change Sb, no-stimulus time average value & Dispersion value (see “without stimulation” in FIG. 3A), pupil center position (lateral direction) dispersion value (see thick line graph in FIG. 4), pupil center position (vertical direction) dispersion value (thin line in FIG. 4) For example). Note that the parameters extracted and generated from the time series change of the pupil are not limited to those exemplified here. Further, the data processing / analysis unit 8 may extract and generate all of them, or may extract and generate only a part of them.

また、データ処理・解析部8は、カメラ22による撮影によって取得された運転者の頚部及び顎周辺(検出部位)の動画像における陰影の状態の変化を解析することにより、頚動脈部の頚脈拍データを抽出・生成するようになっている。   Further, the data processing / analysis unit 8 analyzes the change in the state of the shadow in the moving image of the driver's neck and chin (detected part) obtained by photographing with the camera 22, thereby generating carotid pulse data of the carotid artery Is extracted and generated.

すなわち、本実施形態のデータ処理・解析部8は、動画像の各フレームごとに検出部位における陰影部分の平均画素値を算出し、撮影時刻(経過)ごとの平均画素値を蓄積する。そして、例えばこの平均画素値の時系列的な変化をグラフに表した場合の1分間におけるグラフの山(又は谷)の個数を数えることにより、被写体である運転者の頚動脈部の頚脈拍データ(脈拍数)を検出するようになっている。
なお、頚脈拍データを取得する手法は、ここに例示したものに限定されず、各種公知の手法を用いることができる。
That is, the data processing / analysis unit 8 of the present embodiment calculates the average pixel value of the shadow portion at the detection site for each frame of the moving image, and accumulates the average pixel value for each photographing time (elapsed time). Then, for example, by counting the number of peaks (or valleys) in one minute when the time-series change of the average pixel value is represented in the graph, the carotid pulse data of the carotid artery portion of the driver as the subject ( The pulse rate is detected.
In addition, the method of acquiring the jugular pulse data is not limited to the method exemplified here, and various known methods can be used.

次に、図5を参照しつつ、データ処理・解析部8により行われる運転者の酒気帯び度の検出・判定処理について説明する。   Next, the detection / determination process of the driver's alcohol level performed by the data processing / analysis unit 8 will be described with reference to FIG.

本実施形態において、後述するようにデータ蓄積部10には、運転者が酒気帯び状態でないときに撮影された平常時画像やこの平常時画像を解析することにより得られた顔色彩データ、顔温度データ、瞳孔データ、頚脈拍データ等の平常時の生体データが、平常時データとして格納されている。   In the present embodiment, as will be described later, the data storage unit 10 stores a normal image captured when the driver is not drunk, face color data obtained by analyzing the normal image, and face temperature. Normal biological data such as data, pupil data, and jugular pulse data are stored as normal data.

図5に示すように、データ処理・解析部8は、新たに運転者の各検出部位の撮影が行われ、撮影された画像から各種生体データが取得されると、これを解析対象データとし、当該解析対象データと上記平常時データとの違いを検出して、違いデータを生成する。   As shown in FIG. 5, the data processing / analysis unit 8 newly captures each detection part of the driver, and when various biological data is acquired from the captured image, this is used as analysis target data. The difference data is generated by detecting the difference between the data to be analyzed and the normal data.

違いを検出する手法としては、両者の差分(絶対値含む)を計算((解析対象データ)−(平常時データ))したり、両者の比を計算((解析対象データ)/(平常時データ))する手法等が用いられる。両者の違いにおいて、正負が意味を持つ場合は正負を含めた値で違いデータを生成する。例えば、顔色彩データの違いでは、L*, a*, b*の差の正負は、色等の違いの方向を意味しているため、正負を含めた値で違いデータを生成する。
なお、以下本実施形態においては、解析対象データと平常時データとの差分を計算して違いデータを生成する場合について説明する。
As a method for detecting the difference, the difference between the two (including the absolute value) is calculated ((analysis target data)-(normal data)), or the ratio between the two is calculated ((analysis target data) / (normal data). )) Is used. In the difference between the two, if positive and negative are significant, difference data is generated with values including positive and negative. For example, in the difference in face color data, the sign of the difference between L *, a *, and b * means the direction of the difference in color and the like, and therefore, difference data is generated with a value including the sign.
In the following description of the present embodiment, a case where difference data is generated by calculating a difference between analysis target data and normal data will be described.

また、後述するようにパラメータ設定・管理部9には、予め作成された酒気帯び度を評価する評価関数又は評価テーブルが格納されている。データ処理・解析部8は、解析対象データと平常時データとの違いデータを生成すると、パラメータ設定・管理部9から評価関数又は評価テーブルを読み出して、評価関数又は評価テーブルを用いて前記違いデータの評価を行い、運転者の酒気帯び度を検出する。さらに、パラメータ設定・管理部9には、前述のようにユーザインタフェイス部5を操作することによりユーザが設定した酒気帯び状態と判断される閾値(上限値)が格納されており、データ処理・解析部8は、検出された酒気帯び度がこの閾値を超えているか否かを判断し、運転者が酒気帯び状態であるか否かの判定を行う。そして、データ処理・解析部8は、酒気帯び状態であるか否かの判定結果を制御部15に出力するようになっている。   In addition, as will be described later, the parameter setting / management unit 9 stores an evaluation function or an evaluation table for evaluating the degree of alcoholism created in advance. When the data processing / analysis unit 8 generates the difference data between the analysis target data and the normal data, the data processing / analysis unit 8 reads the evaluation function or the evaluation table from the parameter setting / management unit 9 and uses the evaluation function or the evaluation table to read the difference data. To evaluate the driver's level of drunkenness. Further, the parameter setting / management unit 9 stores a threshold value (upper limit value) that is determined as a drunken state set by the user by operating the user interface unit 5 as described above. The analysis unit 8 determines whether or not the detected alcohol level exceeds this threshold value, and determines whether or not the driver is in an alcoholic state. Then, the data processing / analysis unit 8 outputs a determination result as to whether or not it is in an alcoholic state to the control unit 15.

パラメータ設定・管理部9は、画像撮影部2における撮影やデータ処理・解析部8における各種データの抽出、解析等の処理等、酒気帯び検知システム1の各構成部の制御に関するパラメータの設定や、設定されたパラメータの管理を行うようになっている。   The parameter setting / management unit 9 sets parameters related to the control of each component of the alcoholic beverage detection system 1, such as imaging in the image capturing unit 2, extraction of various data in the data processing / analysis unit 8, analysis processing, etc. The set parameters are managed.

また、本実施形態においては、前述のように、各種生体データと車両運転者の酒気帯び度とを関係付け酒気帯び度を評価する評価関数又は評価テーブルが予め作成されてパラメータ設定・管理部9に格納されており、パラメータ設定・管理部9は関連付けデータ保持手段として機能する。   Further, in the present embodiment, as described above, an evaluation function or an evaluation table for associating various biological data and the degree of alcohol driving of the vehicle driver and evaluating the degree of alcohol driving is created in advance, and the parameter setting / management unit 9 The parameter setting / management unit 9 functions as an association data holding unit.

評価関数の作成は、例えば、以下のようにして行われる。
すなわち、本実施形態における酒気帯び検知システム1では、前述した解析対象データを取得する際と同様の手法により、予め運転者が酒気帯び状態でないとき(平常時)の画像を撮影して得られた平常時画像を解析することによって、顔色彩データ、顔温度データ、瞳孔データ、頚脈拍データ(平常時の生体データ)を取得する。また、同様に予め運転者の飲酒時の画像を撮影して得られた飲酒時画像を解析することによって、前記各生体データ(飲酒時の生体データ)を取得する。
なお、飲酒時の生体データは、飲酒量又は呼気中のアルコール濃度を測定し、飲酒量の少ない状態又は呼気中のアルコール濃度の低い状態から飲酒量の多い状態又は呼気中のアルコール濃度の高い状態までの複数のデータを測定時の飲酒量又は呼気中のアルコール濃度と対応付けて取得しておく。そして、例えば、前記データ処理・解析部8においてそれぞれのデータを解析し、平常時のデータと飲酒時のデータとの差分を計算する等により各生体データの平常時と飲酒時との違いを検出し、この違いと飲酒量又は呼気中のアルコール濃度との関係を統計的に解析する。
酒気帯び度と飲酒量又は呼気中のアルコール濃度とは相関性をもつことから、各データの平常時と飲酒時との違いと飲酒量又は呼気中のアルコール濃度との関係とを解析することによって、顔色彩データ、顔温度データ、瞳孔データ、頚脈拍データといった各生体データと酒気帯び度との評価関数を取得することができる。なお、この評価関数から、必要に応じて評価テーブルを作成し、パラメータ設定・管理部9に格納してもよい。
The evaluation function is created as follows, for example.
That is, in the liquor detection system 1 according to the present embodiment, an image obtained when the driver is not drunk (normally) is obtained in advance by the same method as that for acquiring the analysis target data described above. By analyzing the normal image, face color data, face temperature data, pupil data, and carotid pulse data (normal biological data) are acquired. Similarly, each of the biometric data (biological data at the time of drinking) is acquired by analyzing an image at the time of drinking obtained by taking an image of the driver at the time of drinking.
In addition, biological data at the time of drinking measures the amount of alcohol consumed or the alcohol concentration in expiration, and the state of low alcohol consumption or low alcohol concentration in expiration to the state of high alcohol consumption or high alcohol concentration in expiration A plurality of data up to are acquired in association with the amount of alcohol consumed during measurement or the alcohol concentration in expiration. Then, for example, each data is analyzed in the data processing / analysis unit 8, and a difference between normal data and drinking data is detected, for example, to detect a difference between normal and drinking data of each biological data. The relationship between this difference and the amount of alcohol consumed or the alcohol concentration in the breath is statistically analyzed.
Since the degree of alcohol and the amount of alcohol consumed or the concentration of alcohol in the breath have a correlation, by analyzing the difference between the normal time of each data and the time of drinking and the relationship between the amount of alcohol consumed or the alcohol concentration in the breath It is possible to acquire an evaluation function of each biological data such as face color data, face temperature data, pupil data, and carotid pulse data, and a degree of alcohol. An evaluation table may be created from this evaluation function as necessary and stored in the parameter setting / management unit 9.

ここで、一般的に飲酒と各種生体データとは、例えば以下のような関係があるといわれている。
血行→よくなる。
皮膚表面温度→上昇する
肌色→赤くなる。
脈拍数→増加する
呼吸→早くなる
瞳孔動き→少なくなる、視野が狭くなる、反応が遅くなる
Here, it is generally said that drinking and various biological data have the following relationship, for example.
Blood circulation → get better.
Skin surface temperature → Increases Skin color → Turns red.
Pulse rate → Increase Breathing → Faster Pupil movement → Decrease, Visual field narrows, Response slows down

このような生体データのうち、顔の表面温度(顔温度データ)の平常時と飲酒時との差(以下「表面温度差」と称する。)と飲酒量又は呼気中のアルコール濃度との関係の例を図6(a)に示す。図6(a)では、飲酒量が多くなる又は呼気中のアルコール濃度が高くなるほど表面温度差が大きくなる。
また、頚部の脈拍数(頚脈拍データ)の平常時と飲酒時との差(以下「脈拍差」と称する。)と飲酒量又は呼気中のアルコール濃度との関係の例を図6(b)に示す。図6(b)では、飲酒量が多くなる又は呼気中のアルコール濃度が高くなるほど脈拍差が大きくなる。
また、図6(c)に酒気帯び度を評価する評価関数の例を示す。上記表面温度差と飲酒量又は呼気中のアルコール濃度との関係及び脈拍差と飲酒量又は呼気中のアルコール濃度との関係を解析することにより図6(c)に示すような評価関数を取得する。この評価関数を用いることにより、表面温度差、脈拍差等の生体データの平常時と飲酒時との違いを解析すれば、各解析結果に対応する飲酒量又は呼気中のアルコール濃度を判断でき、さらに、飲酒量又は呼気中のアルコール濃度と相関関係にある酒気帯び度を検出することができる。
Among such biological data, the relationship between the difference between the normal surface temperature of the face (face temperature data) and the time of drinking (hereinafter referred to as “surface temperature difference”) and the amount of alcohol consumed or the alcohol concentration in the breath. An example is shown in FIG. In FIG. 6A, the surface temperature difference increases as the amount of alcohol consumption increases or the alcohol concentration in the expiration increases.
FIG. 6B shows an example of the relationship between the difference between the normal pulse rate of the cervical pulse (cervical pulse data) and alcohol consumption (hereinafter referred to as “pulse difference”) and the amount of alcohol consumed or the alcohol concentration in expiration. Shown in In FIG.6 (b), a pulse difference becomes large, so that the amount of alcohol consumption increases or the alcohol concentration in expiration | expired_air becomes high.
FIG. 6C shows an example of an evaluation function for evaluating the degree of alcohol. An evaluation function as shown in FIG. 6C is obtained by analyzing the relationship between the surface temperature difference and the amount of alcohol consumed or the alcohol concentration in expiration and the relationship between the pulse difference and the amount of alcohol consumed or the alcohol concentration in expiration. . By using this evaluation function, if you analyze the difference between normal and normal drinking of biological data such as surface temperature difference, pulse difference, etc., you can determine the amount of alcohol or the alcohol concentration in the breath corresponding to each analysis result, Furthermore, it is possible to detect a degree of alcohol consumption correlated with the amount of alcohol consumed or the alcohol concentration in the expiration.

データ蓄積部10は、外部から入力された画像データ、過去に撮影された画像データ、酒気帯び検知システム1によってすでに画像処理、解析等が行われたデータ、又は画像処理、解析途中のテンポラリデータ等を管理して保持するようになっている。また、本実施形態において、データ蓄積部10は、酒気帯び検知システム1による解析の結果運転者が酒気帯び状態でないと判断されたときに撮影された平常時画像及びこの平常時画像を解析することにより得られた顔色彩データ、顔温度データ、瞳孔データ、頚脈拍データ等、平常時の生体データ(以後「平常時データ」と称する。)を管理・保持する平常時データ保持手段として機能する。平常時データは、運転者の普段(正常時)の体調に関するデータとみなすことができるものである。
なお、前述のように、データ処理・解析部8によって生体データ(解析対象データ)を平常時データと比較対照することにより解析した結果、運転者が酒気帯び状態でないと判断されると、当該解析対象データも含めて運転者が酒気帯び状態でないと判断されたときのデータが全て平均化され、統計的に解析されて平常時データとなる。すなわち、解析対象データが酒気帯び状態でないと判断されると、平常時データは当該解析対象データを含めたものに更新され、データ蓄積部10は、当該更新された平常時データを保持する。
The data storage unit 10 includes image data input from the outside, image data captured in the past, data that has already undergone image processing, analysis, and the like, or temporary data that is being processed and analyzed To manage and maintain. Further, in the present embodiment, the data storage unit 10 analyzes the normal image captured when the driver is determined not to be drunk as a result of the analysis by the drunkenness detection system 1 and the normal image. It functions as normal data holding means for managing and holding normal biological data (hereinafter referred to as “normal data”) such as face color data, face temperature data, pupil data, and carotid pulse data obtained by the above. The normal data can be regarded as data related to the driver's normal (normal) physical condition.
As described above, when the data processing / analysis unit 8 analyzes the biological data (analysis target data) by comparing and comparing with the normal data, if the driver is determined not to be drunk, the analysis is performed. All data including the target data when it is determined that the driver is not drunken is averaged and statistically analyzed to obtain normal data. That is, when it is determined that the analysis target data is not in a drunken state, the normal data is updated to the data including the analysis target data, and the data storage unit 10 holds the updated normal data.

I/O部11は、生体データ取得手段としてのバイタルセンサー(体温計、体重計、体脂肪率計、血圧計、心電計、肌年齢計測計、骨密度計、肺活量計等)や、CFカード、SDカード、USBメモリカード等の可搬型デバイスを扱う機器を接続できるように構成されており、これらの機器から酒気帯び検知システム1の動作設定に必要な各種データを入力又は出力してもよい。なお、I/O部11は酒気帯び検知システム1の必須の構成要素ではなく、I/O部11を備えない構成としてもよい。   The I / O unit 11 includes a vital sensor (such as a thermometer, a weight scale, a body fat percentage meter, a sphygmomanometer, an electrocardiograph, a skin age meter, a bone densitometer, a spirometer) as a biological data acquisition means, a CF card It is configured to be able to connect devices that handle portable devices such as SD cards and USB memory cards, and various data necessary for the operation setting of the drunkenness detection system 1 may be input or output from these devices. . Note that the I / O unit 11 is not an essential component of the alcoholic detection system 1 and may be configured without the I / O unit 11.

外部通信部12は、有線又は無線の通信手段により外部装置16と情報通信ができるように構成されている。なお、本実施形態の酒気帯び検知システム1は画像データを扱うことも考えられるため、できる限り高速伝送できる通信形態であることが望ましい。   The external communication unit 12 is configured to perform information communication with the external device 16 by a wired or wireless communication unit. In addition, since the drunk detection system 1 of this embodiment can also handle image data, it is desirable that the communication mode be capable of high-speed transmission as much as possible.

外部通信部12は、ネットワークを介して互いに通信可能に外部装置16と接続されている。酒気帯び検知システム1において車両の運転者が酒気帯び状態にあると判定されると、その旨が制御部15に送られ、制御部15は外部通信部12を介して、運転者が酒気帯び状態であることを報知する信号やメッセージを外部装置16に送信するようになっている。   The external communication unit 12 is connected to an external device 16 so as to be able to communicate with each other via a network. When it is determined in the drunk detection system 1 that the driver of the vehicle is drunk, a message to that effect is sent to the control unit 15, and the control unit 15 is in a drunk state via the external communication unit 12. A signal and a message for notifying that are transmitted to the external device 16.

なお、本実施形態におけるネットワークはデータ通信可能である通信網を意味するものであれば特に限定されず、例えばインターネット、LAN(Local Area Network)、WAN(Wide Area Network)、電話回線網、ISDN(Integrated Services Digital Network)回線網、CATV(Cable Television)回線、光通信回線等を含めることができる。また、有線のみならず無線によって通信可能な構成としてもよい。   The network in the present embodiment is not particularly limited as long as it means a communication network capable of data communication. For example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), a telephone line network, ISDN ( An integrated services digital network (CIT) line, a CATV (Cable Television) line, an optical communication line, and the like can be included. Moreover, it is good also as a structure which can communicate not only by wire but by radio | wireless.

外部装置16は、例えばパーソナルコンピュータ等によって構成されており、例えば酒気帯び検知システム1がタクシーの車両内に設置される場合であれば、当該タクシーの所属するタクシー会社に設置されているコンピュータ等である。また、外部装置16を車両の運転者の家族の携帯電話等、予め登録してある携帯端末によって構成してもよい。また、外部装置16に代わり又は外部装置16に加えて、酒気帯び検知システム1で得られた画像データ等のデータの解析を行うほか、これらのデータのデータベースとしての機能を果たす図示しないデータ処理装置が、外部通信部12を介して酒気帯び検知システム1に接続されている構成としてもよい。   The external device 16 is configured by, for example, a personal computer. For example, if the alcohol detection system 1 is installed in a taxi vehicle, the external device 16 is a computer installed in a taxi company to which the taxi belongs. is there. Moreover, you may comprise the external apparatus 16 by the portable terminal registered previously, such as a mobile telephone of the vehicle driver's family. In addition to or in addition to the external device 16, the data processing device (not shown) that functions as a database of these data, in addition to analyzing data such as the image data obtained by the alcoholic detection system 1 However, it is good also as a structure connected to the drunk detection system 1 via the external communication part 12. FIG.

車両制御接続インタフェイス部13は、本実施形態において酒気帯び検知システム1の判定結果に応じて、車両の機能・動作を制御する車両動作制御部17に対して車両の動作制御に関する指示信号を伝達する伝達部として機能するものである。   In this embodiment, the vehicle control connection interface unit 13 transmits an instruction signal related to vehicle operation control to the vehicle operation control unit 17 that controls the function and operation of the vehicle according to the determination result of the drunkenness detection system 1. It functions as a transmission part.

運転者が酒気帯び状態であるとの判定が制御部15に送られると、制御部15は車両制御接続インタフェイス部13を介して、酒気帯び状態であるとの判定がされた際の車両の状況に応じた指示信号を車両動作制御部17に伝達する。例えば、酒気帯び状態であるとの判定がされた場合に、現状の車両状況がエンジンを切って停車中である場合には、「エンジンをONできないようにする」旨の指示信号が車両制御接続インタフェイス部13から車両動作制御部17に伝達される。また、現状の車両状況がエンジンがかかった状態での停車中である場合には、「エンジンを止める」旨の指示信号が車両制御接続インタフェイス部13から車両動作制御部17に伝達される。また、例えば運行中であれば、「自動操縦に切り替え、安全なところに退避してエンジンを止める」等の指示信号が車両制御接続インタフェイス部13から車両動作制御部17に伝達される。
なお、制御部15から車両制御接続インタフェイス部13を介して伝達される信号は、運転者が酒気帯び状態であるとの判定結果のみとし、車両動作制御部17が、当該判定結果を受けてどのような制御を行うかを決定し、これに応じた指示を車両各部に送るようにしてもよい。
When the determination that the driver is in a drunk state is sent to the control unit 15, the control unit 15 transmits the vehicle when it is determined to be in the drunk state via the vehicle control connection interface unit 13. An instruction signal corresponding to the situation is transmitted to the vehicle operation control unit 17. For example, if it is determined that the vehicle is drunk, and the current vehicle status is stopped with the engine turned off, an instruction signal indicating that the engine cannot be turned on is connected to the vehicle control. It is transmitted from the interface unit 13 to the vehicle operation control unit 17. Further, when the current vehicle state is stopping with the engine running, an instruction signal “stop engine” is transmitted from the vehicle control connection interface unit 13 to the vehicle operation control unit 17. Further, for example, during operation, an instruction signal such as “switch to automatic steering, retreat to a safe place and stop the engine” is transmitted from the vehicle control connection interface unit 13 to the vehicle operation control unit 17.
The signal transmitted from the control unit 15 via the vehicle control connection interface unit 13 is only the determination result that the driver is in a drunk state, and the vehicle operation control unit 17 receives the determination result. It is also possible to determine what kind of control is to be performed and send an instruction corresponding to this to each part of the vehicle.

制御部15は、各種演算処理を行うCPU(Central Processing Unit)、システムプログラム等、各種の制御プログラム等を格納するROM(Read Only Memory)、各種データ等を一時記憶するRAM(Random Access Memory)(いずれも図示せず)等を備えて構成されており、制御部15は、ROM等に記憶されている各種プログラムを読み出してRAMに展開し、展開したプログラムに従って各種処理を実行し、後述する酒気帯び検知システム1の各構成部を駆動制御するようになっている。
特に本実施形態において制御部15のROMには、システムプログラムの他に、後述する撮影キャリブレーションを行うための撮影キャリブレーション制御プログラム、解析キャリブレーションを行うための解析キャリブレーション制御プログラム等が格納されており、制御部15は、撮影キャリブレーション制御プログラム、解析キャリブレーション制御プログラムとの協働により、撮影キャリブレーション及び解析キャリブレーションを行う撮影キャリブレーション手段及び解析キャリブレーション手段として機能するようになっている。
なお、本実施形態の酒気帯び検知システム1は動画像も扱うため、制御部15はできる限り高速動作・制御が可能なチップにより構成することが望ましい。
The control unit 15 includes a CPU (Central Processing Unit) that performs various arithmetic processes, a ROM (Read Only Memory) that stores various control programs such as a system program, and a RAM (Random Access Memory) that temporarily stores various data. The control unit 15 reads out various programs stored in the ROM and the like, expands them in the RAM, executes various processes in accordance with the expanded programs, and the later-described alcohol. Each component of the band detection system 1 is driven and controlled.
In particular, in the present embodiment, the ROM of the control unit 15 stores a shooting calibration control program for performing shooting calibration described later, an analysis calibration control program for performing analysis calibration, and the like in addition to the system program. The control unit 15 functions as an imaging calibration unit and an analysis calibration unit that perform imaging calibration and analysis calibration in cooperation with the imaging calibration control program and the analysis calibration control program. Yes.
In addition, since the liquor detection system 1 of the present embodiment also handles moving images, it is desirable that the control unit 15 be configured by a chip that can operate and control as fast as possible.

ここで、本実施形態において制御部15により行われる撮影キャリブレーション及び解析キャリブレーションについて説明する。   Here, imaging calibration and analysis calibration performed by the control unit 15 in the present embodiment will be described.

例えば周辺環境の変化が大きい使用環境の下では、長時間の時間経過により画像撮影部2の撮影特性の変化が生じ得る。撮影キャリブレーションは、この画像撮影部2の撮影特性の変化を日常的に取得し、この特性に応じて画像を補正して、安定した画像取得を行うためのものである。   For example, under a usage environment in which a change in the surrounding environment is large, a change in shooting characteristics of the image shooting unit 2 may occur over a long time. The shooting calibration is for acquiring a change in shooting characteristics of the image shooting unit 2 on a daily basis, correcting an image according to the characteristics, and acquiring a stable image.

図7に示すように、本実施形態において、例えば車両の天井部105には、撮影キャリブレーション用のカラーチャート104が設けられている。カラーチャート104は、一端が車両の天井部105に固定され、この固定位置を軸として天井部105とほぼ平行な位置から天井部105とほぼ垂直となる位置まで回動自在となっており、非撮影キャリブレーション時には天井部105とほぼ平行な位置に配置され、撮影キャリブレーション時には天井部105とほぼ垂直となる位置まで自動的に回動するようになっている。また、カラーチャート104は、天井部105とほぼ垂直となったときに運転席101のシート106の前方であって、運転者がシート106に座ったときに運転者の顔が位置する位置近傍に配置されるように構成されている。   As shown in FIG. 7, in this embodiment, for example, a color chart 104 for photographing calibration is provided on the ceiling portion 105 of the vehicle. One end of the color chart 104 is fixed to the ceiling portion 105 of the vehicle, and is rotatable from a position substantially parallel to the ceiling portion 105 to a position substantially perpendicular to the ceiling portion 105 with the fixed position as an axis. It is arranged at a position substantially parallel to the ceiling portion 105 at the time of shooting calibration, and is automatically rotated to a position substantially perpendicular to the ceiling portion 105 at the time of shooting calibration. Further, the color chart 104 is in front of the seat 106 of the driver's seat 101 when it is almost perpendicular to the ceiling portion 105 and in the vicinity of the position where the driver's face is located when the driver sits on the seat 106. It is configured to be arranged.

カラーチャート106は、反射タイプ又は自己発光タイプのいずれでも適用することができる。反射タイプの場合は照明ランプを設けて照明を行う。なお、別途照明ランプを設けずに、照明部3によってカラーチャート106を照明するようにしてもよい。カラーチャート106を形成する材料としては、紙等の熱による劣化が激しい材料は不適であり、例えばタイル等の熱に強い材料を使用する。自己発光タイプの場合は、撮影キャリブレーションに使用する色のLEDを2次元状に並べて配置する。カラーチャート106は、照明光が必要ないこと、発光パターンによってチャートの内容を変えられること等の観点から、自己発光タイプのものが好ましい。なお、自己発光タイプのカラーチャート106を用いる場合には各LEDの照明光の特性をデータ蓄積部10に保管しておく。   The color chart 106 can be applied to either a reflection type or a self-luminous type. In the case of the reflective type, an illumination lamp is provided for illumination. In addition, you may make it illuminate the color chart 106 with the illumination part 3, without providing an illumination lamp separately. As a material for forming the color chart 106, a material such as paper that is rapidly deteriorated by heat is unsuitable. For example, a material resistant to heat such as a tile is used. In the case of the self-luminous type, LEDs of colors used for photographing calibration are arranged in a two-dimensional manner. The color chart 106 is preferably a self-luminous type from the viewpoints that illumination light is not necessary and the contents of the chart can be changed by the light emission pattern. When the self-luminous type color chart 106 is used, the characteristics of the illumination light of each LED are stored in the data storage unit 10.

撮影キャリブレーションを行う場合には、例えば画像撮影部2のカメラ21によりカラーチャート104の画像を撮影する。制御部15は、撮影によって得られた画像から、階調特性、色測定用パラメータを取得し、パラメータ設定・管理部9に保存する。そして、制御部15は、取得した階調特性、色測定用パラメータに基づいて、適宜画像撮影部2の特性変化に応じた画像の補正を行う。   When shooting calibration is performed, for example, the image of the color chart 104 is shot by the camera 21 of the image shooting unit 2. The control unit 15 acquires gradation characteristics and color measurement parameters from an image obtained by photographing, and stores them in the parameter setting / management unit 9. Then, the control unit 15 appropriately corrects the image according to the characteristic change of the image capturing unit 2 based on the acquired gradation characteristics and color measurement parameters.

また、酒気帯び検知システム1は、図8(a)に示すように、ディストーション補正用のチャート107を備えてもよい。個人認証や瞳孔等の画像解析値の精度を上げるには、テンプレートと撮影画像とを一致させるために撮影画像から正面視画像を得る必要がある。ディストーション補正は、撮影された画像が正面視画像でない場合に、撮影画像を正面視に近い画像に補正するものである。
この場合には、図8(b)に示すように、チャート107のパターンを格子状のディストーション補正用パターンに変更し、例えば画像撮影部2のカメラ21によりチャート107の画像を撮影する。制御部15は、撮影によって得られたパターンから、ディストーション補正の補正パラメータを算出し、パラメータ設定・管理部9に保存する。そして、制御部15は、撮影された画像が正面視画像でない場合には、この補正パラメータを用いて、撮影画像を正面視に近い画像に修正する補正を行う。
なお、ディストーション補正用のチャート107は図8(a)に示すようなモノクロのチャート107でもよい。また、例えば、前記画像撮影部2の特性変化に応じた補正を行うためのパラメータを得るために用いられるカラーチャート104(図7参照)として、自己発光タイプのものを備えている場合には、ディストーション補正用のチャート107を別途備えずに、カラーチャート104(図7参照)のパターンを格子状のディストーション補正用パターンに変更し、ディストーション補正用の補正パラメータを算出してもよい。
In addition, as shown in FIG. 8A, the drunk detection system 1 may include a distortion correction chart 107. In order to increase the accuracy of image analysis values such as personal authentication and pupils, it is necessary to obtain a front view image from the captured image in order to match the template and the captured image. In the distortion correction, when a captured image is not a front view image, the captured image is corrected to an image close to the front view.
In this case, as shown in FIG. 8B, the pattern of the chart 107 is changed to a lattice-shaped distortion correction pattern, and the image of the chart 107 is captured by the camera 21 of the image capturing unit 2, for example. The control unit 15 calculates a correction parameter for distortion correction from the pattern obtained by photographing, and stores it in the parameter setting / management unit 9. Then, when the captured image is not a front view image, the control unit 15 performs correction for correcting the captured image to an image close to the front view using the correction parameter.
Note that the distortion correction chart 107 may be a monochrome chart 107 as shown in FIG. In addition, for example, when a color chart 104 (see FIG. 7) used for obtaining parameters for performing correction according to the characteristic change of the image photographing unit 2 is provided with a self-luminous type, Instead of separately providing the distortion correction chart 107, the pattern of the color chart 104 (see FIG. 7) may be changed to a lattice-shaped distortion correction pattern to calculate a correction parameter for distortion correction.

なお、撮影キャリブレーション時と酒気帯び度判定時では車両内の温度が異なり、それによって画像撮影部2の撮影特性が変化する可能性がある。そこで、予め複数の温度下における画像撮影部2の撮影特性の変化を取得しておき、車両内の温度の違いによる画像撮影部2の撮影特性の違いを補正することが好ましい。同じ温度のデータがなければ、その温度に近い周辺のデータを用いて補正を行うようにする。   Note that the temperature in the vehicle is different between the time of shooting calibration and the time of determination of alcohol, and the shooting characteristics of the image shooting unit 2 may change accordingly. Therefore, it is preferable to acquire changes in the photographing characteristics of the image photographing unit 2 under a plurality of temperatures in advance and correct the difference in photographing characteristics of the image photographing unit 2 due to the difference in temperature in the vehicle. If there is no data of the same temperature, correction is performed using peripheral data close to that temperature.

なお、撮影キャリブレーションは、車両内に人がいない夜に行うことが好ましい。また、車両が駐車場等の暗い場所に置かれているときに行うことが好ましい。撮影キャリブレーションのための画像撮影を行ったときは、当該画像撮影時の車両内の温度を計測し、そのデータをデータ蓄積部10等に保持しておく。   Note that the imaging calibration is preferably performed at night when there is no person in the vehicle. Moreover, it is preferable to carry out when the vehicle is placed in a dark place such as a parking lot. When taking an image for shooting calibration, the temperature in the vehicle at the time of shooting the image is measured, and the data is stored in the data storage unit 10 or the like.

次に、解析キャリブレーションについて説明する。
酒気帯び度は予め作成された評価関数(又はこれに基づく評価テーブル)に基づき決定されるため、酒気帯び判定時の年齢、体重等の条件と、評価関数作成時の条件とが異なると、それによって両者の関係が変わってくる。解析キャリブレーションは、このような年齢や体重の影響を補正して、酒気帯び判定時における運転者の実状に近い評価関数(又はこれに基づく評価テーブル)を作成するものである。
Next, analysis calibration will be described.
The degree of alcohol is determined based on an evaluation function created in advance (or an evaluation table based on this), so if the conditions such as age and weight at the time of determination of alcohol are different from the conditions at the time of evaluation function creation, The relationship between the two changes. The analysis calibration corrects the influence of such age and weight, and creates an evaluation function (or an evaluation table based on this) that is close to the actual condition of the driver at the time of determination of drunkness.

例えば、年齢については、運転者の年齢の一定間隔ごとに様々なレベルの飲酒量又は呼気アルコール濃度に対する運転者の生体データを実験的に調査し評価関数を更新する仕組みを設ける。
具体的は、例えば、図9(a)及び図9(b)に示すように、運転者の年齢が一定に達するごと(例えば、30歳、35歳、40歳・・・の5年ごと)に様々なレベルの飲酒量又は呼気アルコール濃度となるアルコールを運転者に飲ませたり、又は所定の飲酒量又は呼気アルコール濃度に相当するように皮膚にアルコールパッチを貼り変化をみる等により、各飲酒量又は呼気アルコール濃度の場合における運転者の顔部、目、頚部等の画像を撮影し、この画像に基づいて顔の色彩、顔の温度、頚脈拍等の生体データを抽出・生成する。そして、生成された生体データに基づいて、各年齢ごとの飲酒量又は呼気アルコール濃度に対する評価関数を取得する。
各年齢ごとの評価関数は、作成時の個人データと実験データとともにデータ蓄積部10に保持しておき、酒気帯び度の検出を行う際には、データ蓄積部10に保持されている各年齢ごとの飲酒量又は呼気アルコール濃度に対する評価関数を参照することにより、当該酒気帯び度の検出・判定を行う時点での運転者の年齢(例えば図9において44歳)に応じて評価関数を補正する。具体的には、各年齢ごとの飲酒量又は呼気アルコール濃度に対する評価関数から重み係数を導き、この重み係数を評価関数に掛け合わせることにより、図9(c)に示すような酒気帯び度の検出・判定時の年齢に対する評価関数を作成する。
For example, regarding the age, a mechanism is provided for experimentally examining the driver's biometric data for various levels of alcohol consumption or breath alcohol concentration at regular intervals of the driver's age and updating the evaluation function.
Specifically, for example, as shown in FIGS. 9 (a) and 9 (b), every time the driver's age reaches a certain level (for example, every five years of 30, 35, 40,...). Each alcohol consumption is caused by causing the driver to drink alcohol with various levels of alcohol consumption or breath alcohol concentration, or by applying an alcohol patch to the skin to observe the change corresponding to the prescribed alcohol consumption or breath alcohol concentration. Images of the driver's face, eyes, neck, etc. in the case of volume or breath alcohol concentration are taken, and biometric data such as face color, face temperature, and carotid pulse are extracted and generated based on this image. And based on the produced | generated biometric data, the evaluation function with respect to the drinking amount or breath alcohol concentration for every age is acquired.
The evaluation function for each age is stored in the data storage unit 10 together with the personal data and the experimental data at the time of creation, and when detecting the degree of alcohol, for each age stored in the data storage unit 10 The evaluation function is corrected according to the age of the driver (for example, 44 years in FIG. 9) at the time of detecting / determining the degree of alcohol consumption. Specifically, a weighting factor is derived from an evaluation function for the amount of alcohol consumption or breath alcohol concentration for each age, and the weighting factor is multiplied by the evaluation function to detect the degree of alcohol consumption as shown in FIG. -Create an evaluation function for age at the time of judgment.

また、体重は、例えば運転席のシートに体重センサ、加圧センサ等を設けて計測する。
体重についても年齢と同様に、評価関数更新時の体重を計測して個人データに含めてデータ蓄積部10に保持しておく。酒気帯び度の検出を行う際には、データ蓄積部10に保持されている各体重ごとの飲酒量又は呼気アルコール濃度に対する評価関数を参照することにより、当該酒気帯び度の検出を行う時点での運転者の体重に応じて評価関数を補正する。具体的には、各体重ごとの飲酒量又は呼気アルコール濃度に対する評価関数から重み係数を導き、この重み係数を評価関数に掛け合わせることにより、酒気帯び度の検出時の体重に対する評価関数を作成する。
The weight is measured by providing a weight sensor, a pressure sensor, etc. on the seat of the driver's seat, for example.
As with the age, the weight at the time of updating the evaluation function is measured and included in the personal data, and stored in the data storage unit 10 as with the age. When detecting the alcohol level, by referring to the evaluation function for the alcohol consumption or breath alcohol concentration for each body weight held in the data storage unit 10, the detection of the alcohol level is performed. The evaluation function is corrected according to the weight of the driver. Specifically, a weighting factor is derived from the evaluation function for the amount of alcohol consumed or the breath alcohol concentration for each body weight, and the weighting factor is multiplied by the evaluation function to create an evaluation function for the weight at the time of detecting the degree of alcohol consumption. .

その他、図示はしないが、酒気帯び検知システム1が設置される車両の運転席101のシート106のシート部分又は背もたれ部分には圧力センサ(体重センサ、加圧センサ等)が設けられており、圧力センサは検知結果を制御部15に出力するようになっている。これにより、制御部15は運転席に人が座ったこと(乗車したこと)を検知可能となっている。   In addition, although not shown, a pressure sensor (a weight sensor, a pressure sensor, etc.) is provided in the seat portion or the backrest portion of the seat 106 of the driver's seat 101 of the vehicle in which the drunk detection system 1 is installed. The sensor outputs the detection result to the control unit 15. Thereby, the control part 15 can detect that the person sat in the driver's seat (boarded).

次に、図10を参照しつつ、本実施形態における酒気帯び検知方法について説明する。   Next, with reference to FIG. 10, a method for detecting alcohol consumption in the present embodiment will be described.

まず、酒気帯び検知システム1においては、制御部15は圧力センサからの検知結果から車両の運転席に運転者が乗車したか否かを常に判断する(ステップS1)。運転者が乗車していないと判断する場合(ステップS1;NO)には、ステップS1の判断を繰り返す。
運転者が乗車したと判断する場合(ステップS1;YES)には、制御部15は、カメラ21,22を動作させて、顔部のカラー画像撮影、顔部の熱画像撮影、目部の動画像撮影、頚部及び顎部の動画像撮影を行い、各画像を取得する(ステップS2)。画像が取得されると、データ処理・解析部8において各画像について解析を行い、生体データ(解析対象データ)を抽出・生成する(ステップS3)。
First, in the drunk detection system 1, the control unit 15 always determines from the detection result from the pressure sensor whether or not the driver gets on the driver's seat of the vehicle (step S1). If it is determined that the driver is not in the vehicle (step S1; NO), the determination in step S1 is repeated.
When it is determined that the driver has boarded the vehicle (step S1; YES), the control unit 15 operates the cameras 21 and 22 to perform color image photographing of the face portion, thermal image photographing of the face portion, and moving image of the eye portion. Image capturing, moving image capturing of the neck and jaws are performed, and each image is acquired (step S2). When the image is acquired, the data processing / analysis unit 8 analyzes each image, and extracts and generates biometric data (analysis target data) (step S3).

生体データ(解析対象データ)が生成されると、データ処理・解析部8は、この解析対象データと平常時データとの違いを検出し違いデータを生成する(ステップS4)。そして、データ処理・解析部8は、評価関数又は評価テーブルを参照しつつ、違いデータを解析して酒気帯び度を検出する(ステップS5)。さらに、データ処理・解析部8は、パラメータ設定・管理部9に保持されている酒気帯び状態か否かを判断する閾値(上限値)を参照して運転者が酒気帯び状態か否かを判定する(ステップS6)。   When the biological data (analysis target data) is generated, the data processing / analysis unit 8 detects the difference between the analysis target data and the normal data and generates difference data (step S4). Then, the data processing / analyzing unit 8 analyzes the difference data while referring to the evaluation function or the evaluation table, and detects the alcohol level (step S5). Further, the data processing / analyzing unit 8 refers to a threshold value (upper limit value) for determining whether or not the driver is intoxicated, which is stored in the parameter setting / management unit 9, and determines whether or not the driver is intoxicated. (Step S6).

データ処理・解析部8による判定結果は制御部15に送られ、酒気帯び状態と判定された場合には(ステップS6;YES)、制御部15は、車両制御インタフェイス部13を介して車両動作制御部17に対し、車両制御についての指示信号を出力する(ステップS7)。これに対して、酒気帯び状態と判定されなかった場合には(ステップS6;NO)、データ処理・解析部8は、取得された今回取得された解析対象データを平常時データとして、既に保存されている平常時データと平均化して新たな平常時データを生成し、この生成された平常時データをデータ蓄積部10に保存する(ステップS8)。これにより、データ蓄積部10に保存されていた平常時データは今回取得された解析対象データを含むデータに更新される。   The determination result by the data processing / analyzing unit 8 is sent to the control unit 15, and when it is determined that the state is drunken (step S 6; YES), the control unit 15 performs vehicle operation via the vehicle control interface unit 13. An instruction signal for vehicle control is output to the control unit 17 (step S7). On the other hand, when it is not determined that the person is drunken (step S6; NO), the data processing / analysis unit 8 has already been stored as normal data with the acquired analysis target data acquired this time. The normal data is averaged with the normal data to generate new normal data, and the generated normal data is stored in the data storage unit 10 (step S8). As a result, the normal data stored in the data storage unit 10 is updated to data including the analysis target data acquired this time.

本実施形態において、酒気帯び検知システム1によって上記酒気帯び度検出処理を行うタイミングは、運転者が車両に乗車したときとしてもよいし、乗車後一定期間経過後としてもよい。また、運転者が車両に乗車している間は、一定期間経過ごとに繰返し酒気帯び度検出処理を行うようにしてもよい。酒気帯び度検出処理を行うタイミング及びその回数等は、予め設定されていてもよいし、ユーザが任意に設定してもよい。   In the present embodiment, the timing of performing the above-mentioned alcoholic beverage detection process by the alcoholic beverage detection system 1 may be when the driver gets on the vehicle or after a certain period of time has elapsed after boarding. In addition, while the driver is in the vehicle, the drunk degree detection process may be repeatedly performed every certain period of time. The timing and the number of times of performing the alcohol level detection process may be set in advance, or may be arbitrarily set by the user.

なお、制御部15は、一定期間ごと又は毎回の酒気帯び度検出の度に、画像撮影部2の撮影特性についての撮影キャリブレーション及び評価関数(又は評価テーブル)についての解析キャリブレーションを行う。各キャリブレーションを行うタイミングは予め設定されていてもよいし、ユーザが任意に設定してもよい。   Note that the control unit 15 performs shooting calibration for the shooting characteristics of the image shooting unit 2 and analysis calibration for the evaluation function (or evaluation table) every time a fixed period or every time the degree of drunkness is detected. The timing for performing each calibration may be set in advance, or may be arbitrarily set by the user.

このように、本実施形態によれば、車両運転者の画像を撮影し、この画像を解析して得られる生体データと平常時の生体データとを比較対照し、さらに生体データと車両運転者の酒気帯び度とを関係付ける評価関数を参照することによって、非接触的に、車両乗車時の車両運転者の酒気帯び度を検出することができる。このため、運転者本人を煩わせることなく、酒気帯び度の検出を行うことができる。   As described above, according to the present embodiment, the image of the vehicle driver is taken, the biometric data obtained by analyzing this image is compared with the normal biometric data, and the biometric data and the vehicle driver are further compared. By referring to the evaluation function relating to the degree of alcohol, the degree of alcohol of the vehicle driver at the time of boarding can be detected in a non-contact manner. For this reason, it is possible to detect the alcohol level without bothering the driver himself / herself.

また、制御部15により、画像撮影部の撮影特性についての撮影キャリブレーションを行うので、画像撮影部の撮影特性が経時的に変化する場合でも、画像撮影部の撮影特性に応じて画像を補正して、酒気帯び度の検出を行うのに適した画像を安定して取得することができる。   Further, since the control unit 15 performs shooting calibration for the shooting characteristics of the image shooting unit, the image is corrected according to the shooting characteristics of the image shooting unit even when the shooting characteristics of the image shooting unit change over time. Thus, it is possible to stably acquire an image suitable for detecting the alcohol level.

また、制御部15により、評価関数又は評価テーブルについて補正する解析キャリブレーションを行うので、評価関数又は評価テーブルを作成した時点から運転者の年齢や体重等が変化した場合でも、適切に酒気帯び度の検出を行うことができる。   Further, since the control calibration is performed by the control unit 15 to correct the evaluation function or the evaluation table, even if the driver's age, weight, etc. have changed since the evaluation function or the evaluation table was created, the degree of drunkenness is adequate. Can be detected.

さらに、車両運転者が酒気帯び状態にあると判定された場合には、車両制御インタフェイス部13を介して、車両の機能・動作を制御する車両動作制御部17にその旨を伝え、状況に応じた対処を行うよう指示する指示信号を出力するので、酒気帯び状態での運転に起因する事故を未然に防止することができる。   Furthermore, when it is determined that the vehicle driver is in a drunken state, the vehicle operation control unit 17 that controls the functions and operations of the vehicle is informed via the vehicle control interface unit 13 and the situation is Since the instruction signal instructing to take a countermeasure according to the output is output, it is possible to prevent an accident caused by driving in a drunk state.

なお、本実施形態においては、運転席101のシート106に設けられた圧力センサによって運転席に運転者が乗車したか否かの乗車検知を行うものとしたが、乗車検知の手法はこれに限定されない。例えば、画像撮影部2のカメラ21により常に又は一定時間おきに運転席を撮影し、撮影画像を解析することにより運転席に運転者が乗車しているか否かを判断するようにしてもよい。
このように、画像撮影部2のカメラ21によって乗車検知を行う場合には、検知の後に頭部のデータを用いて、乗車した運転者の個人認証を行ってもよい。個人認証の手法としては、顔認証、虹彩認証、声紋認証等があるが、いずれの手法でも適用可能である。個人認証の結果、運転者を特定したときは、撮影した画像や当該画像を解析して得られた生体データ等に運転者情報(例えば、氏名、年齢、社員番号等)を付帯させ、データベース等で管理するようにしてもよい。また、外部装置に運転者の酒気帯び度を報告する際に、運転者情報を付帯してもよい。
In the present embodiment, it is assumed that the boarding detection of whether or not the driver has boarded the driver's seat is performed by the pressure sensor provided on the seat 106 of the driver's seat 101, but the boarding detection method is limited to this. Not. For example, the driver's seat may be photographed constantly or at regular intervals by the camera 21 of the image photographing unit 2 and the photographed image may be analyzed to determine whether the driver is in the driver's seat.
Thus, when boarding detection is performed by the camera 21 of the image capturing unit 2, personal authentication of the boarded driver may be performed using head data after detection. The personal authentication methods include face authentication, iris authentication, voiceprint authentication, etc., but any method can be applied. As a result of personal authentication, when a driver is specified, driver information (for example, name, age, employee number, etc.) is attached to the captured image or biometric data obtained by analyzing the image, and a database, etc. You may make it manage with. In addition, driver information may be attached when reporting the driver's alcohol level to an external device.

また、本実施形態においては、顔部・目部・頚部を同時に全て撮影したが、顔部・目部・頚部をそれぞれ別々に又は2箇所以上を同時に撮影してもよい。
また、画像撮影を行ってから解析を行う順序も、本実施形態においては、全検出部位の画像を先に撮影してから各検出部位画像の画像解析を行う例について説明したが、撮影及び解析の順序はこれに限定されず、顔部・目部・頚部をそれぞれ別々に撮影し、撮影した順に順次画像解析を行うようにしてもよい。
Further, in the present embodiment, the face, eyes, and neck are all photographed simultaneously, but the face, eyes, and neck may be photographed separately or at two or more locations simultaneously.
Further, in the present embodiment, the order in which the analysis is performed after the imaging is performed has been described in the present embodiment, in which the images of all the detection sites are captured first, and then the image analysis of each detection site image is performed. The order is not limited to this, and the face part, the eye part, and the neck part may be separately photographed, and the image analysis may be sequentially performed in the photographed order.

また、本実施形態においては、顔部・目部・頚部を撮影して得られる画像及び当該画像を解析して得られる生体データに基づいて酒気帯び度の検出・判定を行うものとしたが、酒気帯び度の検出・判定を行うための生体データはここに例示したものに限定されない。例えば、ハンドルやシート、フットペダル等、車両運転者の生体と接触するところに生体データ計測用のセンサを埋め込み、これらのセンサによって生体データを取得してもよい。具体的には、例えば、ハンドルに温度センサや脈拍センサ、酸素飽和度センサを設けることが考えられる。また、シートベルトやシートに血圧センサ等を設けてもよい。   Further, in the present embodiment, the detection and determination of the degree of alcoholism are performed based on the image obtained by photographing the face, eyes, and neck and the biological data obtained by analyzing the image. The biometric data for detecting / determining the degree of alcohol is not limited to those exemplified here. For example, a biometric data sensor may be embedded in a position such as a handle, a seat, or a foot pedal that comes into contact with the living body of the vehicle driver, and the biometric data may be acquired using these sensors. Specifically, for example, a temperature sensor, a pulse sensor, and an oxygen saturation sensor may be provided on the handle. Further, a blood pressure sensor or the like may be provided on the seat belt or the seat.

また、本実施形態においては、運転者のデータを実験的に取得することにより評価関数又は評価テーブルを作成するものとしたが、評価関数又は評価テーブルを作成するためのデータは運転者のデータに限定されない。例えば、複数の一般成人を対象とした実験結果を使用して評価関数(又はこれに基づく評価テーブル)を作成してもよい。このように一般成人を対象とした実験結果を使用して評価関数を作成した場合には、運転者にアルコールを規定量飲ませ、呼気中のアルコール濃度を計測し、その値に基づいて運転者本人用に評価関数又は評価テーブルのキャリブレーションを行う。   In this embodiment, the evaluation function or the evaluation table is created by experimentally acquiring the driver data. However, the data for creating the evaluation function or the evaluation table is the driver data. It is not limited. For example, an evaluation function (or an evaluation table based on this) may be created using experimental results for a plurality of general adults. In this way, when an evaluation function is created using experimental results for general adults, the driver is allowed to drink a specified amount of alcohol, the alcohol concentration in the breath is measured, and the driver is based on that value. Calibrate the evaluation function or evaluation table for the user.

また、本実施形態においては、画像から抽出する生体データとして、生体の顔部の肌色(顔色彩データ)、顔部の肌表面温度(顔温度データ)、瞳孔の大きさや中心位置の時系列変化のデータ、頚脈拍データを用いたが、他の生体データを画像から抽出してもよい。   Further, in this embodiment, as biometric data extracted from an image, time series changes in the skin color (face color data) of the face of the living body, the skin surface temperature of the face (face temperature data), the size of the pupil and the center position However, other biological data may be extracted from the image.

例えば、顔部の画像解析において、熱画像データを動画像的に取得して、運転者の呼吸数を抽出し、これを酒気帯び度の検出・判定を行うための生体データとしてもよい。   For example, in facial image analysis, thermal image data may be acquired as a moving image, the driver's respiratory rate may be extracted, and this may be used as biometric data for detecting / determining the degree of alcohol.

また、本実施形態におけるシステムは、酒気帯び状態での運転か否かを判定するものとしたが、運転者の画像を撮影して当該撮影画像を解析することにより生体データを取得し、これに基づいて運転者が平常状態か否かを判定する手法は、例えば、麻薬等を使用しての運転、薬飲み後の運転、過労状態での運転、居眠り運転、風邪や発熱等の病気中の運転等の場合についても、同様に適用することができる。   In addition, the system according to the present embodiment is configured to determine whether or not the driving is in a drunken state, but the biometric data is obtained by capturing the driver's image and analyzing the captured image. Based on the method of determining whether or not the driver is in a normal state, for example, driving using drugs, driving after taking a drug, driving in an overworked state, driving asleep, sleeping or having a fever The same applies to the case of driving and the like.

また、本実施形態においては、普通自動車に酒気帯び検知システム1を適用する場合について説明したが、酒気帯び検知システム1を適用可能な車両はこれに限定されず、例えば、列車、電車、自転車等、各種車両にも応用して適用することができる。   In the present embodiment, the case where the drunk detection system 1 is applied to an ordinary car has been described. However, vehicles to which the drunk detection system 1 can be applied are not limited to this, and for example, trains, trains, bicycles, and the like. It can also be applied to various vehicles.

その他、本発明が上記実施の形態に限らず適宜変更可能であるのは勿論である。   In addition, it is needless to say that the present invention is not limited to the above embodiment and can be modified as appropriate.

本発明に係る酒気帯び検知システムの一実施形態の概略構成を示した要部ブロック図である。It is the principal part block diagram which showed schematic structure of one Embodiment of the liquor detection system which concerns on this invention. 図1に示した酒気帯び検知システムの車両への搭載例を示した図である。It is the figure which showed the example of mounting to the vehicle of the drunk detection system shown in FIG. 図3(a)は、生体データとしての瞳孔の大きさの時系列変化を示したグラフである。図3(b)は、図3(a)の刺激付加時(b)における瞳孔の時系列変化をより詳細に示した図である。FIG. 3A is a graph showing a time-series change in the size of the pupil as biological data. FIG. 3B is a diagram showing in more detail the time-series change of the pupil when the stimulus is added (b) in FIG. 生体データとしての瞳孔の中心位置の時系列変化を示したグラフである。It is the graph which showed the time-sequential change of the center position of the pupil as biometric data. 解析対象データと平常時データとを用いて酒気帯び度を検出する処理を説明する概念図である。It is a conceptual diagram explaining the process which detects a drunkenness degree using analysis object data and normal time data. 図6(a)は、表面温度差と飲酒量/呼気アルコール濃度との相関関係を示すグラフである。図6(b)は、脈拍差と飲酒量/呼気アルコール濃度との相関関係を示すグラフである。図6(c)は、酒気帯び度の評価関数を示すグラフである。FIG. 6A is a graph showing the correlation between the surface temperature difference and the amount of alcohol consumed / expired alcohol concentration. FIG. 6B is a graph showing the correlation between the pulse rate difference and the alcohol consumption / expired alcohol concentration. FIG. 6C is a graph showing an evaluation function of the degree of alcohol. 撮影キャリブレーションに用いられるカラーチャートの設置位置を模式的に示した図である。It is the figure which showed typically the installation position of the color chart used for imaging | photography calibration. 図8(a)は、撮影キャリブレーションに用いられるチャートの設置位置を模式的に示した図である。図8(b)は、ディストーション補正用パターン及びディストーション補正のパラメータの一例を示した図である。FIG. 8A is a diagram schematically illustrating the installation position of a chart used for imaging calibration. FIG. 8B shows an example of a distortion correction pattern and distortion correction parameters. 図9(a)は、表面温度差と飲酒量/呼気アルコール濃度との相関関係を示すグラフである。図9(b)は、脈拍差と飲酒量/呼気アルコール濃度との相関関係を示すグラフである。図9(c)は、酒気帯び度の評価関数を示すグラフである。FIG. 9A is a graph showing the correlation between the difference in surface temperature and the amount of alcohol consumed / exhaled alcohol concentration. FIG. 9B is a graph showing the correlation between the pulse difference and the alcohol consumption / expired alcohol concentration. FIG. 9C is a graph showing an evaluation function of the degree of alcohol. 酒気帯び検知システムにおける酒気帯び度の検出・判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the detection / judgment process of the alcoholic beverage degree in the alcoholic beverage detection system.

符号の説明Explanation of symbols

1 酒気帯び検知システム
2 画像撮影部
3 照明部
4 光刺激用照明部
5 ユーザインタフェイス部
6 表示部
7 メモリ部
8 データ処理・解析部
9 パラメータ設定・管理部
10 データ蓄積部
11 I/O部
12 外部通信部
13車両制御インタフェイス部
15 制御部
DESCRIPTION OF SYMBOLS 1 Alcohol detection system 2 Image photographing part 3 Illumination part 4 Light stimulation illumination part 5 User interface part 6 Display part 7 Memory part 8 Data processing / analysis part 9 Parameter setting / management part 10 Data storage part 11 I / O part 12 External communication unit 13 Vehicle control interface unit 15 Control unit

Claims (12)

車両運転者の画像を撮影する画像撮影部と、
酒気帯び状態でない平常時における車両運転者の平常時画像又は平常時の生体データを保持する平常時データ保持手段と、
前記画像撮影部により撮影された画像及び当該画像を解析することにより得られる生体データと前記平常時データ保持手段に保持されている前記平常時画像又は前記平常時の生体データとを比較対照することにより車両運転者の酒気帯び度を検出するデータ処理部と、
を備えることを特徴とする酒気帯び検知システム。
An image capturing unit for capturing an image of the vehicle driver;
A normal data holding means for holding a normal image or normal biological data of a vehicle driver in a normal state that is not drunk;
Comparing and contrasting the image captured by the image capturing unit and the biometric data obtained by analyzing the image with the normal image or the normal biometric data stored in the normal data storage unit A data processing unit for detecting the degree of drunkness of the vehicle driver,
A drunkenness detection system characterized by comprising:
前記画像撮影部は、車両運転者の頭部及び頚部の画像を撮影するものであることを特徴とする請求項1に記載の酒気帯び検知システム。   The alcohol image detection system according to claim 1, wherein the image capturing unit captures images of a head and neck of a vehicle driver. 前記生体データと車両運転者の酒気帯び度とを関係付ける評価関数又は評価テーブルを保持する関係付けデータ保持手段を備え、
前記データ処理部は、前記関係付けデータ保持手段に保持されている前記評価関数又は前記評価テーブルを参照しつつ車両運転者の酒気帯び度を検出するものであることを特徴とする請求項1又は請求項2に記載の酒気帯び検知システム。
An association data holding means for holding an evaluation function or an evaluation table for relating the biometric data and the degree of drunkenness of the vehicle driver;
The said data processing part detects the drunkness degree of a vehicle driver, referring to the said evaluation function or the said evaluation table currently hold | maintained at the said correlation data holding means, The claim 1 characterized by the above-mentioned. The drunk detection system according to claim 2.
車両運転者の酒気帯び度に基づいて、車両の動作制御に関する指示信号を出力する伝達部を備えていることを特徴とする請求項1から請求項3のいずれか一項に記載の酒気帯び検知システム。   4. The alcohol detection according to claim 1, further comprising: a transmission unit that outputs an instruction signal relating to vehicle operation control based on a degree of alcohol consumption of the vehicle driver. 5. system. 前記画像撮影部の撮影特性についてキャリブレーションを行う撮影キャリブレーション手段を備えていることを特徴とする請求項1から請求項4のいずれか一項に記載の酒気帯び検知システム。   The drunk detection system according to any one of claims 1 to 4, further comprising photographing calibration means for calibrating photographing characteristics of the image photographing unit. 前記評価関数又は前記評価テーブルについてキャリブレーションを行う解析キャリブレーション手段を備えていることを特徴とする請求項3から請求項5のいずれか一項に記載の酒気帯び検知システム。   6. The drunkenness detection system according to claim 3, further comprising an analysis calibration unit configured to calibrate the evaluation function or the evaluation table. 車両運転者の画像を撮影する画像撮影工程と、
撮影された画像及び当該画像を解析することにより得られる生体データと酒気帯び状態でない平常時における車両運転者の平常時画像又は平常時の生体データとを比較対照することにより車両運転者の酒気帯び度を検出するデータ処理工程と、
を備えることを特徴とする酒気帯び検知方法。
An image capturing process for capturing an image of the vehicle driver;
By comparing and contrasting the captured image and the biometric data obtained by analyzing the image with the normal image or normal biometric data of the vehicle driver in a normal state that is not drunk, the driver's drunkness Data processing step to detect the degree,
A drunkenness detection method comprising:
前記画像撮影工程は、車両運転者の頭部及び頚部の画像を撮影することを特徴とする請求項7に記載の酒気帯び検知方法。   The drunkenness detection method according to claim 7, wherein the image capturing step captures images of a head and a neck of a vehicle driver. 前記データ処理工程は、前記生体データと車両運転者の酒気帯び度とを関係付ける評価関数又は評価テーブルを参照しつつ車両運転者の酒気帯び度を検出することを特徴とする請求項7又は請求項8に記載の酒気帯び検知方法。   8. The data processing step detects the degree of drunkenness of the vehicle driver while referring to an evaluation function or an evaluation table relating the biometric data and the drunkenness of the vehicle driver. Item 9. The method for detecting drunkenness according to Item 8. 車両運転者の酒気帯び度に基づいて、車両の動作制御に関する指示信号を出力する伝達工程を備えていることを特徴とする請求項7から請求項9のいずれか一項に記載の酒気帯び検知方法。   The detection of drunkness according to any one of claims 7 to 9, further comprising a transmission step of outputting an instruction signal related to vehicle operation control based on a degree of drunkness of the vehicle driver. Method. 画像撮影における撮影特性についてキャリブレーションを行う撮影キャリブレーション工程を備えていることを特徴とする請求項7から請求項10のいずれか一項に記載の酒気帯び検知方法。   11. The method for detecting drunkenness according to any one of claims 7 to 10, further comprising a photographing calibration step for performing calibration on photographing characteristics in image photographing. 前記評価関数又は前記評価テーブルについてキャリブレーションを行う解析キャリブレーション工程を備えていることを特徴とする請求項9から請求項11のいずれか一項に記載の酒気帯び検知方法。   12. The method for detecting drunkenness according to any one of claims 9 to 11, further comprising an analysis calibration step of performing calibration on the evaluation function or the evaluation table.
JP2006123767A 2006-04-27 2006-04-27 Detection system for alcohol influence and method Pending JP2007295946A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006123767A JP2007295946A (en) 2006-04-27 2006-04-27 Detection system for alcohol influence and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006123767A JP2007295946A (en) 2006-04-27 2006-04-27 Detection system for alcohol influence and method

Publications (1)

Publication Number Publication Date
JP2007295946A true JP2007295946A (en) 2007-11-15

Family

ID=38765984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006123767A Pending JP2007295946A (en) 2006-04-27 2006-04-27 Detection system for alcohol influence and method

Country Status (1)

Country Link
JP (1) JP2007295946A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009148401A (en) * 2007-12-20 2009-07-09 Hochiki Corp Ethyl alcohol detector
JP2009173226A (en) * 2008-01-28 2009-08-06 Hochiki Corp Intoxicated driving prevention device
JP2009245393A (en) * 2008-03-31 2009-10-22 Shiseido Co Ltd Face imaging device and color measuring device
JP2009247473A (en) * 2008-04-03 2009-10-29 Hochiki Corp Ethyl alcohol detector
JP2009255864A (en) * 2008-04-21 2009-11-05 Suzuki Motor Corp Operator monitoring device
WO2012090361A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Measurement timing control device
JP2013046763A (en) * 2012-09-24 2013-03-07 Hochiki Corp Ethyl alcohol detector
WO2014030439A1 (en) * 2012-08-20 2014-02-27 オリンパス株式会社 Biological state-monitoring system, biological state-monitoring method, and program
JP2014201120A (en) * 2013-04-02 2014-10-27 本田技研工業株式会社 Vehicle control system
JP2016522730A (en) * 2013-06-26 2016-08-04 インテル コーポレイション Detection of pre-existing stroke risk index
JP2018515854A (en) * 2015-05-21 2018-06-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Identification of living skin tissue in video sequences
KR20200009699A (en) * 2018-07-19 2020-01-30 서울시립대학교 산학협력단 Drunken Driving Detecting Apparatus
KR102088590B1 (en) * 2019-01-24 2020-04-23 예관희 Safety driving system having drunken driving preventing function
WO2020152678A1 (en) * 2019-01-22 2020-07-30 Adam Cogtech Ltd. Detection of cognitive state of a driver
CN111671408A (en) * 2020-07-07 2020-09-18 方滨 User drinking safety monitoring method, user terminal and server
JP2020152133A (en) * 2019-03-18 2020-09-24 三菱電機株式会社 Driver state determination device and driver state determination method
JP2020161174A (en) * 2014-08-27 2020-10-01 日本電気株式会社 Information processing device and recognition support method
CN111904376A (en) * 2019-05-09 2020-11-10 钜怡智慧股份有限公司 Image type drunk driving judging system and related method
WO2021044249A1 (en) * 2019-09-06 2021-03-11 株式会社半導体エネルギー研究所 Information processing device
KR102315493B1 (en) * 2021-02-04 2021-10-21 김병석 System for measuring drinking and method thereof
KR102335156B1 (en) * 2021-03-18 2021-12-03 주식회사 나우시스템 Intelligent system and method for preventing safety accidents
CN113879317A (en) * 2020-07-02 2022-01-04 丰田自动车株式会社 Driver monitoring device
JP2022023895A (en) * 2015-04-10 2022-02-08 アルブーゾフ,イワン Multi-sensor modular subject observation and monitoring system

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009148401A (en) * 2007-12-20 2009-07-09 Hochiki Corp Ethyl alcohol detector
JP2009173226A (en) * 2008-01-28 2009-08-06 Hochiki Corp Intoxicated driving prevention device
JP2009245393A (en) * 2008-03-31 2009-10-22 Shiseido Co Ltd Face imaging device and color measuring device
JP2009247473A (en) * 2008-04-03 2009-10-29 Hochiki Corp Ethyl alcohol detector
JP2009255864A (en) * 2008-04-21 2009-11-05 Suzuki Motor Corp Operator monitoring device
WO2012090361A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Measurement timing control device
WO2014030439A1 (en) * 2012-08-20 2014-02-27 オリンパス株式会社 Biological state-monitoring system, biological state-monitoring method, and program
JP2013046763A (en) * 2012-09-24 2013-03-07 Hochiki Corp Ethyl alcohol detector
JP2014201120A (en) * 2013-04-02 2014-10-27 本田技研工業株式会社 Vehicle control system
JP2016522730A (en) * 2013-06-26 2016-08-04 インテル コーポレイション Detection of pre-existing stroke risk index
US9579067B2 (en) 2013-06-26 2017-02-28 Intel Corporation Detection of a leading stroke risk indicator
JP2020161174A (en) * 2014-08-27 2020-10-01 日本電気株式会社 Information processing device and recognition support method
US11915516B2 (en) 2014-08-27 2024-02-27 Nec Corporation Information processing device and recognition support method
JP7031697B2 (en) 2014-08-27 2022-03-08 日本電気株式会社 Information processing device and recognition support method
US11580720B2 (en) 2014-08-27 2023-02-14 Nec Corporation Information processing device and recognition support method
JP2022023895A (en) * 2015-04-10 2022-02-08 アルブーゾフ,イワン Multi-sensor modular subject observation and monitoring system
JP2018515854A (en) * 2015-05-21 2018-06-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Identification of living skin tissue in video sequences
KR20200009699A (en) * 2018-07-19 2020-01-30 서울시립대학교 산학협력단 Drunken Driving Detecting Apparatus
KR102077785B1 (en) * 2018-07-19 2020-04-02 서울시립대학교 산학협력단 Drunken Driving Detecting Apparatus
WO2020152678A1 (en) * 2019-01-22 2020-07-30 Adam Cogtech Ltd. Detection of cognitive state of a driver
KR102088590B1 (en) * 2019-01-24 2020-04-23 예관희 Safety driving system having drunken driving preventing function
JP2020152133A (en) * 2019-03-18 2020-09-24 三菱電機株式会社 Driver state determination device and driver state determination method
JP7151571B2 (en) 2019-03-18 2022-10-12 三菱電機株式会社 DRIVER'S STATE DETERMINATION DEVICE AND DRIVER'S STATE DETERMINATION METHOD
CN111904376A (en) * 2019-05-09 2020-11-10 钜怡智慧股份有限公司 Image type drunk driving judging system and related method
WO2021044249A1 (en) * 2019-09-06 2021-03-11 株式会社半導体エネルギー研究所 Information processing device
JP2022012858A (en) * 2020-07-02 2022-01-17 トヨタ自動車株式会社 Driver monitoring device
CN113879317A (en) * 2020-07-02 2022-01-04 丰田自动车株式会社 Driver monitoring device
JP7327301B2 (en) 2020-07-02 2023-08-16 トヨタ自動車株式会社 Driver monitoring device
CN113879317B (en) * 2020-07-02 2023-08-22 丰田自动车株式会社 driver monitoring device
CN111671408B (en) * 2020-07-07 2023-05-30 方滨 User drinking safety monitoring method, user terminal and server
CN111671408A (en) * 2020-07-07 2020-09-18 方滨 User drinking safety monitoring method, user terminal and server
KR102315493B1 (en) * 2021-02-04 2021-10-21 김병석 System for measuring drinking and method thereof
KR102335156B1 (en) * 2021-03-18 2021-12-03 주식회사 나우시스템 Intelligent system and method for preventing safety accidents

Similar Documents

Publication Publication Date Title
JP2007295946A (en) Detection system for alcohol influence and method
CN106716515B (en) Driver condition assessment device
JP6763719B2 (en) Biometric information measuring device, biometric information measuring method and program
CN105144199B (en) Support occupant&#39;s monitoring system based on imaging device of multiple functions
US10595732B2 (en) Pulse wave detection device and pulse wave detection program
JP6329696B2 (en) Biological information analysis system
US20140275948A1 (en) Information terminal device
JPWO2006064635A1 (en) Diagnostic system
WO2010035472A1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JPWO2007043328A1 (en) Data detection apparatus and data detection method
JP4793269B2 (en) Sleepiness detection device
CN112097916B (en) Medical epidemic prevention temperature measurement system and method
WO2013157466A1 (en) Smoking detection device, method and program
JP6651911B2 (en) Face image processing device
JP6455761B2 (en) Pulse wave detection device and pulse wave detection program
JP4765531B2 (en) Data detection apparatus and data detection method
JP4585553B2 (en) apparatus
JP4024727B2 (en) Sleepiness detection device
WO2020148697A2 (en) Method and system for monitoring a person using infrared and visible light
RU2413632C2 (en) Method to prevent driver falling asleep
JP2019083019A (en) Driver state determination device
KR20140057867A (en) System for mearsuring stress using thermal image
JP2008183933A (en) Noctovision equipment
JP2009031004A (en) Potation determiner and program
TWI447659B (en) Alignment method and alignment apparatus of pupil or facial characteristics