JP2005338934A - In-vehicle communication device - Google Patents
In-vehicle communication device Download PDFInfo
- Publication number
- JP2005338934A JP2005338934A JP2004153345A JP2004153345A JP2005338934A JP 2005338934 A JP2005338934 A JP 2005338934A JP 2004153345 A JP2004153345 A JP 2004153345A JP 2004153345 A JP2004153345 A JP 2004153345A JP 2005338934 A JP2005338934 A JP 2005338934A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- mind
- video signal
- state
- vehicle communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- DFJAJPWDTLFRMC-UHFFFAOYSA-N CCC1=NCC=C1 Chemical compound CCC1=NCC=C1 DFJAJPWDTLFRMC-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、 運転者の心身状態を検出し、検出された心身状態を運転者以外の乗員に通知する車両内コミュニケーション装置に関する。 The present invention relates to an in-vehicle communication device that detects a driver's mind-body condition and notifies the detected mind-body condition to an occupant other than the driver.
近年、運転者が陥る居眠り運転が、社会的にも大きな問題となっており、この居眠り運転を防止するための装置が考案、実施されている。例えば、遠隔地にいるオペレータが、運転者の居眠り状態を確実に把握できるようにし、運転者に対して十分な安全指導を行えるようにした居眠り運転防止システムが考案されている(特許文献1参照。)。 In recent years, a nap driving that a driver falls into has become a big social problem, and an apparatus for preventing the napping driving has been devised and implemented. For example, a drowsy driving prevention system has been devised that enables an operator in a remote location to reliably grasp the driver's drowsiness state and provide sufficient safety guidance to the driver (see Patent Document 1). .)
この特許文献1に記載された居眠り運転防止システムは、主局である車両管理側システムと、従局である車両側システムとから構成される。車両側システムは、車両管理側システムとデータ通信を行うデータ送受信手段と、車両の運転者の顔の表情を画像データとして入力する画像入力手段と、画像データの送信条件が成立したか否かを判断する送信条件判断手段と、運転者に注意を喚起すべく警告を行う警告手段と、車両管理側システムからの作動信号に基づき警告手段を作動させる警告作動手段とを含んで構成される。一方、車両管理側システムは、複数の車両側システムとデータ通信を行うデータ送受信手段と、車両側システムから送信された画像データを表示する画像データ表示手段と、データ送受信手段を介して車両側システムにおける警告手段を遠隔作動させる遠隔作動手段とを含んで構成される。 The doze driving prevention system described in Patent Document 1 includes a vehicle management system that is a master station and a vehicle system that is a slave station. The vehicle-side system includes data transmission / reception means for performing data communication with the vehicle management-side system, image input means for inputting facial expressions of the driver of the vehicle as image data, and whether or not a transmission condition for the image data is satisfied. The transmission condition determining means for determining, the warning means for giving a warning to alert the driver, and the warning operating means for operating the warning means based on the operation signal from the vehicle management system are configured. On the other hand, the vehicle management side system includes a data transmission / reception unit that performs data communication with a plurality of vehicle side systems, an image data display unit that displays image data transmitted from the vehicle side system, and a vehicle side system via the data transmission / reception unit. And remote operating means for remotely operating the warning means.
このような構成の技術によれば、車両側システムにおいて、画像データの送信条件が成立したときに、運転者の顔の表情を画像データとして入力し、この画像データが自動的に車両管理側システムに送信される。そして、車両管理側システムにおいて、車両側システムから送信された画像データを表示して、この表示データに基づいて運転者の疲労状況、即ち、居眠りに陥りそうか否かを判断し、必要に応じて車両側システムの警告手段を遠隔作動させる。 According to the technology having such a configuration, when a transmission condition for image data is satisfied in the vehicle side system, the facial expression of the driver is input as image data, and this image data is automatically input to the vehicle management side system. Sent to. Then, in the vehicle management system, the image data transmitted from the vehicle system is displayed, and based on this display data, it is determined whether the driver is fatigued, that is, whether he / she is likely to fall asleep. To remotely activate the warning means of the vehicle side system.
ここで、車両側システムは、現時刻に基づいてマップを参照して、画像データの送信時間を設定し、設定された画像データの送信時間になったときに、画像データの送信条件が成立したと判断する。このとき、車両管理側システムから車両側システムへは、送信指示信号が送信され、車両側システムにて画像データの送信条件が成立したと判断する。このように構成することにより、車両管理側システムは、運転者の状況を確認したいときに、車両側システムに画像データの送信指示指令を送信し、車両側システムにおいて、画像データ送信条件が成立したと判断される。 Here, the vehicle-side system refers to the map based on the current time, sets the image data transmission time, and when the set image data transmission time is reached, the image data transmission condition is satisfied. Judge. At this time, a transmission instruction signal is transmitted from the vehicle management side system to the vehicle side system, and it is determined that the transmission condition of the image data is satisfied in the vehicle side system. With this configuration, the vehicle management side system transmits an image data transmission instruction command to the vehicle side system when the driver's situation is to be confirmed, and the image data transmission condition is satisfied in the vehicle side system. It is judged.
また、車両側システムは、車両の現在位置を測定し、測定された車両の現在位置に基づいてマップを参照して特定ルートの走行中か否かを判断する。特定ルート走行中であり、かつ、特定ルートの走行を開始してから所定時間経過毎に、画像データの送信条件が成立したと判断する。そして、車両側システムは、車両の走行速度を検出し、検出された車速に基づいてマップを参照して単調走行か否かを判断し、単調走行中であり、かつ単調走行を開始してから所定時間経過毎に、画像データの送信条件が成立したと判断する。このように、運転者が他者とコミュニケーションを取るといった行為は、居眠りだけに留まらず、他の心身的異常状態を矯正する効果がある。
上述の特許文献1に示された居眠り運転防止システムは、運転者が居眠りをしそうな時間帯、場面になると運転者の顔画像を遠隔地にいるオペレータに送信し、送信された顔画像をオペレータが判断して、運転者に対して警告をするというシステムである。 The doze driving prevention system disclosed in Patent Document 1 described above transmits a driver's face image to an operator at a remote place when the driver is likely to fall asleep during a time period or scene, and the transmitted face image is transmitted to the operator. This is a system that judges and warns the driver.
しかしながら、居眠りが起こりそうな時間や場面になると運転者の顔画像を遠隔地にいるオペレータの元に送信して運転者が居眠りをしているか否かを判断して警報を行うように構成されているので、複数の運転者の顔画像を同時に監視する必要があり、実際になんらかの異常事態に陥り、居眠りをしている運転者を見過ごしてしまう可能性があり、確実性に欠けるといった問題がある。すなわち、本当に居眠りをしている、すなわち異常状態に陥っている運転者が他にいても、オペレータにはそのことが判らず他の運転者の様子を監視するという問題を起こす可能性がある。 However, when it is time or scene where a nap is likely to occur, the driver's face image is transmitted to an operator at a remote location to determine whether or not the driver is asleep and issue an alarm. Therefore, it is necessary to monitor multiple driver's face images at the same time, there is a possibility that it will actually fall into some abnormal situation, overlook the driver who is asleep, and lack of certainty is there. That is, even if there are other drivers who are really dozing, that is, in an abnormal state, there is a possibility that the operator does not know that and monitors the situation of other drivers.
また、オペレータは、送信された顔画像によってのみ居眠り状態を判定するため、オペレータ個人の主観によるところが大きく、居眠り状態であるとする判定の基準に、オペレータ同士で相違がでてしまうといった問題もある。また、オペレータの判定基準を統一するためには、オペレータを専門的に教育する必要があるため、システムを稼働させるまでに多大なコストが必要となってしまうといった問題がある。 In addition, since the operator determines the dozing state only by the transmitted face image, there is a problem that the operator is largely dependent on the subjectivity of the operator, and there is a difference between the operators in the criteria for determining that the operator is dozing. . In addition, in order to unify the operator's judgment criteria, it is necessary to educate the operator professionally, so that there is a problem that a great amount of cost is required before the system is operated.
そこで、本発明は、上述したような問題を解決するために案出されたものであり、運転者の心身状態に応じて、同一車両に乗車している乗員と運転者との車両内コミュニケーションを運転者の運転操作を阻害することなく円滑に支援することができる車両内コミュニケーション装置を提供することを目的とする。 Therefore, the present invention has been devised to solve the above-described problems, and in-vehicle communication between a passenger and a driver who are in the same vehicle is performed according to the mental and physical state of the driver. It is an object of the present invention to provide an in-vehicle communication device that can smoothly support a driver without obstructing the driving operation.
本発明は、車両に搭載される車両内コミュニケーション装置であって、車両の運転操作を行う運転者の顔を撮像する撮像手段と、運転者の心身状態を検出する心身状態検出手段と、心身状態検出手段によって検出された運転者の心身状態に基づいて、運転者の心身状態が異常か否かを判定する判定手段と、外部機器から供給される映像信号を入力する入力手段と、入力手段によって入力された映像信号に基づく映像を表示する表示手段とを備える。 The present invention is an in-vehicle communication device mounted on a vehicle, the imaging means for imaging the face of the driver who performs the driving operation of the vehicle, the mind-body state detecting means for detecting the mind-body state of the driver, and the mind-body state Based on the driver's mind-body state detected by the detector, the determination means for determining whether the driver's mind-body state is abnormal, the input means for inputting a video signal supplied from an external device, and the input means Display means for displaying video based on the input video signal.
このような構成において、制御手段は、判定手段によって運転者の心身状態に異常があると判定された場合に、入力手段によって入力された映像信号と、撮像手段によって撮像された運転者の顔の映像信号とを合成し、合成された映像信号を表示手段で表示させるように制御することにより、運転者の顔の映像を運転者以外の乗員に視認させることによって、上述の課題を解決する。 In such a configuration, when the determination unit determines that the driver's mind and body condition is abnormal by the determination unit, the control unit detects the video signal input by the input unit and the driver's face imaged by the imaging unit. The above-mentioned problem is solved by causing the occupant other than the driver to visually recognize the video of the driver's face by combining the video signal and controlling the video signal to be displayed on the display means.
本発明に係る車両内コミュニケーション装置によれば、運転者の心身状態が異常状態である場合に、運転者の顔を運転者以外の乗員に視認させるので、乗員が他の映像を視認している場合であっても同一車両に乗車している乗員と運転者との車両内コミュニケーションを運転者の運転操作を阻害することなく円滑に支援することができる。 According to the in-vehicle communication device according to the present invention, when the driver's mind and body state is abnormal, the driver's face is visually recognized by an occupant other than the driver, so the occupant is viewing other images. Even in this case, it is possible to smoothly support in-vehicle communication between an occupant and a driver who are in the same vehicle without obstructing the driving operation of the driver.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
第1実施形態に係る車両内コミュニケーション装置10は、図1及び図2に示すように、運転者の顔を撮像するカメラ1と、カメラ1で撮像した顔画像データから、車両100の運転操作を行う運転者の心身状態を検出し、車両100の運転に適しているかどうかを判定するマイクロコンピュータ2と、ナビゲーションシステムの地図情報や、テレビ、ビデオといった映像ソースなどを出力表示する他、上述したマイクロコンピュータ2からの判定結果を出力表示するモニタ3とを備えている。
[First Embodiment]
As shown in FIGS. 1 and 2, the in-
カメラ1は、撮像手段であって、例えば、CCD(Charge Coupled Device)撮像素子を備えた小型形状の撮像装置である。図2に示すように、カメラ1は、車両100のインストルメントパネル101上に、運転者の顔の略正面が撮像できる位置に設置される。カメラ1によって撮像された運転者の顔画像データは、ディジタル画像データとして、マイクロコンピュータ2に送出される。
The camera 1 is an image pickup means, and is a small-sized image pickup device including, for example, a CCD (Charge Coupled Device) image pickup device. As shown in FIG. 2, the camera 1 is installed on the
マイクロコンピュータ2は、当該車両内コミュニケーション装置10の動作を統括的に制御する制御装置であり、上述したような運転者の心身状態の検出を行う心身状態検出手段、検出された状態に応じた運転可能か否かの判定を行う判定手段として機能し、所定のソフトウェアに基づいて実行する。また、マイクロコンピュータ2は、図示しないナビゲーションシステムからの地図情報、テレビチューナで受信されたテレビジョン信号、ビデオ再生装置から送出されたビデオ信号、ビデオゲーム機からのビデオゲーム信号といった外部機器からの映像信号を入力する図示しない外部映像入力ポートと、この外部映像入力ポートから入力される映像信号を用いて所定の画像処理を施してモニタ3に出力する図示しない映像出力ポートとを有している。
The
マイクロコンピュータ2には、通常、入力手段として機能し、外部映像入力ポートを介して、上述したような外部機器からの映像信号が供給されている。マイクロコンピュータ2は、この映像信号にモニタ3での出力表示が可能なように所定の画像処理を施し、映像出力ポートを介してモニタ3に出力している。
The
また、マイクロコンピュータ2は、カメラ1から送出された顔画像データから、運転者の心身状態が車両100を運転するのに適していないと判断した場合、この顔画像データを、モニタ3に表示可能な映像信号に変換する。そして、通常状態において出力される映像信号と合成し、映像出力ポートを介してモニタ3に送出するか、そのまま合成をせずに、外部からの映像信号の代わりに映像出力ポートを介して、モニタ3に送出するように映像切換制御する。これにより、マイクロコンピュータ2は、制御手段として機能する。
When the
モニタ3は、例えば、横方向に640画素、縦方向に480画素が表示可能な液晶ディスプレイ(LCD:Liquid Crystal Display)等からなる。このモニタ3は、上述したマイクロコンピュータ2の映像出力ポートに接続され、映像出力ポートを介して入力した映像信号を出力表示させる。なお、モニタ3の種別に限定されるものではなく、車両100に搭載して好適なように薄型であればよく、例えば、有機ELディスプレイ、無機ELディスプレイといったバックライト装置を必要としない自発光型の薄型のディスプレイなどであってもよい。
The
モニタ3は、運転者の視界に直接映像情報が入ってこない位置で且つ、運転者以外の乗員が、出力表示された映像情報を見ることができる位置に設置される。例えば、図2に示すように、モニタ3は、車両100の前部座席102の背面側で、後部座席103に搭乗する乗員が見やすい位置に設置されることになる。
The
通常、運転者以外の乗員は、このモニタ3を介して、車両100に搭載されたナビゲーションシステムからの情報を視認したり、テレビやビデオの視聴をしたり、ビデオゲームで遊んだりすることができる。また、モニタ3は、上述したように、マイクロコンピュータ2が、運転者の心身状態が車両100を運転するのに適していないと判断した場合には、マイクロコンピュータ2から送出される運転者の顔を表示して、運転者以外の乗員に通知することになる。
Usually, a passenger other than the driver can visually recognize information from a navigation system mounted on the
[車両内コミュニケーション装置10の動作]
つぎに、上述したように構成された車両コミュニケーション装置10の処理動作について図3に示すフローチャートを用いて説明をする。
[Operation of In-Vehicle Communication Device 10]
Next, the processing operation of the
この処理は、例えば車両100のIGNスイッチがオン状態とされることによってマイクロコンピュータ2に電源が投入されたことに応じて開始され、先ずステップS1において、カメラ1によって運転者の顔を撮像する。カメラ1によって撮像され、取得された顔画像データは、マイクロコンピュータ2に送出される。
This process is started in response to turning on the
次のステップS2において、マイクロコンピュータ2は、ステップS1で取得した顔画像データを使用して、運転者の心身状態を検出して異常状態を検出する運転者の異常状態検出処理を開始する。なお、この異常状態検出処理は、後で詳細に説明をする。
In the next step S2, the
次のステップS3において、マイクロコンピュータ2は、 ステップS2で検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるか否かを判定する。マイクロコンピュータ2は、運転者の心身状態が、車両100の運転に適した通常状態であると判定した場合は、ステップS1へと処理を戻し、車両100の運転に適さない異常状態であると判定した場合には、ステップS4へと処理を進める。運転者の異常状態が検出されず、ステップS3からステップS1へと処理が戻った場合には、マイクロコンピュータ2は、通常状態であるとして、映像出力ポートからモニタ3に外部機器からの映像信号を出力させる。なお、外部映像入力ポートにいずれの外部機器も接続されていない場合には、黒画面や、待機画面などをモニタ3に表示させる。
In the next step S <b> 3, the
次のステップS4において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出する。つまり、モニタ3の表示状態を検出する。
In the next step S4, the
次のステップS5において、マイクロコンピュータ2は、ステップS4の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS6へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS7へと進める。
In the next step S5, the
ステップS6において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して映像信号が入力されているので、当該映像信号に、カメラ1で撮像した顔画像データを割り込ませて合成する際の画像サイズを決定する。顔画像データの割り込み画像サイズの決定処理については、後で詳細に説明をする。
In step S6, since the video signal is input from the external device via the video signal input port, the
一方、ステップS7において、マイクロコンピュータ2は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、映像信号に、ステップS6において決定された画像サイズとなるように顔画像データから生成した映像信号を合成して、モニタ3に送出する。これに対し、ステップS5にて外部機器から映像信号の入力がないと判定された場合には、合成処理をすることなく、そのまま顔画像データをモニタ3に送出する。
On the other hand, in step S <b> 7, the
「運転者の異常状態検出処理」
ステップS2において、マイクロコンピュータ2によって実行される運転者の異常状態検出処理について説明をする。この運転者の異常状態とは、例えば、居眠り、脇見、漫然、怒り(イライラ)、過度の緊張といった、通常とは異なる冷静な判断を下すことのできない状態のことである。これらの異常状態を検出するための手法としては、例えば、以下に示すような、カメラ1で撮像され、マイクロコンピュータ2に入力された運転者の顔画像データを画像処理することで得られる情報に基づいて判定をする手法や、運転者の生体信号を検出し、この生体信号に基づいて判定する手法などを用いることができる。
"Driver abnormal state detection process"
The driver abnormal state detection process executed by the
顔画像データから画像処理により運転者の異常状態を検出する方法としては、例えば、居眠り状態を検出する手法、脇見を検出する手法、漫然運転を検出する手法、表情認識より怒りといったストレス状態を検出する手法などが挙げられる。このような既知の手法のうち、マイクロコンピュータ2は、何れかの手法を用いてもよい。
Examples of methods for detecting an abnormal state of a driver by image processing from face image data include a method for detecting a drowsiness state, a method for detecting a side look, a method for detecting abusive driving, and a stress state such as anger rather than facial expression recognition. And the like. Among such known methods, the
一例として、運転者の居眠り状態を検出する手法について説明をする。まず、マイクロコンピュータ2は、顔画像データから画像処理によって特徴量を抽出することで、運転者の眼の位置を検出し、さらに、眼が閉じられている時間である閉眼時間を測定する。
As an example, a method for detecting the driver's dozing state will be described. First, the
通常、閉眼時間は、短時間閉眼、中時間閉眼、長時間閉眼に大別することができ、心身正常状態である覚醒時、心身異常状態である覚低時においてそれぞれ異なる傾向で現れることになる。多少の個人差はあるが、通常、正常状態である場合は、眼を閉じている時間が少なく、短時間閉眼を多く繰り返すことになる。また、中時間閉眼は、居眠りに突入しそうな状態のときに最も頻繁に生ずることになる。長時間閉眼は、よほどの状態でない限り生ずることがない。このような一般的な閉眼時間の傾向を参酌しながら、毎回の閉眼時間長、運転者の状態、運転者の環境などを考慮して、居眠り評価基準の重みを変化させることで、閉眼時間に応じた高精度の居眠り状態の検出を実行することができる。 Normally, eye closure time can be broadly classified into short-term, middle-time, and long-term eye closures, and will appear with different tendencies during arousal, which is a normal state of mind and body, and during hypotension, which is a state of mind and body abnormality. . Although there are some individual differences, normally, in the normal state, the eye is closed for a short time and the eye is closed frequently for a short time. In addition, middle-time eye closure occurs most frequently when the person is about to fall asleep. Long-term closed eyes do not occur unless they are in good condition. By taking into account the general tendency of eye closure time, taking into account the length of each eye closure time, the driver's condition, the driver's environment, etc. The detection of the dozing state can be executed with high accuracy.
また、運転者の生体信号から運転者の異常状態を検出する手法についても、様々な手法が考案、実施されており、既知の手法のいずれを用いても良い。 Various methods have been devised and implemented for detecting the driver's abnormal state from the driver's biological signal, and any known method may be used.
例えば、運転者の生体信号としては、運転者の心拍数、脳波、発汗量、頭部の振動、皮膚電位、皮膚電気抵抗、瞬目、身体加速度、運転者とバックシート間の圧力といった体圧などがあり、それぞれの測定値によって、運転者の緊張度などを検出することができる。この生体信号から求められる緊張度の度合いによって、運転者の心身の異常状態を検出することができる。 For example, the driver's biological signals include the driver's heart rate, brain waves, sweat volume, head vibration, skin potential, skin electrical resistance, blink, body acceleration, and body pressure such as the pressure between the driver and the back seat. The driver's tension can be detected by the measured values. The abnormal state of the driver's mind and body can be detected based on the degree of tension obtained from the biological signal.
具体的には、マイクロコンピュータ2は、図4に示すように、ステアリングハンドル104に備えられた検出電極104a,104bから、運転者の心拍数などの生体信号を検出し、検出した生体信号レベルに応じて、異常状態を判定することになる。これにより、マイクロコンピュータ2は、生体情報検出手段として機能する。
Specifically, as shown in FIG. 4, the
マイクロコンピュータ2は、実際には、心拍数、脳波、発汗量、居眠り、脇見、漫然、怒り(イライラ)、過度の緊張といった全ての異常状態を検出するわけではなく、何れかの異常状態を検出できた場合に、ステップS3の処理へと進み、運転に適した状態であるか否かを判定することになる。したがって、マイクロコンピュータ2は、少なくとも顔画像データから異常状態を検出する手法、又は、生体信号から異常状態を検出する手法の何れかを実行できればよい。この2つの手法を同時に行う場合は、処理負荷がかかってしまうが、精度を向上させることができる。なお、上述した手法以外にも、運転者の異常状態を検出する手法を柔軟に取り入れて対応することもできる。
In fact, the
「顔画像データの割り込みサイズの決定処理」
つぎに、ステップS6において実行される顔画像データの割り込みサイズの決定処理について説明をする。
"Face image data interrupt size determination process"
Next, the process for determining the interrupt size of face image data executed in step S6 will be described.
例えば、マイクロコンピュータ2は、ステップS2,S3の運転者の異常状態検出、判定処理において、運転者の異常状態を大レベル、中レベル、小レベルの3段階のレベルの何れかであるかを判定する。このように異常状態をレベル毎に判定する場合、時間変化と共に、ステップS2,S3で検出して判定される異常状態が小レベル→中レベル→大レベルへと遷移するに従って、緊急性、速報性が高くなる。
For example, the
例えば、モニタ3に図5(a)に示すようなナビゲーションシステムよりマイクロコンピュータ2に入力された地図情報から生成された地図画像MGが表示されているとする。ステップS2,S3で、マイクロコンピュータ2は、検出した運転者の異常状態が小レベルであると判定した場合、図5(b)に示すように、顔画像FGのサイズを、地図画像MGの画像サイズの、例えば、1/4以下程度に決定し、地図画像MG上に割り込ませる。さらに、マイクロコンピュータ2は、運転者の異常状態を中レベルと判定した場合、図5(c)に示すように、顔画像FGのサイズを、地図画像MGのサイズと均等になるように決定し、地図画像MG上に割り込ませる。さらに、マイクロコンピュータ2は、運転者の異常状態を大レベルと判定した場合、図5(d)に示すように顔画像FGをモニタ3上の略全面に表示させ、地図画像MGのサイズを、顔画像FGの例えば1/4以下程度に決定する。すなわち、図5(b)における地図画像MGと、顔画像FGとが入れ替わった状態の画像である。
For example, it is assumed that a map image MG generated from the map information input to the
また、異常状態が継続するような場合、異常状態のレベルが遷移しなくとも、顔画像FGのサイズを図5(b)→図5(c)→図5(d)のように変化させて、異常状態を強調するようにしてもよい。さらに、モニタ3の表示状態が、図5(d)に示すような状態を継続してしまう場合には、図5(e)に示すように、地図画像MGを全く表示させず、運転者の顔画像FGのみを全面に表示させ、異常状態を強調するようにしてもよい。
If the abnormal state continues, the size of the face image FG is changed as shown in FIG. 5 (b) → FIG. 5 (c) → FIG. 5 (d) even if the level of the abnormal state does not change. The abnormal state may be emphasized. Furthermore, when the display state of the
なお、一例として、地図情報から生成された地図画像MGをモニタ3上に表示させる場合について説明をしたが、マイクロコンピュータ2は、外部機器から入力される映像信号の種別によらず、上述したの手法と同様にして顔画像データの割り込みサイズを決定し、モニタ3から出力表示させるようにする。
Note that, as an example, the case where the map image MG generated from the map information is displayed on the
[第1実施形態の効果]
以上詳細に説明したように、本発明を適用した第1実施形態に係る車両内コミュニケーション装置10によれば、通常状態において運転者以外の乗員が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を強制的に割り込ませるので、乗員にいち早く運転者の心身状態を通知することができる。これに応じて、乗員と運転者とのコミュニケーションを円滑に誘発させて、運転者の異常状態の継続を防止することができる。すなわち、同乗者が顔画像ではない他の映像を楽しんでいる場合であっても、当該映像の全部又は一部に顔画像を割り込ませることによって、同乗者と運転者の円滑なコミュニケーションを誘発させることができる。
[Effect of the first embodiment]
As described above in detail, according to the in-
また、この車両内コミュニケーション装置10によれば、顔画像データを画像処理して、運転者の居眠り、脇見、漫然状態、怒り(イライラ)、過度な緊張の少なくとも1つを検出し、何れかの状態に陥っていると判断した場合に、運転者が異常状態にあると判定するので、運転者の異常状態を的確に検出することができる。
In addition, according to the in-
更に、この車両内コミュニケーション装置10によれば、運転者の心拍、脳波、発汗量などの生体信号を収集して、運転者が異常である状態を判断するので、運転者の異常状態を的確に検出することができる。
Furthermore, according to this in-
更にまた、この車両内コミュニケーション装置10によれば、運転者の異常状態のレベルが高い場合は、元の映像情報よりも運転者の顔画像サイズの方を大きくし、運転者の異常状態のレベルが小さい場合は、元の映像情報よりも運転者の顔画像サイズの方を小さくするので、異常状態のレベルに応じたコミュニケーションを円滑に誘発させることができる。
Furthermore, according to this in-
[第2実施形態]
つぎに、本発明を適用した第2実施形態に係る車両内コミュニケーション装置20について説明する。
[Second Embodiment]
Next, an in-
この車両内コミュニケーション装置20は、図6に示すように、カメラ1と、マイクロコンピュータ12と、モニタ3とを備え、図1及び図2を用いて説明をした車両内コミュニケーション装置10のマイクロコンピュータ2をマイクロコンピュータ12に代えた以外は全く同じ構成である。したがって、車両内コミュニケーション装置10と同じ機能部には、同一符号を付し説明を省略する。
As shown in FIG. 6, the in-
マイクロコンピュータ12は、上述したマイクロコンピュータ2が備える運転者の心身状態を検出し、運転可能か否かを検出する運転状態検出機能を始めとする全ての機能の他に、運転者を特定する運転者特定機能と、特定された運転者の人物情報と、運転者の心身状態とからモニタ3上に出力表示させる文字情報を生成する文字情報生成機能とをさらに備える。マイクロコンピュータ2は、これらの各種機能をソフトウェアに基づいて実行することにより、運転者人物特定部21、運転状態検出部22及び文字情報生成部23の各部を備えることになる。
The
この車両コミュニケーション装置20の処理動作は、図7に示すように、先ずステップS11において、カメラ1によって運転者の顔を撮像して、顔画像データを、マイクロコンピュータ12に送出する。
In the processing operation of the
次のステップS12において、マイクロコンピュータ12の運転者人物特定部21は、予め登録されている人物のうち、車両100を運転している運転者を特定し、当該特定した運転者の人物情報を取得する運転者特定処理を実行する。なお、運転者特定処理については後述する。
In the next step S12, the driver
次のステップS13において、マイクロコンピュータ12の運転状態検出部22は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。
In the next step S13, the driving
次のステップS14において、マイクロコンピュータ12は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるのか否かを判定する。運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS12へと戻し、運転に適さない異常状態であると判定した場合には、処理をステップS15へと進める。
In the next step S <b> 14, the
ステップS15において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出することで、モニタ3の表示状態を検出する。
In step S15, the
次のステップS16において、マイクロコンピュータ12は、ステップS15の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS17へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS18へと進める。
In the next step S16, the
ステップS17において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを、この映像信号が作る画像に割り込ませて合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明したので省略する。
In step S <b> 17, the
次のステップS18において、マイクロコンピュータ12の文字情報生成部23は、ステップS12において取得された運転者の人物情報と、ステップS13,S14で検出、判定された運転者の心身状態から、モニタ3上に出力表示させるための運転者を示す文字を組み込んだ文字列である文字情報を生成する。この文字情報生成処理については後述する。
In the next step S18, the character
次のステップS19において、マイクロコンピュータ12は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、映像信号にステップS17において決定された画像サイズとなるように顔画像データから生成した映像信号を合成し、さらに、ステップS18で生成した文字情報を付加して、モニタ3に送出する。
In the next step S <b> 19, the
また、外部機器から映像信号の入力がない場合には、映像信号の合成処理をすることなく、顔画像データから生成された映像信号に、ステップS18で生成された文字情報を付加してモニタ3に送出する。
When no video signal is input from the external device, the character information generated in step S18 is added to the video signal generated from the face image data without performing the video signal synthesis process, and the
「運転者特定処理」
つぎに、ステップS12において、運転者人物特定部21により実行される運転者特定処理について説明をする。
"Driver specific processing"
Next, driver identification processing executed by the driver
運転者人物特定部21によって運転者を特定するには、様々な手法があるが、本例では、カメラ1で撮像された顔画像データと、予め登録してデータベース化しておいた顔画像の特徴情報とを照合処理することで運転者を特定する。マイクロコンピュータ12は、運転者が特定されると、データベースから特定された運転者の人物情報を読み出して取得する。また、このように顔画像データを用いずに、他のバイオメトリックス、例えば指紋情報や、声紋情報といった、運転者固有の生態情報を取得して、マイクロコンピュータ12によって照合処理をすることで、運転者を特定しても良い。
There are various methods for specifying the driver by the driver
そして、マイクロコンピュータ12は、運転者が特定されると、データベースから特定された運転者の人物情報を読み出して取得する。この場合、図7に示したフローチャートのように、顔画像データを取得する必要がないため、ステップS11とステップS12との順序を入れ替えるようにしてもよい。
And if the driver | operator is specified, the
上述した手法は、いずれも生体情報を取得してから、マイクロコンピュータ12によってほぼ自動的に運転者を特定するようになっているが、例えば、スイッチなどに運転者となりうる人物を登録しておき、運転者となった人物が、運転時には、そのスイッチを入力することで、マイクロコンピュータ12に運転者の人物情報を通知するといった、手動式の認証方法も適用することができる。
In any of the above-described methods, the driver is identified almost automatically by the
「文字情報生成処理」
つぎに、ステップS18において実行される文字情報生成処理について説明をする。
"Character information generation process"
Next, the character information generation process executed in step S18 will be described.
このステップS18の文字情報生成処理において、マイクロコンピュータ12は、ステップS12の運転者特定処理によって得られた人物情報から、人物名又は人物を特定できる呼称(ニックネームや、お父さん、お母さんといった家族称)を決定し、ステップS13及びステップS14の運転者の異常状態検出及び判定処理によって判定される運転者の異常状態のレベルに応じて、決定した人物名、呼称を組み込んだ文字情報を生成する。
In the character information generation process of step S18, the
例えば、マイクロコンピュータ12は、異常状態が小レベルの場合、モニタ3を見ている乗員に対して、運転者との会話を促すような”○○さんとお話ししましょう”というような文字情報を生成して、当該文字情報を映像情報に付加してモニタ3に出力表示させる。
For example, when the abnormal state is at a low level, the
また、マイクロコンピュータ12は、異常状態が中レベルの場合、モニタ3を見ている同乗者に対して、注意を喚起するような”○○さんが退屈しています。気をつけてあげてください”というような文字情報を生成し、当該文字情報を映像情報に付加してモニタ3に出力表示させる。
Also, when the abnormal state is medium level, the
さらにまた、マイクロコンピュータ12は、異常状態が大レベルの場合、モニタ3を見ている同乗者に対して、直接的に注意をするような”○○さんが眠そうです。注意してあげてください。”というような文字情報を生成し、当該文字情報を映像情報に付加してモニタ3に出力表示させる。
Furthermore, when the abnormal state is at a high level, the
具体的には、文字情報生成部23は、図8(a)乃至(f)のように映像情報に文字情報MJが付加されてモニタ3に出力表示させることになる。図8(a),(b),(c)は、マイクロコンピュータ12に、外部機器からの映像信号、ここではナビゲーションシステムからの地図情報MGに基づいた映像信号が入力されている場合の例であり、図8(d),(e),(f)は、マイクロコンピュータ12に、外部機器からの映像信号入力がない場合の例である。
Specifically, the character
また、文字情報生成部23は、運転者の異常状態のレベルが、小レベル→中レベル→大レベルと変化することに応じて、図8(a)→図8(b)→図8(c)若しくは図8(d)→図8(e)→図8(f)の順序でモニタ3上に出力表示される画像及び文字情報を変化させても良い。
In addition, the character
また、マイクロコンピュータ12は、ステップS12の運転者特定処理において運転者を特定できなかった場合、”○○”さんという固有名詞を”運転者”、”ドライバー”といった普通名詞にしたり、呼称を付加せずに異常状態にレベルに応じた文字情報のみを生成しても良い。
If the
[第2実施形態の効果]
以上詳細に説明したように、第2実施形態に係る車両内コミュニケーション装置20によれば、通常状態で、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を割り込ませると共に、当該映像に文字情報を付加するので、的確に運転者の心身状態がどのような状態かを同乗者に通知することができる。これに応じて、乗員は、運転者とのコミュニケーションを開始することで、運転者の異常状態が継続することを未然に防止することができる。
[Effects of Second Embodiment]
As described above in detail, according to the in-
また、この車両内コミュニケーション装置20によれば、運転者の人物特定を行った上で、当該特定された人物の呼称を文字情報に含めて同乗者に提示するので、更に同乗者とドライバのコミュニケーションを更に円滑に誘発させることができる。
Further, according to this in-
更にまた、この車両内コミュニケーション装置20によれば、カメラ1によって取得した顔画像データと、予めデータベース化しておいた画像データとを照合して人物特定を行うので、的確に運転者の人物特定を行うことができる。
Furthermore, according to this in-
[第3実施形態]
つぎに、第3実施形態に係る車両内コミュニケーション装置30について図9及び図10を用いて説明する。
[Third Embodiment]
Next, the in-
図9及び図10に示すように、車両内コミュニケーション装置30は、カメラ1と、マイクロコンピュータ2と、モニタ3と、マイク4と、スピーカ5とを備え、図1及び図2を用いて説明をした車両内コミュニケーション装置10にマイク4と、スピーカ5とを付加した以外は全く同じ構成である。したがって、車両内コミュニケーション装置10と同じ機能部には、同一符号を付し説明を省略する。
As shown in FIGS. 9 and 10, the in-
マイク4は、運転者以外の同乗者の音声を収音する。マイク4は、例えば、図10に示すように前部座席102の背面側の、後部座席103に搭乗する同乗者が発する声を収音しやすい位置に設置される。
The
スピーカ5は、マイク4で収音された同乗者の音声を、図示しない音声伝達回路を経由して運転者に対して出力する。スピーカ5は、例えば、図10に示すように運転者が着座する運転席のヘッドレスト105部分に設置される。
The
続いて、図11に示すフローチャートを用いて車両コミュニケーション装置30の処理動作について説明をする。
Next, the processing operation of the
ステップS21において、カメラ1によって運転者の顔が撮像され、取得された顔画像データは、マイクロコンピュータ2に送出される。
In step S <b> 21, the driver's face is imaged by the camera 1, and the acquired face image data is sent to the
次のステップS22において、マイクロコンピュータ2は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。
In the next step S22, the
次のステップS23において、マイクロコンピュータ2は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態か否かを判定する。マイクロコンピュータ2は、運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS24へと進め、運転に適さない異常状態であると判定した場合には、処理をステップS25へと進める。
In the next step S <b> 23, the
ステップS24において、運転者の心身状態が、車両100の運転に適した状態であると判定されたことに応じて、マイク4とスピーカ5とを接続する音声伝達回路をオフ状態にして機能を停止させて処理をステップS21へと戻し、通常状態であるとして、映像出力ポートからモニタ3に外部機器からの映像信号を出力させる。
In step S24, when it is determined that the state of mind of the driver is suitable for driving the
一方、ステップS25において、運転者の心身状態が、車両100の運転に適さない状態であると判定されたことに応じて、マイク4とスピーカ5とを接続する音声伝達回路をオン状態にし、機能をアクティブ状態とする。これにより、運転者以外の同乗者は、マイク4からスピーカ5を介して、運転者に対して自身の声を伝達することができる状態となる。例えば、同乗者は、マイク4から運転者の心身状態が異常であることに対して注意を呼びかけるメッセージを入力することが可能となる。
On the other hand, in step S25, when it is determined that the driver's mind and body state is not suitable for driving the
次のステップS26において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出し、モニタ3の表示画面状態を検出する。
In the next step S26, the
次のステップS27において、マイクロコンピュータ2は、ステップS26の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS28へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS29へと進める。
In the next step S27, the
ステップS28において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを、この映像信号が作る画像に割り込ませ、合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明をしたので省略する。
In step S28, the
一方ステップS29において、マイクロコンピュータ2は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、前記映像信号に、ステップS28において決定された画像サイズとなるように顔画像データから生成した映像信号を合成して、モニタ3に送出する。
On the other hand, in step S29, the
[第3実施形態の効果]
このように、第3実施形態に係る車両内コミュニケーション装置30によれば、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を強制的に割り込ませると共に、同時に、同乗者と運転者とを繋ぐマイク4とスピーカ5とが電気的に接続されるため、同乗者と運転者とのコミュニケーションを更に促進することができる。
[Effect of the third embodiment]
As described above, according to the in-
[第4実施形態]
つぎに、第4実施形態に係る車両内コミュニケーション装置40ついて図12を用いて説明する。
[Fourth Embodiment]
Next, the in-
この車両内コミュニケーション装置40は、カメラ1と、マイクロコンピュータ12と、モニタ3と、マイク4と、スピーカ5とを備え、図9及び図10を用いて説明した車両内コミュニケーション装置30のマイクロコンピュータ2を、図6を用いて説明をした車両内コミュニケーション装置20のマイクロコンピュータ12に代えた以外は、全く同じ構成である。したがって、車両内コミュニケーション装置20,30と同じ機能部には、同一符号を付し説明を省略する。
The in-
このような車両コミュニケーション装置40の処理動作を図13に示すフローチャートを用いて説明する。
The processing operation of the
先ずステップS31において、カメラ1によって運転者の顔が撮像され、取得された顔画像データを、マイクロコンピュータ12に送出させる。
First, in step S31, the driver's face is imaged by the camera 1, and the acquired face image data is sent to the
次のステップS32において、車両100を運転している運転者を特定し、運転者の人物情報を取得する運転者特定処理が実行される。この運転者特定処理については、第2実施形態で説明をしたので省略する。
In the next step S32, a driver specifying process for specifying a driver who is driving the
次のステップS33において、マイクロコンピュータ12は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。
In the next step S33, the
次のステップS34において、マイクロコンピュータ12は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるか否かを判定する。マイクロコンピュータ12は、運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS35へと進め、運転に適さない異常状態であると判定した場合には、処理をステップS36へと進める。
In the next step S <b> 34, the
ステップS35において、運転者の心身状態が、車両100の運転に適した状態であると判定されたことに応じて、マイク4とスピーカ5とを繋ぐ音声伝達回路をオフ状態にして機能を停止させ、処理をステップS32へと戻す。
In step S35, when it is determined that the state of mind of the driver is suitable for driving the
一方ステップS36において、運転者の心身状態が、車両100の運転に適さない状態であると判定されたことに応じて、マイク4とスピーカ5とを繋ぐ音声伝達回路をオン状態にして、機能をアクティブ状態とすることにより、運転者以外の同乗者は、マイク4及びスピーカ5を介して、運転者に対して、自身の声を伝達することができる状態となる。
On the other hand, in step S36, when it is determined that the driver's mind and body state is not suitable for driving the
次のステップS37において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出し、モニタ3の表示画面状態を検出する。
In the next step S37, the
次のステップS38において、マイクロコンピュータ12は、ステップS37の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS39へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS40へと進める。
In the next step S38, the
次のステップS39において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを割り込ませて、合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明をしたので省略する。
In the next step S39, the
ステップS40において、マイクロコンピュータ12は、ステップS32において、取得された運転者の人物情報と、ステップS33,S34で検出して判定された運転者の心身状態から、モニタ3上に出力表示させる文字情報を生成する。この文字情報生成処理については、第2実施形態で説明をしたので省略する。
In step S40, the
ステップS41において、マイクロコンピュータ12は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、ステップS39において決定された画像サイズとなるように顔画像データから生成した映像信号を合成し、さらに、ステップS40で生成した文字情報を付加して、モニタ3に送出する。
In step S <b> 41, the
また、外部機器から映像信号の入力がない場合には、映像信号の合成処理をすることなく、顔画像データから生成された映像信号に、ステップS40で生成された文字情報を付加してモニタ3に送出する。
If no video signal is input from the external device, the character information generated in step S40 is added to the video signal generated from the face image data without performing the video signal synthesis process, and the
[第4実施形態の効果]
このような第4実施形態に係る車両内コミュニケーション装置40によれば、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を割り込ませると共に文字情報を提示し、更に、音声伝達回路をオン状態にすることにより、更に確実且つ的確に同乗者と運転者とのコミュニケーションを促進することができる。
[Effect of Fourth Embodiment]
According to the in-
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
1 カメラ
2 マイクロコンピュータ
3 モニタ
4 マイク
5 スピーカ
10,20,30,40 車両内コミュニケーション装置
12 マイクロコンピュータ
21 運転者人物特定部
22 運転状態検出部
23 文字情報生成部
100 車両
101 インストルメントパネル
102 前部座席
103 後部座席
104 ステアリングハンドル
105 ヘッドレスト
DESCRIPTION OF SYMBOLS 1
Claims (8)
前記車両の運転操作を行う運転者の顔を撮像する撮像手段と、
前記運転者の心身状態を検出する心身状態検出手段と、
前記心身状態検出手段によって検出された運転者の心身状態に基づいて、運転者の心身状態が異常か否かを判定する判定手段と、
外部機器から供給される映像信号を入力する入力手段と、
前記入力手段によって入力された映像信号に基づく映像を表示する表示手段と、
前記判定手段によって運転者の心身状態に異常があると判定された場合に、前記入力手段によって入力された映像信号と、前記撮像手段によって撮像された運転者の顔の映像信号とを合成し、当該合成された映像信号を前記表示手段で表示させるように制御する制御手段と
を備えることを特徴とする車両内コミュニケーション装置。 An in-vehicle communication device mounted on a vehicle,
Imaging means for imaging the face of the driver who performs the driving operation of the vehicle;
A psychosomatic state detection means for detecting the driver's psychosomatic state;
Determination means for determining whether or not the driver's mind-body condition is abnormal based on the mind-body condition of the driver detected by the mind-body condition detector;
Input means for inputting a video signal supplied from an external device;
Display means for displaying video based on the video signal input by the input means;
When it is determined by the determination means that the driver's mind and body condition is abnormal, the video signal input by the input means and the video signal of the driver's face imaged by the imaging means are combined, Control means for controlling the synthesized video signal to be displayed on the display means. An in-vehicle communication device comprising:
前記判定手段は、前記心身状態検出手段によって居眠り、脇見、漫然状態、怒り、過度の緊張のうち、何れかの心身状態が検出された場合に、前記運転者の心身状態が異常であると判定することを特徴とする請求項1に記載の車両内コミュニケーション装置。 The mind-body state detection means performs predetermined image processing on the driver's face image data imaged by the imaging means, and the driver's mind-body state falls asleep, looks aside, abusive, angry, excessive tension Detect either
The determination means determines that the driver's mind-body condition is abnormal when any mind-body condition is detected among the mind-body condition detection means: doze, look aside, sloppy condition, anger, and excessive tension. The in-vehicle communication device according to claim 1.
前記判定手段は、前記心身状態検出手段によって居眠り、脇見、漫然状態、怒り、過度の緊張のうち、何れかの心身状態が検出された場合に、前記運転者の心身状態が異常であると判定することを特徴とする請求項1に記載の車両内コミュニケーション装置。 The psychosomatic state detecting means further comprises biometric information detecting means for detecting biometric information of the driver and detecting any one of the driver's psychosomatic state such as dozing, looking aside, sloppy state, anger, and excessive tension. The determination means determines that the driver's mind-body condition is abnormal when any mind-body condition is detected among the mind-body condition detection means: doze, look aside, sloppy condition, anger, and excessive tension. The in-vehicle communication device according to claim 1.
前記制御手段は、前記文字情報生成手段で生成された文字情報を前記合成された映像信号に付加し、当該映像信号に基づく映像を前記表示手段に表示させるように制御することを特徴とする請求項1に記載の車両内コミュニケーション装置。 According to a determination result based on the driver's mind and body state by the determination means, further comprising: character information generating means for generating character information for notifying the driver's mind and body state;
The control means adds the character information generated by the character information generation means to the synthesized video signal, and controls the display means to display a video based on the video signal. Item 2. The in-vehicle communication device according to Item 1.
前記文字情報生成手段は、前記運転者特定手段によって特定された前記運転者を示す文字を組み込んだ文字列の前記文字情報を生成することを特徴とする請求項4に記載の車両内コミュニケーション装置。 A driver identification unit for identifying the driver;
The in-vehicle communication device according to claim 4, wherein the character information generating unit generates the character information of a character string incorporating a character indicating the driver specified by the driver specifying unit.
前記制御手段は、前記判定手段による運転者の心身状態の異常の程度が低い場合には、前記運転者の顔の映像が、前記入力手段によって入力される映像信号による映像よりも小さくなるように合成し、前記判定手段による運転者の心身状態の異常の程度が高い場合には、前記運転者の顔の映像が、前記入力手段によって入力される映像信号による映像よりも大きくなるように合成することを特徴とする請求項1に記載の車両内コミュニケーション装置。 The determination means determines the driver abnormality determined based on the mind and body state of the driver detected by the mind and body state detection means, classified by level according to the degree of abnormality,
When the degree of abnormality of the driver's mind and body condition by the determination unit is low, the control unit is configured so that the video of the driver's face is smaller than the video by the video signal input by the input unit. When the degree of abnormality of the driver's mind and body state by the determination unit is high, the driver's face image is combined so as to be larger than the image by the video signal input by the input unit. The in-vehicle communication device according to claim 1.
前記音声入力手段によって入力された音声を前記運転者に対して出力する音声出力手段と、
前記判定手段によって前記運転者の心身状態に異常があると判定された場合に、前記音声入力手段と前記音声出力手段とを接続して、前記音声入力手段から入力された前記乗員の音声を、前記音声出力手段を介して前記運転者に出力させる接続回路と
を備えることを特徴とする請求項1乃至請求項7の何れかに記載の車両内コミュニケーション装置。
Voice input means for inputting voices of passengers other than the driver;
Voice output means for outputting the voice input by the voice input means to the driver;
When it is determined by the determination means that the driver's mind and body condition is abnormal, the voice input means and the voice output means are connected, and the voice of the occupant input from the voice input means, The in-vehicle communication device according to claim 1, further comprising: a connection circuit that causes the driver to output via the voice output unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004153345A JP4487633B2 (en) | 2004-05-24 | 2004-05-24 | In-vehicle communication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004153345A JP4487633B2 (en) | 2004-05-24 | 2004-05-24 | In-vehicle communication device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005338934A true JP2005338934A (en) | 2005-12-08 |
JP4487633B2 JP4487633B2 (en) | 2010-06-23 |
Family
ID=35492476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004153345A Expired - Fee Related JP4487633B2 (en) | 2004-05-24 | 2004-05-24 | In-vehicle communication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4487633B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007072675A1 (en) * | 2005-12-20 | 2007-06-28 | Matsushita Electric Industrial Co., Ltd. | Contents presentation device, and contents presentation method |
JP2007212421A (en) * | 2006-02-13 | 2007-08-23 | Denso Corp | Entertainment information providing system for automobile |
WO2014020889A1 (en) * | 2012-08-03 | 2014-02-06 | 株式会社デンソー | Operation control device and operation control program |
WO2015174383A1 (en) * | 2014-05-16 | 2015-11-19 | Ricoh Company, Ltd. | Display device and vehicle |
JP2017511164A (en) * | 2014-02-24 | 2017-04-20 | ソニー株式会社 | Smart wearable device and method with attention level and workload detection |
JP2017158149A (en) * | 2016-03-04 | 2017-09-07 | トヨタ自動車株式会社 | Remote operation system, vehicle, and remote operation device |
JP2018105749A (en) * | 2016-12-27 | 2018-07-05 | 日産自動車株式会社 | Method and device for audio assistance |
JP2019006331A (en) * | 2017-06-28 | 2019-01-17 | 矢崎総業株式会社 | Vehicle roof mounting system |
CN111797662A (en) * | 2019-04-08 | 2020-10-20 | 财团法人交大思源基金会 | Method for evaluating fatigue score of driver |
CN113841187A (en) * | 2019-05-28 | 2021-12-24 | 索尼集团公司 | Signal processing device, signal processing method, program, and imaging device |
JP2022132278A (en) * | 2018-04-12 | 2022-09-08 | 株式会社Jvcケンウッド | Video control device |
-
2004
- 2004-05-24 JP JP2004153345A patent/JP4487633B2/en not_active Expired - Fee Related
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007072675A1 (en) * | 2005-12-20 | 2007-06-28 | Matsushita Electric Industrial Co., Ltd. | Contents presentation device, and contents presentation method |
JP2007212421A (en) * | 2006-02-13 | 2007-08-23 | Denso Corp | Entertainment information providing system for automobile |
JP4509042B2 (en) * | 2006-02-13 | 2010-07-21 | 株式会社デンソー | Hospitality information provision system for automobiles |
US8108083B2 (en) | 2006-02-13 | 2012-01-31 | Denso Corporation | Vehicular system which retrieves hospitality information promoting improvement of user's current energy value based on detected temporal change of biological condition |
WO2014020889A1 (en) * | 2012-08-03 | 2014-02-06 | 株式会社デンソー | Operation control device and operation control program |
JP2014032119A (en) * | 2012-08-03 | 2014-02-20 | Denso Corp | Operation control device and operation control program |
JP2017511164A (en) * | 2014-02-24 | 2017-04-20 | ソニー株式会社 | Smart wearable device and method with attention level and workload detection |
CN106458029A (en) * | 2014-05-16 | 2017-02-22 | 株式会社理光 | Display device and vehicle |
JP2015231828A (en) * | 2014-05-16 | 2015-12-24 | 株式会社リコー | Display device and movable body |
WO2015174383A1 (en) * | 2014-05-16 | 2015-11-19 | Ricoh Company, Ltd. | Display device and vehicle |
AU2015260356B2 (en) * | 2014-05-16 | 2018-05-10 | Ricoh Company, Ltd. | Display device and vehicle |
JP2017158149A (en) * | 2016-03-04 | 2017-09-07 | トヨタ自動車株式会社 | Remote operation system, vehicle, and remote operation device |
JP2018105749A (en) * | 2016-12-27 | 2018-07-05 | 日産自動車株式会社 | Method and device for audio assistance |
JP2019006331A (en) * | 2017-06-28 | 2019-01-17 | 矢崎総業株式会社 | Vehicle roof mounting system |
JP2022132278A (en) * | 2018-04-12 | 2022-09-08 | 株式会社Jvcケンウッド | Video control device |
JP7472936B2 (en) | 2018-04-12 | 2024-04-23 | 株式会社Jvcケンウッド | Video control device |
CN111797662A (en) * | 2019-04-08 | 2020-10-20 | 财团法人交大思源基金会 | Method for evaluating fatigue score of driver |
CN113841187A (en) * | 2019-05-28 | 2021-12-24 | 索尼集团公司 | Signal processing device, signal processing method, program, and imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP4487633B2 (en) | 2010-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11074769B2 (en) | Safety for vehicle users | |
JP5061074B2 (en) | In-vehicle device control apparatus and in-vehicle device control method | |
JP4487633B2 (en) | In-vehicle communication device | |
KR100778059B1 (en) | Apparatus and system blowing out dozing off motorways using facial recognition technology | |
US20120169582A1 (en) | System ready switch for eye tracking human machine interaction control system | |
US11084424B2 (en) | Video image output apparatus, video image output method, and medium | |
US20090167516A1 (en) | Look-away detecting device, method and program | |
CN108437999A (en) | A kind of attention auxiliary system | |
CN111717083B (en) | Vehicle interaction method and vehicle | |
US9984298B2 (en) | Method for outputting a drowsiness warning and control unit | |
JP2020024532A (en) | Inattentive driving detection device | |
CN111813491B (en) | Vehicle-mounted assistant anthropomorphic interaction method and device and automobile | |
US20220219610A1 (en) | Vehicular cabin monitoring camera system with dual function | |
WO2022010221A1 (en) | In-cabin safety sensor installed in vehicle and method for providing service platform therefor | |
CN112954486B (en) | Vehicle-mounted video trace processing method based on sight attention | |
KR102494530B1 (en) | Camera Apparatus Installing at a Car for Detecting Drowsy Driving and Careless Driving and Method thereof | |
JP2020129091A (en) | Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen | |
US20190149777A1 (en) | System for recording a scene based on scene content | |
KR20210119243A (en) | Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof | |
JP2008083184A (en) | Driving evaluation system | |
WO2022185736A1 (en) | Detection function control device, detection function control method, and program | |
JP2021086412A (en) | Occupant monitoring device, and occupant monitoring system | |
CN114390254B (en) | Rear-row cockpit monitoring method and device and vehicle | |
CN116366615A (en) | Media stream playing method and device | |
JP2007148506A (en) | Driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100322 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140409 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |