JP2005338934A - In-vehicle communication device - Google Patents

In-vehicle communication device Download PDF

Info

Publication number
JP2005338934A
JP2005338934A JP2004153345A JP2004153345A JP2005338934A JP 2005338934 A JP2005338934 A JP 2005338934A JP 2004153345 A JP2004153345 A JP 2004153345A JP 2004153345 A JP2004153345 A JP 2004153345A JP 2005338934 A JP2005338934 A JP 2005338934A
Authority
JP
Japan
Prior art keywords
driver
mind
video signal
state
vehicle communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004153345A
Other languages
Japanese (ja)
Other versions
JP4487633B2 (en
Inventor
Kinya Iwamoto
欣也 岩本
Masayuki Kaneda
雅之 金田
Haruo Matsuo
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004153345A priority Critical patent/JP4487633B2/en
Publication of JP2005338934A publication Critical patent/JP2005338934A/en
Application granted granted Critical
Publication of JP4487633B2 publication Critical patent/JP4487633B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prompt a driver to communicate with passengers when the mental condition of the driver becomes abnormal, and to prevent the continuation of the abnormal state of the driver in the driving and traveling of a vehicle. <P>SOLUTION: This in-vehicle communication device is provided with an image pickup means 1 for picking up the image of the face of a driver who drives a vehicle 100 and a microcomputer 2 for detecting the mental condition of the driver, and for deciding whether or not the mental condition of the driver is abnormal on the basis of the detected mental condition of the driver, and for synthesizing a video signal to be inputted from external equipment with the video signal of the face of the driver imaged by the image pickup means 1 when it is decided that the mental condition of the driver is abnormal, and for making a monitor 3 display the video based on the composited video signal. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、 運転者の心身状態を検出し、検出された心身状態を運転者以外の乗員に通知する車両内コミュニケーション装置に関する。   The present invention relates to an in-vehicle communication device that detects a driver's mind-body condition and notifies the detected mind-body condition to an occupant other than the driver.

近年、運転者が陥る居眠り運転が、社会的にも大きな問題となっており、この居眠り運転を防止するための装置が考案、実施されている。例えば、遠隔地にいるオペレータが、運転者の居眠り状態を確実に把握できるようにし、運転者に対して十分な安全指導を行えるようにした居眠り運転防止システムが考案されている(特許文献1参照。)。   In recent years, a nap driving that a driver falls into has become a big social problem, and an apparatus for preventing the napping driving has been devised and implemented. For example, a drowsy driving prevention system has been devised that enables an operator in a remote location to reliably grasp the driver's drowsiness state and provide sufficient safety guidance to the driver (see Patent Document 1). .)

この特許文献1に記載された居眠り運転防止システムは、主局である車両管理側システムと、従局である車両側システムとから構成される。車両側システムは、車両管理側システムとデータ通信を行うデータ送受信手段と、車両の運転者の顔の表情を画像データとして入力する画像入力手段と、画像データの送信条件が成立したか否かを判断する送信条件判断手段と、運転者に注意を喚起すべく警告を行う警告手段と、車両管理側システムからの作動信号に基づき警告手段を作動させる警告作動手段とを含んで構成される。一方、車両管理側システムは、複数の車両側システムとデータ通信を行うデータ送受信手段と、車両側システムから送信された画像データを表示する画像データ表示手段と、データ送受信手段を介して車両側システムにおける警告手段を遠隔作動させる遠隔作動手段とを含んで構成される。   The doze driving prevention system described in Patent Document 1 includes a vehicle management system that is a master station and a vehicle system that is a slave station. The vehicle-side system includes data transmission / reception means for performing data communication with the vehicle management-side system, image input means for inputting facial expressions of the driver of the vehicle as image data, and whether or not a transmission condition for the image data is satisfied. The transmission condition determining means for determining, the warning means for giving a warning to alert the driver, and the warning operating means for operating the warning means based on the operation signal from the vehicle management system are configured. On the other hand, the vehicle management side system includes a data transmission / reception unit that performs data communication with a plurality of vehicle side systems, an image data display unit that displays image data transmitted from the vehicle side system, and a vehicle side system via the data transmission / reception unit. And remote operating means for remotely operating the warning means.

このような構成の技術によれば、車両側システムにおいて、画像データの送信条件が成立したときに、運転者の顔の表情を画像データとして入力し、この画像データが自動的に車両管理側システムに送信される。そして、車両管理側システムにおいて、車両側システムから送信された画像データを表示して、この表示データに基づいて運転者の疲労状況、即ち、居眠りに陥りそうか否かを判断し、必要に応じて車両側システムの警告手段を遠隔作動させる。   According to the technology having such a configuration, when a transmission condition for image data is satisfied in the vehicle side system, the facial expression of the driver is input as image data, and this image data is automatically input to the vehicle management side system. Sent to. Then, in the vehicle management system, the image data transmitted from the vehicle system is displayed, and based on this display data, it is determined whether the driver is fatigued, that is, whether he / she is likely to fall asleep. To remotely activate the warning means of the vehicle side system.

ここで、車両側システムは、現時刻に基づいてマップを参照して、画像データの送信時間を設定し、設定された画像データの送信時間になったときに、画像データの送信条件が成立したと判断する。このとき、車両管理側システムから車両側システムへは、送信指示信号が送信され、車両側システムにて画像データの送信条件が成立したと判断する。このように構成することにより、車両管理側システムは、運転者の状況を確認したいときに、車両側システムに画像データの送信指示指令を送信し、車両側システムにおいて、画像データ送信条件が成立したと判断される。   Here, the vehicle-side system refers to the map based on the current time, sets the image data transmission time, and when the set image data transmission time is reached, the image data transmission condition is satisfied. Judge. At this time, a transmission instruction signal is transmitted from the vehicle management side system to the vehicle side system, and it is determined that the transmission condition of the image data is satisfied in the vehicle side system. With this configuration, the vehicle management side system transmits an image data transmission instruction command to the vehicle side system when the driver's situation is to be confirmed, and the image data transmission condition is satisfied in the vehicle side system. It is judged.

また、車両側システムは、車両の現在位置を測定し、測定された車両の現在位置に基づいてマップを参照して特定ルートの走行中か否かを判断する。特定ルート走行中であり、かつ、特定ルートの走行を開始してから所定時間経過毎に、画像データの送信条件が成立したと判断する。そして、車両側システムは、車両の走行速度を検出し、検出された車速に基づいてマップを参照して単調走行か否かを判断し、単調走行中であり、かつ単調走行を開始してから所定時間経過毎に、画像データの送信条件が成立したと判断する。このように、運転者が他者とコミュニケーションを取るといった行為は、居眠りだけに留まらず、他の心身的異常状態を矯正する効果がある。
特開平10−111994号公報
Further, the vehicle-side system measures the current position of the vehicle and determines whether or not the vehicle is traveling on a specific route with reference to the map based on the measured current position of the vehicle. It is determined that the image data transmission condition is satisfied every time a predetermined time elapses after traveling on the specific route and starting traveling on the specific route. Then, the vehicle side system detects the traveling speed of the vehicle, determines whether or not the vehicle is monotonous by referring to the map based on the detected vehicle speed, and is in monotonous traveling and starts monotonous traveling. It is determined that the transmission condition of the image data is satisfied every predetermined time. In this way, the act of the driver communicating with others has an effect of correcting other psychosomatic abnormal states as well as falling asleep.
Japanese Patent Laid-Open No. 10-111994

上述の特許文献1に示された居眠り運転防止システムは、運転者が居眠りをしそうな時間帯、場面になると運転者の顔画像を遠隔地にいるオペレータに送信し、送信された顔画像をオペレータが判断して、運転者に対して警告をするというシステムである。   The doze driving prevention system disclosed in Patent Document 1 described above transmits a driver's face image to an operator at a remote place when the driver is likely to fall asleep during a time period or scene, and the transmitted face image is transmitted to the operator. This is a system that judges and warns the driver.

しかしながら、居眠りが起こりそうな時間や場面になると運転者の顔画像を遠隔地にいるオペレータの元に送信して運転者が居眠りをしているか否かを判断して警報を行うように構成されているので、複数の運転者の顔画像を同時に監視する必要があり、実際になんらかの異常事態に陥り、居眠りをしている運転者を見過ごしてしまう可能性があり、確実性に欠けるといった問題がある。すなわち、本当に居眠りをしている、すなわち異常状態に陥っている運転者が他にいても、オペレータにはそのことが判らず他の運転者の様子を監視するという問題を起こす可能性がある。   However, when it is time or scene where a nap is likely to occur, the driver's face image is transmitted to an operator at a remote location to determine whether or not the driver is asleep and issue an alarm. Therefore, it is necessary to monitor multiple driver's face images at the same time, there is a possibility that it will actually fall into some abnormal situation, overlook the driver who is asleep, and lack of certainty is there. That is, even if there are other drivers who are really dozing, that is, in an abnormal state, there is a possibility that the operator does not know that and monitors the situation of other drivers.

また、オペレータは、送信された顔画像によってのみ居眠り状態を判定するため、オペレータ個人の主観によるところが大きく、居眠り状態であるとする判定の基準に、オペレータ同士で相違がでてしまうといった問題もある。また、オペレータの判定基準を統一するためには、オペレータを専門的に教育する必要があるため、システムを稼働させるまでに多大なコストが必要となってしまうといった問題がある。   In addition, since the operator determines the dozing state only by the transmitted face image, there is a problem that the operator is largely dependent on the subjectivity of the operator, and there is a difference between the operators in the criteria for determining that the operator is dozing. . In addition, in order to unify the operator's judgment criteria, it is necessary to educate the operator professionally, so that there is a problem that a great amount of cost is required before the system is operated.

そこで、本発明は、上述したような問題を解決するために案出されたものであり、運転者の心身状態に応じて、同一車両に乗車している乗員と運転者との車両内コミュニケーションを運転者の運転操作を阻害することなく円滑に支援することができる車両内コミュニケーション装置を提供することを目的とする。   Therefore, the present invention has been devised to solve the above-described problems, and in-vehicle communication between a passenger and a driver who are in the same vehicle is performed according to the mental and physical state of the driver. It is an object of the present invention to provide an in-vehicle communication device that can smoothly support a driver without obstructing the driving operation.

本発明は、車両に搭載される車両内コミュニケーション装置であって、車両の運転操作を行う運転者の顔を撮像する撮像手段と、運転者の心身状態を検出する心身状態検出手段と、心身状態検出手段によって検出された運転者の心身状態に基づいて、運転者の心身状態が異常か否かを判定する判定手段と、外部機器から供給される映像信号を入力する入力手段と、入力手段によって入力された映像信号に基づく映像を表示する表示手段とを備える。   The present invention is an in-vehicle communication device mounted on a vehicle, the imaging means for imaging the face of the driver who performs the driving operation of the vehicle, the mind-body state detecting means for detecting the mind-body state of the driver, and the mind-body state Based on the driver's mind-body state detected by the detector, the determination means for determining whether the driver's mind-body state is abnormal, the input means for inputting a video signal supplied from an external device, and the input means Display means for displaying video based on the input video signal.

このような構成において、制御手段は、判定手段によって運転者の心身状態に異常があると判定された場合に、入力手段によって入力された映像信号と、撮像手段によって撮像された運転者の顔の映像信号とを合成し、合成された映像信号を表示手段で表示させるように制御することにより、運転者の顔の映像を運転者以外の乗員に視認させることによって、上述の課題を解決する。   In such a configuration, when the determination unit determines that the driver's mind and body condition is abnormal by the determination unit, the control unit detects the video signal input by the input unit and the driver's face imaged by the imaging unit. The above-mentioned problem is solved by causing the occupant other than the driver to visually recognize the video of the driver's face by combining the video signal and controlling the video signal to be displayed on the display means.

本発明に係る車両内コミュニケーション装置によれば、運転者の心身状態が異常状態である場合に、運転者の顔を運転者以外の乗員に視認させるので、乗員が他の映像を視認している場合であっても同一車両に乗車している乗員と運転者との車両内コミュニケーションを運転者の運転操作を阻害することなく円滑に支援することができる。   According to the in-vehicle communication device according to the present invention, when the driver's mind and body state is abnormal, the driver's face is visually recognized by an occupant other than the driver, so the occupant is viewing other images. Even in this case, it is possible to smoothly support in-vehicle communication between an occupant and a driver who are in the same vehicle without obstructing the driving operation of the driver.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
第1実施形態に係る車両内コミュニケーション装置10は、図1及び図2に示すように、運転者の顔を撮像するカメラ1と、カメラ1で撮像した顔画像データから、車両100の運転操作を行う運転者の心身状態を検出し、車両100の運転に適しているかどうかを判定するマイクロコンピュータ2と、ナビゲーションシステムの地図情報や、テレビ、ビデオといった映像ソースなどを出力表示する他、上述したマイクロコンピュータ2からの判定結果を出力表示するモニタ3とを備えている。
[First Embodiment]
As shown in FIGS. 1 and 2, the in-vehicle communication device 10 according to the first embodiment performs a driving operation of the vehicle 100 from the camera 1 that captures the face of the driver and the face image data captured by the camera 1. In addition to the microcomputer 2 that detects the mind and body state of the driver to be performed and determines whether or not the vehicle 100 is suitable for driving, the map information of the navigation system, the video source such as TV, video, and the like are output and displayed. And a monitor 3 for outputting and displaying the determination result from the computer 2.

カメラ1は、撮像手段であって、例えば、CCD(Charge Coupled Device)撮像素子を備えた小型形状の撮像装置である。図2に示すように、カメラ1は、車両100のインストルメントパネル101上に、運転者の顔の略正面が撮像できる位置に設置される。カメラ1によって撮像された運転者の顔画像データは、ディジタル画像データとして、マイクロコンピュータ2に送出される。   The camera 1 is an image pickup means, and is a small-sized image pickup device including, for example, a CCD (Charge Coupled Device) image pickup device. As shown in FIG. 2, the camera 1 is installed on the instrument panel 101 of the vehicle 100 at a position where a substantially front face of the driver's face can be imaged. The driver's face image data captured by the camera 1 is sent to the microcomputer 2 as digital image data.

マイクロコンピュータ2は、当該車両内コミュニケーション装置10の動作を統括的に制御する制御装置であり、上述したような運転者の心身状態の検出を行う心身状態検出手段、検出された状態に応じた運転可能か否かの判定を行う判定手段として機能し、所定のソフトウェアに基づいて実行する。また、マイクロコンピュータ2は、図示しないナビゲーションシステムからの地図情報、テレビチューナで受信されたテレビジョン信号、ビデオ再生装置から送出されたビデオ信号、ビデオゲーム機からのビデオゲーム信号といった外部機器からの映像信号を入力する図示しない外部映像入力ポートと、この外部映像入力ポートから入力される映像信号を用いて所定の画像処理を施してモニタ3に出力する図示しない映像出力ポートとを有している。   The microcomputer 2 is a control device that comprehensively controls the operation of the in-vehicle communication device 10. The microcomputer 2 detects the mind-body state of the driver as described above, and the driving according to the detected state. It functions as a determination unit that determines whether or not it is possible, and executes based on predetermined software. The microcomputer 2 also displays video from an external device such as map information from a navigation system (not shown), a television signal received by a television tuner, a video signal sent from a video playback device, and a video game signal from a video game machine. An external video input port (not shown) for inputting a signal and a video output port (not shown) for performing predetermined image processing using the video signal input from the external video input port and outputting the image to the monitor 3 are provided.

マイクロコンピュータ2には、通常、入力手段として機能し、外部映像入力ポートを介して、上述したような外部機器からの映像信号が供給されている。マイクロコンピュータ2は、この映像信号にモニタ3での出力表示が可能なように所定の画像処理を施し、映像出力ポートを介してモニタ3に出力している。   The microcomputer 2 normally functions as input means, and is supplied with the video signal from the external device as described above via the external video input port. The microcomputer 2 performs predetermined image processing on the video signal so that it can be output and displayed on the monitor 3, and outputs the video signal to the monitor 3 via the video output port.

また、マイクロコンピュータ2は、カメラ1から送出された顔画像データから、運転者の心身状態が車両100を運転するのに適していないと判断した場合、この顔画像データを、モニタ3に表示可能な映像信号に変換する。そして、通常状態において出力される映像信号と合成し、映像出力ポートを介してモニタ3に送出するか、そのまま合成をせずに、外部からの映像信号の代わりに映像出力ポートを介して、モニタ3に送出するように映像切換制御する。これにより、マイクロコンピュータ2は、制御手段として機能する。   When the microcomputer 2 determines from the face image data sent from the camera 1 that the driver's mind and body condition is not suitable for driving the vehicle 100, the face image data can be displayed on the monitor 3. Convert to a clear video signal. Then, it is synthesized with the video signal output in the normal state and sent to the monitor 3 via the video output port, or it is not synthesized as it is, but instead of the video signal from the outside, it is monitored via the video output port. The video switching control is performed so that the image is transmitted to the terminal 3. Thereby, the microcomputer 2 functions as a control means.

モニタ3は、例えば、横方向に640画素、縦方向に480画素が表示可能な液晶ディスプレイ(LCD:Liquid Crystal Display)等からなる。このモニタ3は、上述したマイクロコンピュータ2の映像出力ポートに接続され、映像出力ポートを介して入力した映像信号を出力表示させる。なお、モニタ3の種別に限定されるものではなく、車両100に搭載して好適なように薄型であればよく、例えば、有機ELディスプレイ、無機ELディスプレイといったバックライト装置を必要としない自発光型の薄型のディスプレイなどであってもよい。   The monitor 3 includes, for example, a liquid crystal display (LCD) that can display 640 pixels in the horizontal direction and 480 pixels in the vertical direction. The monitor 3 is connected to the video output port of the microcomputer 2 described above, and outputs and displays a video signal input via the video output port. It is not limited to the type of the monitor 3 and may be thin enough to be mounted on the vehicle 100. For example, a self-luminous type that does not require a backlight device such as an organic EL display or an inorganic EL display. A thin display or the like may be used.

モニタ3は、運転者の視界に直接映像情報が入ってこない位置で且つ、運転者以外の乗員が、出力表示された映像情報を見ることができる位置に設置される。例えば、図2に示すように、モニタ3は、車両100の前部座席102の背面側で、後部座席103に搭乗する乗員が見やすい位置に設置されることになる。   The monitor 3 is installed at a position where the video information does not directly enter the driver's field of view and where a passenger other than the driver can see the video information output and displayed. For example, as shown in FIG. 2, the monitor 3 is installed on the back side of the front seat 102 of the vehicle 100 at a position where a passenger on the rear seat 103 can easily see.

通常、運転者以外の乗員は、このモニタ3を介して、車両100に搭載されたナビゲーションシステムからの情報を視認したり、テレビやビデオの視聴をしたり、ビデオゲームで遊んだりすることができる。また、モニタ3は、上述したように、マイクロコンピュータ2が、運転者の心身状態が車両100を運転するのに適していないと判断した場合には、マイクロコンピュータ2から送出される運転者の顔を表示して、運転者以外の乗員に通知することになる。   Usually, a passenger other than the driver can visually recognize information from a navigation system mounted on the vehicle 100, view a television or video, or play a video game via the monitor 3. . In addition, as described above, when the microcomputer 2 determines that the driver's mind and body state is not suitable for driving the vehicle 100, the monitor 3 sends the driver's face sent out from the microcomputer 2. Will be displayed to notify passengers other than the driver.

[車両内コミュニケーション装置10の動作]
つぎに、上述したように構成された車両コミュニケーション装置10の処理動作について図3に示すフローチャートを用いて説明をする。
[Operation of In-Vehicle Communication Device 10]
Next, the processing operation of the vehicle communication device 10 configured as described above will be described using the flowchart shown in FIG.

この処理は、例えば車両100のIGNスイッチがオン状態とされることによってマイクロコンピュータ2に電源が投入されたことに応じて開始され、先ずステップS1において、カメラ1によって運転者の顔を撮像する。カメラ1によって撮像され、取得された顔画像データは、マイクロコンピュータ2に送出される。   This process is started in response to turning on the microcomputer 2 by turning on the IGN switch of the vehicle 100, for example. First, in step S1, the driver's face is imaged by the camera 1. The face image data captured and acquired by the camera 1 is sent to the microcomputer 2.

次のステップS2において、マイクロコンピュータ2は、ステップS1で取得した顔画像データを使用して、運転者の心身状態を検出して異常状態を検出する運転者の異常状態検出処理を開始する。なお、この異常状態検出処理は、後で詳細に説明をする。   In the next step S2, the microcomputer 2 uses the face image data acquired in step S1 to start a driver abnormal state detection process for detecting the driver's mind and body state and detecting an abnormal state. This abnormal state detection process will be described in detail later.

次のステップS3において、マイクロコンピュータ2は、 ステップS2で検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるか否かを判定する。マイクロコンピュータ2は、運転者の心身状態が、車両100の運転に適した通常状態であると判定した場合は、ステップS1へと処理を戻し、車両100の運転に適さない異常状態であると判定した場合には、ステップS4へと処理を進める。運転者の異常状態が検出されず、ステップS3からステップS1へと処理が戻った場合には、マイクロコンピュータ2は、通常状態であるとして、映像出力ポートからモニタ3に外部機器からの映像信号を出力させる。なお、外部映像入力ポートにいずれの外部機器も接続されていない場合には、黒画面や、待機画面などをモニタ3に表示させる。   In the next step S <b> 3, the microcomputer 2 determines whether or not the driver's current mind and body state is suitable for driving the vehicle 100, according to the driver's mind and body state detected in step S <b> 2. If the microcomputer 2 determines that the mind and body state of the driver is a normal state suitable for driving the vehicle 100, the microcomputer 2 returns the process to step S <b> 1 and determines that the driver is in an abnormal state unsuitable for driving the vehicle 100. If so, the process proceeds to step S4. If the abnormal state of the driver is not detected and the process returns from step S3 to step S1, the microcomputer 2 assumes that the normal state is present, and sends the video signal from the external device to the monitor 3 from the video output port. Output. When no external device is connected to the external video input port, a black screen or a standby screen is displayed on the monitor 3.

次のステップS4において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出する。つまり、モニタ3の表示状態を検出する。   In the next step S4, the microcomputer 2 detects whether the video signal input from the external device via the video signal input port is supplied to the monitor 3 via the video output port. That is, the display state of the monitor 3 is detected.

次のステップS5において、マイクロコンピュータ2は、ステップS4の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS6へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS7へと進める。   In the next step S5, the microcomputer 2 supplies the video signal input from the external device via the video signal input port to the monitor 3 via the video output port according to the detection result of step S4. If so, the process proceeds to step S6. If the video signal from the external device is not supplied to the monitor 3, the process proceeds to step S7.

ステップS6において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して映像信号が入力されているので、当該映像信号に、カメラ1で撮像した顔画像データを割り込ませて合成する際の画像サイズを決定する。顔画像データの割り込み画像サイズの決定処理については、後で詳細に説明をする。   In step S6, since the video signal is input from the external device via the video signal input port, the microcomputer 2 interrupts the face image data captured by the camera 1 and combines the video signal. Determine the size. The determination processing of the interrupt image size of the face image data will be described in detail later.

一方、ステップS7において、マイクロコンピュータ2は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、映像信号に、ステップS6において決定された画像サイズとなるように顔画像データから生成した映像信号を合成して、モニタ3に送出する。これに対し、ステップS5にて外部機器から映像信号の入力がないと判定された場合には、合成処理をすることなく、そのまま顔画像データをモニタ3に送出する。   On the other hand, in step S <b> 7, the microcomputer 2 converts the face image data captured by the camera 1 into a video signal to be supplied to the monitor 3. At this time, if a video signal is supplied from an external device via the video signal input port, the video signal generated from the face image data so as to have the image size determined in step S6 is added to the video signal. Combined and sent to the monitor 3. On the other hand, if it is determined in step S5 that no video signal is input from the external device, the face image data is sent to the monitor 3 as it is without performing a composition process.

「運転者の異常状態検出処理」
ステップS2において、マイクロコンピュータ2によって実行される運転者の異常状態検出処理について説明をする。この運転者の異常状態とは、例えば、居眠り、脇見、漫然、怒り(イライラ)、過度の緊張といった、通常とは異なる冷静な判断を下すことのできない状態のことである。これらの異常状態を検出するための手法としては、例えば、以下に示すような、カメラ1で撮像され、マイクロコンピュータ2に入力された運転者の顔画像データを画像処理することで得られる情報に基づいて判定をする手法や、運転者の生体信号を検出し、この生体信号に基づいて判定する手法などを用いることができる。
"Driver abnormal state detection process"
The driver abnormal state detection process executed by the microcomputer 2 in step S2 will be described. The abnormal state of the driver is a state in which a calm judgment different from usual cannot be made such as, for example, falling asleep, looking aside, sloppy, anger (irritated), and excessive tension. As a method for detecting these abnormal states, for example, as shown below, information obtained by performing image processing on the driver's face image data captured by the camera 1 and input to the microcomputer 2 is used. A method of making a determination based on this, a method of detecting a driver's biological signal, and making a determination based on this biological signal can be used.

顔画像データから画像処理により運転者の異常状態を検出する方法としては、例えば、居眠り状態を検出する手法、脇見を検出する手法、漫然運転を検出する手法、表情認識より怒りといったストレス状態を検出する手法などが挙げられる。このような既知の手法のうち、マイクロコンピュータ2は、何れかの手法を用いてもよい。   Examples of methods for detecting an abnormal state of a driver by image processing from face image data include a method for detecting a drowsiness state, a method for detecting a side look, a method for detecting abusive driving, and a stress state such as anger rather than facial expression recognition. And the like. Among such known methods, the microcomputer 2 may use any method.

一例として、運転者の居眠り状態を検出する手法について説明をする。まず、マイクロコンピュータ2は、顔画像データから画像処理によって特徴量を抽出することで、運転者の眼の位置を検出し、さらに、眼が閉じられている時間である閉眼時間を測定する。   As an example, a method for detecting the driver's dozing state will be described. First, the microcomputer 2 extracts the feature amount from the face image data by image processing to detect the position of the driver's eyes, and further measures the eye closing time, which is the time during which the eyes are closed.

通常、閉眼時間は、短時間閉眼、中時間閉眼、長時間閉眼に大別することができ、心身正常状態である覚醒時、心身異常状態である覚低時においてそれぞれ異なる傾向で現れることになる。多少の個人差はあるが、通常、正常状態である場合は、眼を閉じている時間が少なく、短時間閉眼を多く繰り返すことになる。また、中時間閉眼は、居眠りに突入しそうな状態のときに最も頻繁に生ずることになる。長時間閉眼は、よほどの状態でない限り生ずることがない。このような一般的な閉眼時間の傾向を参酌しながら、毎回の閉眼時間長、運転者の状態、運転者の環境などを考慮して、居眠り評価基準の重みを変化させることで、閉眼時間に応じた高精度の居眠り状態の検出を実行することができる。   Normally, eye closure time can be broadly classified into short-term, middle-time, and long-term eye closures, and will appear with different tendencies during arousal, which is a normal state of mind and body, and during hypotension, which is a state of mind and body abnormality. . Although there are some individual differences, normally, in the normal state, the eye is closed for a short time and the eye is closed frequently for a short time. In addition, middle-time eye closure occurs most frequently when the person is about to fall asleep. Long-term closed eyes do not occur unless they are in good condition. By taking into account the general tendency of eye closure time, taking into account the length of each eye closure time, the driver's condition, the driver's environment, etc. The detection of the dozing state can be executed with high accuracy.

また、運転者の生体信号から運転者の異常状態を検出する手法についても、様々な手法が考案、実施されており、既知の手法のいずれを用いても良い。   Various methods have been devised and implemented for detecting the driver's abnormal state from the driver's biological signal, and any known method may be used.

例えば、運転者の生体信号としては、運転者の心拍数、脳波、発汗量、頭部の振動、皮膚電位、皮膚電気抵抗、瞬目、身体加速度、運転者とバックシート間の圧力といった体圧などがあり、それぞれの測定値によって、運転者の緊張度などを検出することができる。この生体信号から求められる緊張度の度合いによって、運転者の心身の異常状態を検出することができる。   For example, the driver's biological signals include the driver's heart rate, brain waves, sweat volume, head vibration, skin potential, skin electrical resistance, blink, body acceleration, and body pressure such as the pressure between the driver and the back seat. The driver's tension can be detected by the measured values. The abnormal state of the driver's mind and body can be detected based on the degree of tension obtained from the biological signal.

具体的には、マイクロコンピュータ2は、図4に示すように、ステアリングハンドル104に備えられた検出電極104a,104bから、運転者の心拍数などの生体信号を検出し、検出した生体信号レベルに応じて、異常状態を判定することになる。これにより、マイクロコンピュータ2は、生体情報検出手段として機能する。   Specifically, as shown in FIG. 4, the microcomputer 2 detects a biological signal such as a driver's heart rate from the detection electrodes 104a and 104b provided on the steering handle 104, and sets the detected biological signal level. Accordingly, an abnormal state is determined. Thereby, the microcomputer 2 functions as a biological information detection means.

マイクロコンピュータ2は、実際には、心拍数、脳波、発汗量、居眠り、脇見、漫然、怒り(イライラ)、過度の緊張といった全ての異常状態を検出するわけではなく、何れかの異常状態を検出できた場合に、ステップS3の処理へと進み、運転に適した状態であるか否かを判定することになる。したがって、マイクロコンピュータ2は、少なくとも顔画像データから異常状態を検出する手法、又は、生体信号から異常状態を検出する手法の何れかを実行できればよい。この2つの手法を同時に行う場合は、処理負荷がかかってしまうが、精度を向上させることができる。なお、上述した手法以外にも、運転者の異常状態を検出する手法を柔軟に取り入れて対応することもできる。   In fact, the microcomputer 2 does not detect all abnormal states such as heart rate, brain wave, sweating amount, snooze, aside, messy, anger (irritated), excessive tension, but detects any abnormal state If it is possible, the process proceeds to step S3, and it is determined whether or not the state is suitable for driving. Therefore, the microcomputer 2 only needs to be able to execute at least one of a method for detecting an abnormal state from face image data and a method for detecting an abnormal state from a biological signal. When these two methods are performed simultaneously, a processing load is applied, but the accuracy can be improved. In addition to the method described above, a method for detecting an abnormal state of the driver can be flexibly taken in and dealt with.

「顔画像データの割り込みサイズの決定処理」
つぎに、ステップS6において実行される顔画像データの割り込みサイズの決定処理について説明をする。
"Face image data interrupt size determination process"
Next, the process for determining the interrupt size of face image data executed in step S6 will be described.

例えば、マイクロコンピュータ2は、ステップS2,S3の運転者の異常状態検出、判定処理において、運転者の異常状態を大レベル、中レベル、小レベルの3段階のレベルの何れかであるかを判定する。このように異常状態をレベル毎に判定する場合、時間変化と共に、ステップS2,S3で検出して判定される異常状態が小レベル→中レベル→大レベルへと遷移するに従って、緊急性、速報性が高くなる。   For example, the microcomputer 2 determines whether the driver's abnormal state is one of three levels of large level, medium level, and small level in the driver's abnormal state detection and determination process in steps S2 and S3. To do. When the abnormal state is determined for each level as described above, the urgency and quickness are improved as the abnormal state detected and determined in steps S2 and S3 changes from small level to medium level to large level with time change. Becomes higher.

例えば、モニタ3に図5(a)に示すようなナビゲーションシステムよりマイクロコンピュータ2に入力された地図情報から生成された地図画像MGが表示されているとする。ステップS2,S3で、マイクロコンピュータ2は、検出した運転者の異常状態が小レベルであると判定した場合、図5(b)に示すように、顔画像FGのサイズを、地図画像MGの画像サイズの、例えば、1/4以下程度に決定し、地図画像MG上に割り込ませる。さらに、マイクロコンピュータ2は、運転者の異常状態を中レベルと判定した場合、図5(c)に示すように、顔画像FGのサイズを、地図画像MGのサイズと均等になるように決定し、地図画像MG上に割り込ませる。さらに、マイクロコンピュータ2は、運転者の異常状態を大レベルと判定した場合、図5(d)に示すように顔画像FGをモニタ3上の略全面に表示させ、地図画像MGのサイズを、顔画像FGの例えば1/4以下程度に決定する。すなわち、図5(b)における地図画像MGと、顔画像FGとが入れ替わった状態の画像である。   For example, it is assumed that a map image MG generated from the map information input to the microcomputer 2 from the navigation system as shown in FIG. In steps S2 and S3, when the microcomputer 2 determines that the detected abnormal state of the driver is at a low level, as shown in FIG. 5B, the microcomputer 2 sets the size of the face image FG to the image of the map image MG. The size is determined to be, for example, about 1/4 or less, and is interrupted on the map image MG. Furthermore, when the microcomputer 2 determines that the abnormal state of the driver is the middle level, the microcomputer 2 determines the size of the face image FG to be equal to the size of the map image MG, as shown in FIG. , Interrupt the map image MG. Further, when the microcomputer 2 determines that the driver's abnormal state is a large level, the microcomputer 2 displays the face image FG on the substantially entire surface of the monitor 3 as shown in FIG. For example, it is determined to be about 1/4 or less of the face image FG. That is, it is an image in a state where the map image MG and the face image FG in FIG.

また、異常状態が継続するような場合、異常状態のレベルが遷移しなくとも、顔画像FGのサイズを図5(b)→図5(c)→図5(d)のように変化させて、異常状態を強調するようにしてもよい。さらに、モニタ3の表示状態が、図5(d)に示すような状態を継続してしまう場合には、図5(e)に示すように、地図画像MGを全く表示させず、運転者の顔画像FGのみを全面に表示させ、異常状態を強調するようにしてもよい。   If the abnormal state continues, the size of the face image FG is changed as shown in FIG. 5 (b) → FIG. 5 (c) → FIG. 5 (d) even if the level of the abnormal state does not change. The abnormal state may be emphasized. Furthermore, when the display state of the monitor 3 continues as shown in FIG. 5D, the map image MG is not displayed at all as shown in FIG. Only the face image FG may be displayed on the entire surface to emphasize the abnormal state.

なお、一例として、地図情報から生成された地図画像MGをモニタ3上に表示させる場合について説明をしたが、マイクロコンピュータ2は、外部機器から入力される映像信号の種別によらず、上述したの手法と同様にして顔画像データの割り込みサイズを決定し、モニタ3から出力表示させるようにする。   Note that, as an example, the case where the map image MG generated from the map information is displayed on the monitor 3 has been described. However, the microcomputer 2 has been described above regardless of the type of the video signal input from the external device. The interrupt size of the face image data is determined in the same manner as the method, and output from the monitor 3 is displayed.

[第1実施形態の効果]
以上詳細に説明したように、本発明を適用した第1実施形態に係る車両内コミュニケーション装置10によれば、通常状態において運転者以外の乗員が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を強制的に割り込ませるので、乗員にいち早く運転者の心身状態を通知することができる。これに応じて、乗員と運転者とのコミュニケーションを円滑に誘発させて、運転者の異常状態の継続を防止することができる。すなわち、同乗者が顔画像ではない他の映像を楽しんでいる場合であっても、当該映像の全部又は一部に顔画像を割り込ませることによって、同乗者と運転者の円滑なコミュニケーションを誘発させることができる。
[Effect of the first embodiment]
As described above in detail, according to the in-vehicle communication device 10 according to the first embodiment to which the present invention is applied, an image viewed by an occupant other than the driver in a normal state is displayed on the mind and body state of the driver. Accordingly, the video whose image size is determined is forcibly interrupted, so that the occupant can be notified of the state of mind and body of the driver immediately. Accordingly, communication between the occupant and the driver can be smoothly induced to prevent the driver from continuing the abnormal state. In other words, even if the passenger enjoys another video that is not a face image, the face image is interrupted in all or part of the video, thereby inducing smooth communication between the passenger and the driver. be able to.

また、この車両内コミュニケーション装置10によれば、顔画像データを画像処理して、運転者の居眠り、脇見、漫然状態、怒り(イライラ)、過度な緊張の少なくとも1つを検出し、何れかの状態に陥っていると判断した場合に、運転者が異常状態にあると判定するので、運転者の異常状態を的確に検出することができる。   In addition, according to the in-vehicle communication device 10, the face image data is image-processed to detect at least one of the driver's dozing, looking aside, abusive state, anger (irritated), and excessive tension, When it is determined that the vehicle is in a state, it is determined that the driver is in an abnormal state, so that the abnormal state of the driver can be accurately detected.

更に、この車両内コミュニケーション装置10によれば、運転者の心拍、脳波、発汗量などの生体信号を収集して、運転者が異常である状態を判断するので、運転者の異常状態を的確に検出することができる。   Furthermore, according to this in-vehicle communication device 10, biological signals such as a driver's heartbeat, brain waves, and sweating amount are collected to determine a state in which the driver is abnormal. Can be detected.

更にまた、この車両内コミュニケーション装置10によれば、運転者の異常状態のレベルが高い場合は、元の映像情報よりも運転者の顔画像サイズの方を大きくし、運転者の異常状態のレベルが小さい場合は、元の映像情報よりも運転者の顔画像サイズの方を小さくするので、異常状態のレベルに応じたコミュニケーションを円滑に誘発させることができる。   Furthermore, according to this in-vehicle communication device 10, when the level of the driver's abnormal state is high, the driver's face image size is made larger than the original video information, and the level of the driver's abnormal state is increased. Is smaller than the original video information, the driver's face image size is made smaller, so communication according to the level of the abnormal state can be smoothly induced.

[第2実施形態]
つぎに、本発明を適用した第2実施形態に係る車両内コミュニケーション装置20について説明する。
[Second Embodiment]
Next, an in-vehicle communication device 20 according to a second embodiment to which the present invention is applied will be described.

この車両内コミュニケーション装置20は、図6に示すように、カメラ1と、マイクロコンピュータ12と、モニタ3とを備え、図1及び図2を用いて説明をした車両内コミュニケーション装置10のマイクロコンピュータ2をマイクロコンピュータ12に代えた以外は全く同じ構成である。したがって、車両内コミュニケーション装置10と同じ機能部には、同一符号を付し説明を省略する。   As shown in FIG. 6, the in-vehicle communication apparatus 20 includes a camera 1, a microcomputer 12, and a monitor 3, and the microcomputer 2 of the in-vehicle communication apparatus 10 described with reference to FIGS. The configuration is exactly the same except that is replaced with the microcomputer 12. Therefore, the same functional parts as those in the in-vehicle communication device 10 are denoted by the same reference numerals and description thereof is omitted.

マイクロコンピュータ12は、上述したマイクロコンピュータ2が備える運転者の心身状態を検出し、運転可能か否かを検出する運転状態検出機能を始めとする全ての機能の他に、運転者を特定する運転者特定機能と、特定された運転者の人物情報と、運転者の心身状態とからモニタ3上に出力表示させる文字情報を生成する文字情報生成機能とをさらに備える。マイクロコンピュータ2は、これらの各種機能をソフトウェアに基づいて実行することにより、運転者人物特定部21、運転状態検出部22及び文字情報生成部23の各部を備えることになる。   The microcomputer 12 detects the driver's mind-body state included in the microcomputer 2 described above, and in addition to all functions including a driving state detection function for detecting whether or not driving is possible, driving for specifying the driver. And a character information generating function for generating character information to be output and displayed on the monitor 3 from the driver identifying function, the identified driver personal information, and the driver's mind and body state. The microcomputer 2 is provided with each part of the driver person specific | specification part 21, the driving | running state detection part 22, and the character information generation part 23 by performing these various functions based on software.

この車両コミュニケーション装置20の処理動作は、図7に示すように、先ずステップS11において、カメラ1によって運転者の顔を撮像して、顔画像データを、マイクロコンピュータ12に送出する。   In the processing operation of the vehicle communication device 20, as shown in FIG. 7, first, in step S <b> 11, the driver's face is imaged by the camera 1, and face image data is sent to the microcomputer 12.

次のステップS12において、マイクロコンピュータ12の運転者人物特定部21は、予め登録されている人物のうち、車両100を運転している運転者を特定し、当該特定した運転者の人物情報を取得する運転者特定処理を実行する。なお、運転者特定処理については後述する。   In the next step S12, the driver person specifying unit 21 of the microcomputer 12 specifies the driver who is driving the vehicle 100 among the pre-registered persons, and acquires the person information of the specified driver. The driver identification process to be executed is executed. The driver specifying process will be described later.

次のステップS13において、マイクロコンピュータ12の運転状態検出部22は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。   In the next step S13, the driving state detection unit 22 of the microcomputer 12 starts a driver abnormal state detection process for detecting the driver's mind and body state. Since this abnormal state detection process has been described in the first embodiment, a description thereof will be omitted.

次のステップS14において、マイクロコンピュータ12は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるのか否かを判定する。運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS12へと戻し、運転に適さない異常状態であると判定した場合には、処理をステップS15へと進める。   In the next step S <b> 14, the microcomputer 12 determines whether or not the driver's current mind-body state is a state suitable for driving the vehicle 100 according to the detected mind-body state of the driver. If it is determined that the driver's mind and body state is suitable for driving the vehicle 100, the process returns to step S12. If the driver is determined to be in an abnormal state unsuitable for driving, the process proceeds to step S15. Proceed to.

ステップS15において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出することで、モニタ3の表示状態を検出する。   In step S15, the microcomputer 12 detects whether the video signal input from the external device via the video signal input port is supplied to the monitor 3 via the video output port. Detect the display state.

次のステップS16において、マイクロコンピュータ12は、ステップS15の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS17へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS18へと進める。   In the next step S16, the microcomputer 12 supplies the video signal input from the external device via the video signal input port to the monitor 3 via the video output port according to the detection result of step S15. If so, the process proceeds to step S17. If the video signal from the external device is not supplied to the monitor 3, the process proceeds to step S18.

ステップS17において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを、この映像信号が作る画像に割り込ませて合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明したので省略する。   In step S <b> 17, the microcomputer 12 interrupts the face image data captured by the camera 1 in the image created by the video signal in response to the video signal being input from the external device via the video signal input port. Determine the size when combining. Since the process for determining the interrupt size of the face image data has been described in the first embodiment, a description thereof will be omitted.

次のステップS18において、マイクロコンピュータ12の文字情報生成部23は、ステップS12において取得された運転者の人物情報と、ステップS13,S14で検出、判定された運転者の心身状態から、モニタ3上に出力表示させるための運転者を示す文字を組み込んだ文字列である文字情報を生成する。この文字情報生成処理については後述する。   In the next step S18, the character information generating unit 23 of the microcomputer 12 uses the personal information of the driver acquired in step S12 and the driver's mind and body state detected and determined in steps S13 and S14 on the monitor 3. Character information, which is a character string incorporating a character indicating the driver for output and display on, is generated. This character information generation process will be described later.

次のステップS19において、マイクロコンピュータ12は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、映像信号にステップS17において決定された画像サイズとなるように顔画像データから生成した映像信号を合成し、さらに、ステップS18で生成した文字情報を付加して、モニタ3に送出する。   In the next step S <b> 19, the microcomputer 12 converts the face image data captured by the camera 1 into a video signal to be supplied to the monitor 3. At this time, if a video signal is supplied from an external device via the video signal input port, the video signal generated from the face image data is combined with the video signal so as to have the image size determined in step S17. Further, the character information generated in step S18 is added and sent to the monitor 3.

また、外部機器から映像信号の入力がない場合には、映像信号の合成処理をすることなく、顔画像データから生成された映像信号に、ステップS18で生成された文字情報を付加してモニタ3に送出する。   When no video signal is input from the external device, the character information generated in step S18 is added to the video signal generated from the face image data without performing the video signal synthesis process, and the monitor 3 is added. To send.

「運転者特定処理」
つぎに、ステップS12において、運転者人物特定部21により実行される運転者特定処理について説明をする。
"Driver specific processing"
Next, driver identification processing executed by the driver person identification unit 21 in step S12 will be described.

運転者人物特定部21によって運転者を特定するには、様々な手法があるが、本例では、カメラ1で撮像された顔画像データと、予め登録してデータベース化しておいた顔画像の特徴情報とを照合処理することで運転者を特定する。マイクロコンピュータ12は、運転者が特定されると、データベースから特定された運転者の人物情報を読み出して取得する。また、このように顔画像データを用いずに、他のバイオメトリックス、例えば指紋情報や、声紋情報といった、運転者固有の生態情報を取得して、マイクロコンピュータ12によって照合処理をすることで、運転者を特定しても良い。   There are various methods for specifying the driver by the driver person specifying unit 21. In this example, the face image data captured by the camera 1 and the features of the face image registered in advance in the database are used. The driver is identified by checking the information. When the driver is specified, the microcomputer 12 reads and acquires the driver's personal information specified from the database. In addition, by using the biometric information unique to the driver, such as fingerprint information and voiceprint information, without using the face image data in this way, the microcomputer 12 performs verification processing to obtain driving information. The person may be specified.

そして、マイクロコンピュータ12は、運転者が特定されると、データベースから特定された運転者の人物情報を読み出して取得する。この場合、図7に示したフローチャートのように、顔画像データを取得する必要がないため、ステップS11とステップS12との順序を入れ替えるようにしてもよい。   And if the driver | operator is specified, the microcomputer 12 will read and acquire the driver | operator's personal information specified from the database. In this case, since it is not necessary to acquire face image data as in the flowchart shown in FIG. 7, the order of step S11 and step S12 may be switched.

上述した手法は、いずれも生体情報を取得してから、マイクロコンピュータ12によってほぼ自動的に運転者を特定するようになっているが、例えば、スイッチなどに運転者となりうる人物を登録しておき、運転者となった人物が、運転時には、そのスイッチを入力することで、マイクロコンピュータ12に運転者の人物情報を通知するといった、手動式の認証方法も適用することができる。   In any of the above-described methods, the driver is identified almost automatically by the microcomputer 12 after acquiring biological information. For example, a person who can be a driver is registered in a switch or the like. A manual authentication method in which the person who becomes the driver inputs the switch when driving to notify the microcomputer 12 of the driver's personal information can also be applied.

「文字情報生成処理」
つぎに、ステップS18において実行される文字情報生成処理について説明をする。
"Character information generation process"
Next, the character information generation process executed in step S18 will be described.

このステップS18の文字情報生成処理において、マイクロコンピュータ12は、ステップS12の運転者特定処理によって得られた人物情報から、人物名又は人物を特定できる呼称(ニックネームや、お父さん、お母さんといった家族称)を決定し、ステップS13及びステップS14の運転者の異常状態検出及び判定処理によって判定される運転者の異常状態のレベルに応じて、決定した人物名、呼称を組み込んだ文字情報を生成する。   In the character information generation process of step S18, the microcomputer 12 uses a person name or a name that can identify a person (nickname, family name such as father or mother) from the person information obtained by the driver identification process of step S12. In accordance with the level of the driver's abnormal state determined by the driver's abnormal state detection and determination process in steps S13 and S14, character information incorporating the determined person name and name is generated.

例えば、マイクロコンピュータ12は、異常状態が小レベルの場合、モニタ3を見ている乗員に対して、運転者との会話を促すような”○○さんとお話ししましょう”というような文字情報を生成して、当該文字情報を映像情報に付加してモニタ3に出力表示させる。   For example, when the abnormal state is at a low level, the microcomputer 12 provides character information such as “Let's talk to Mr. XX” that prompts the passenger who is watching the monitor 3 to talk to the driver. The character information is generated, added to the video information, and output and displayed on the monitor 3.

また、マイクロコンピュータ12は、異常状態が中レベルの場合、モニタ3を見ている同乗者に対して、注意を喚起するような”○○さんが退屈しています。気をつけてあげてください”というような文字情報を生成し、当該文字情報を映像情報に付加してモニタ3に出力表示させる。   Also, when the abnormal state is medium level, the microcomputer 12 is bored to call attention to the passengers who are watching the monitor 3. “Please be careful. Is generated, added to the video information, and output and displayed on the monitor 3.

さらにまた、マイクロコンピュータ12は、異常状態が大レベルの場合、モニタ3を見ている同乗者に対して、直接的に注意をするような”○○さんが眠そうです。注意してあげてください。”というような文字情報を生成し、当該文字情報を映像情報に付加してモニタ3に出力表示させる。   Furthermore, when the abnormal state is at a high level, the microcomputer 12 is likely to sleep “Mr. XX” who is directly paying attention to the passenger watching the monitor 3. Please generate character information such as "Please add the character information to the video information and display it on the monitor 3".

具体的には、文字情報生成部23は、図8(a)乃至(f)のように映像情報に文字情報MJが付加されてモニタ3に出力表示させることになる。図8(a),(b),(c)は、マイクロコンピュータ12に、外部機器からの映像信号、ここではナビゲーションシステムからの地図情報MGに基づいた映像信号が入力されている場合の例であり、図8(d),(e),(f)は、マイクロコンピュータ12に、外部機器からの映像信号入力がない場合の例である。   Specifically, the character information generation unit 23 adds the character information MJ to the video information as shown in FIGS. 8A to 8F and outputs and displays it on the monitor 3. 8A, 8B, and 8C are examples in the case where a video signal from an external device, here, a video signal based on the map information MG from the navigation system is input to the microcomputer 12. FIG. FIG. 8D, FIG. 8E, and FIG. 8F show examples in which the microcomputer 12 does not receive a video signal input from an external device.

また、文字情報生成部23は、運転者の異常状態のレベルが、小レベル→中レベル→大レベルと変化することに応じて、図8(a)→図8(b)→図8(c)若しくは図8(d)→図8(e)→図8(f)の順序でモニタ3上に出力表示される画像及び文字情報を変化させても良い。   In addition, the character information generation unit 23 changes the level of the driver's abnormal state from small level → medium level → high level to FIG. 8A → FIG. 8B → FIG. 8C. ) Or FIG. 8D → FIG. 8E → FIG. 8F, the image and character information output and displayed on the monitor 3 may be changed.

また、マイクロコンピュータ12は、ステップS12の運転者特定処理において運転者を特定できなかった場合、”○○”さんという固有名詞を”運転者”、”ドライバー”といった普通名詞にしたり、呼称を付加せずに異常状態にレベルに応じた文字情報のみを生成しても良い。   If the microcomputer 12 cannot identify the driver in the driver specifying process in step S12, the microcomputer 12 changes the proper noun “XX” to a common noun such as “driver” or “driver” or adds a name. Instead, only character information corresponding to the level in the abnormal state may be generated.

[第2実施形態の効果]
以上詳細に説明したように、第2実施形態に係る車両内コミュニケーション装置20によれば、通常状態で、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を割り込ませると共に、当該映像に文字情報を付加するので、的確に運転者の心身状態がどのような状態かを同乗者に通知することができる。これに応じて、乗員は、運転者とのコミュニケーションを開始することで、運転者の異常状態が継続することを未然に防止することができる。
[Effects of Second Embodiment]
As described above in detail, according to the in-vehicle communication device 20 according to the second embodiment, an image that is being viewed by a passenger other than the driver in a normal state is displayed according to the state of mind of the driver. Since the video whose size has been determined is interrupted and character information is added to the video, it is possible to accurately notify the passenger of the state of mind and body of the driver. In response to this, the occupant can prevent the driver's abnormal state from continuing by starting communication with the driver.

また、この車両内コミュニケーション装置20によれば、運転者の人物特定を行った上で、当該特定された人物の呼称を文字情報に含めて同乗者に提示するので、更に同乗者とドライバのコミュニケーションを更に円滑に誘発させることができる。   Further, according to this in-vehicle communication device 20, since the driver's person is specified and the name of the specified person is included in the character information and presented to the passenger, further communication between the passenger and the driver is performed. Can be induced more smoothly.

更にまた、この車両内コミュニケーション装置20によれば、カメラ1によって取得した顔画像データと、予めデータベース化しておいた画像データとを照合して人物特定を行うので、的確に運転者の人物特定を行うことができる。   Furthermore, according to this in-vehicle communication device 20, since the person identification is performed by comparing the face image data acquired by the camera 1 with the image data stored in the database in advance, the person identification of the driver can be accurately performed. It can be carried out.

[第3実施形態]
つぎに、第3実施形態に係る車両内コミュニケーション装置30について図9及び図10を用いて説明する。
[Third Embodiment]
Next, the in-vehicle communication device 30 according to the third embodiment will be described with reference to FIGS. 9 and 10.

図9及び図10に示すように、車両内コミュニケーション装置30は、カメラ1と、マイクロコンピュータ2と、モニタ3と、マイク4と、スピーカ5とを備え、図1及び図2を用いて説明をした車両内コミュニケーション装置10にマイク4と、スピーカ5とを付加した以外は全く同じ構成である。したがって、車両内コミュニケーション装置10と同じ機能部には、同一符号を付し説明を省略する。   As shown in FIGS. 9 and 10, the in-vehicle communication device 30 includes a camera 1, a microcomputer 2, a monitor 3, a microphone 4, and a speaker 5, and will be described with reference to FIGS. 1 and 2. The configuration is exactly the same except that the microphone 4 and the speaker 5 are added to the in-vehicle communication device 10. Therefore, the same functional parts as those in the in-vehicle communication device 10 are denoted by the same reference numerals and description thereof is omitted.

マイク4は、運転者以外の同乗者の音声を収音する。マイク4は、例えば、図10に示すように前部座席102の背面側の、後部座席103に搭乗する同乗者が発する声を収音しやすい位置に設置される。   The microphone 4 collects the voices of passengers other than the driver. For example, as shown in FIG. 10, the microphone 4 is installed on the back side of the front seat 102 at a position where it is easy to collect a voice uttered by a passenger on the rear seat 103.

スピーカ5は、マイク4で収音された同乗者の音声を、図示しない音声伝達回路を経由して運転者に対して出力する。スピーカ5は、例えば、図10に示すように運転者が着座する運転席のヘッドレスト105部分に設置される。   The speaker 5 outputs the passenger's voice collected by the microphone 4 to the driver via a voice transmission circuit (not shown). The speaker 5 is installed, for example, in the headrest 105 portion of the driver's seat where the driver is seated as shown in FIG.

続いて、図11に示すフローチャートを用いて車両コミュニケーション装置30の処理動作について説明をする。   Next, the processing operation of the vehicle communication device 30 will be described using the flowchart shown in FIG.

ステップS21において、カメラ1によって運転者の顔が撮像され、取得された顔画像データは、マイクロコンピュータ2に送出される。   In step S <b> 21, the driver's face is imaged by the camera 1, and the acquired face image data is sent to the microcomputer 2.

次のステップS22において、マイクロコンピュータ2は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。   In the next step S22, the microcomputer 2 starts a driver abnormal state detection process for detecting the driver's mind and body state. Since this abnormal state detection process has been described in the first embodiment, a description thereof will be omitted.

次のステップS23において、マイクロコンピュータ2は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態か否かを判定する。マイクロコンピュータ2は、運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS24へと進め、運転に適さない異常状態であると判定した場合には、処理をステップS25へと進める。   In the next step S <b> 23, the microcomputer 2 determines whether or not the current state of mind of the driver is suitable for driving the vehicle 100 according to the detected state of mind of the driver. If the microcomputer 2 determines that the driver's mind and body state is suitable for driving the vehicle 100, the microcomputer 2 proceeds to step S24, and if the microcomputer 2 determines that the driver is in an abnormal state not suitable for driving. Then, the process proceeds to step S25.

ステップS24において、運転者の心身状態が、車両100の運転に適した状態であると判定されたことに応じて、マイク4とスピーカ5とを接続する音声伝達回路をオフ状態にして機能を停止させて処理をステップS21へと戻し、通常状態であるとして、映像出力ポートからモニタ3に外部機器からの映像信号を出力させる。   In step S24, when it is determined that the state of mind of the driver is suitable for driving the vehicle 100, the sound transmission circuit connecting the microphone 4 and the speaker 5 is turned off to stop the function. Then, the process returns to step S21, and the video signal from the external device is output from the video output port to the monitor 3 assuming that the normal state.

一方、ステップS25において、運転者の心身状態が、車両100の運転に適さない状態であると判定されたことに応じて、マイク4とスピーカ5とを接続する音声伝達回路をオン状態にし、機能をアクティブ状態とする。これにより、運転者以外の同乗者は、マイク4からスピーカ5を介して、運転者に対して自身の声を伝達することができる状態となる。例えば、同乗者は、マイク4から運転者の心身状態が異常であることに対して注意を呼びかけるメッセージを入力することが可能となる。   On the other hand, in step S25, when it is determined that the driver's mind and body state is not suitable for driving the vehicle 100, the voice transmission circuit that connects the microphone 4 and the speaker 5 is turned on, Is made active. Thereby, the passengers other than the driver are in a state in which their voices can be transmitted from the microphone 4 to the driver via the speaker 5. For example, the passenger can input a message for calling attention from the microphone 4 that the driver's mind and body condition is abnormal.

次のステップS26において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出し、モニタ3の表示画面状態を検出する。   In the next step S26, the microcomputer 2 detects whether the video signal input from the external device via the video signal input port is supplied to the monitor 3 via the video output port. Detect the display screen state.

次のステップS27において、マイクロコンピュータ2は、ステップS26の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS28へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS29へと進める。   In the next step S27, the microcomputer 2 supplies the video signal input from the external device via the video signal input port to the monitor 3 via the video output port according to the detection result of step S26. If so, the process proceeds to step S28. If the video signal from the external device is not supplied to the monitor 3, the process proceeds to step S29.

ステップS28において、マイクロコンピュータ2は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを、この映像信号が作る画像に割り込ませ、合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明をしたので省略する。   In step S28, the microcomputer 2 causes the face image data captured by the camera 1 to interrupt the image created by the video signal in response to the video signal being input from the external device via the video signal input port. Determine the size when compositing. Since the process for determining the interrupt size of the face image data has been described in the first embodiment, a description thereof will be omitted.

一方ステップS29において、マイクロコンピュータ2は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、前記映像信号に、ステップS28において決定された画像サイズとなるように顔画像データから生成した映像信号を合成して、モニタ3に送出する。   On the other hand, in step S29, the microcomputer 2 converts the face image data captured by the camera 1 into a video signal to be supplied to the monitor 3. At this time, if a video signal is supplied from an external device via the video signal input port, the video signal generated from the face image data so as to have the image size determined in step S28 is added to the video signal. Are sent out to the monitor 3.

[第3実施形態の効果]
このように、第3実施形態に係る車両内コミュニケーション装置30によれば、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を強制的に割り込ませると共に、同時に、同乗者と運転者とを繋ぐマイク4とスピーカ5とが電気的に接続されるため、同乗者と運転者とのコミュニケーションを更に促進することができる。
[Effect of the third embodiment]
As described above, according to the in-vehicle communication device 30 according to the third embodiment, a video whose image size is determined according to the mind and body state of the driver is forcibly displayed on a video that is being viewed by a passenger other than the driver. Since the microphone 4 and the speaker 5 that connect the passenger and the driver are electrically connected at the same time, the communication between the passenger and the driver can be further promoted.

[第4実施形態]
つぎに、第4実施形態に係る車両内コミュニケーション装置40ついて図12を用いて説明する。
[Fourth Embodiment]
Next, the in-vehicle communication device 40 according to the fourth embodiment will be described with reference to FIG.

この車両内コミュニケーション装置40は、カメラ1と、マイクロコンピュータ12と、モニタ3と、マイク4と、スピーカ5とを備え、図9及び図10を用いて説明した車両内コミュニケーション装置30のマイクロコンピュータ2を、図6を用いて説明をした車両内コミュニケーション装置20のマイクロコンピュータ12に代えた以外は、全く同じ構成である。したがって、車両内コミュニケーション装置20,30と同じ機能部には、同一符号を付し説明を省略する。   The in-vehicle communication device 40 includes a camera 1, a microcomputer 12, a monitor 3, a microphone 4, and a speaker 5. The microcomputer 2 of the in-vehicle communication device 30 described with reference to FIGS. The configuration is exactly the same except that is replaced with the microcomputer 12 of the in-vehicle communication device 20 described with reference to FIG. Therefore, the same function parts as those in the in-vehicle communication devices 20 and 30 are denoted by the same reference numerals and description thereof is omitted.

このような車両コミュニケーション装置40の処理動作を図13に示すフローチャートを用いて説明する。   The processing operation of the vehicle communication device 40 will be described with reference to the flowchart shown in FIG.

先ずステップS31において、カメラ1によって運転者の顔が撮像され、取得された顔画像データを、マイクロコンピュータ12に送出させる。   First, in step S31, the driver's face is imaged by the camera 1, and the acquired face image data is sent to the microcomputer 12.

次のステップS32において、車両100を運転している運転者を特定し、運転者の人物情報を取得する運転者特定処理が実行される。この運転者特定処理については、第2実施形態で説明をしたので省略する。   In the next step S32, a driver specifying process for specifying a driver who is driving the vehicle 100 and acquiring personal information of the driver is executed. Since this driver specifying process has been described in the second embodiment, a description thereof will be omitted.

次のステップS33において、マイクロコンピュータ12は、運転者の心身状態を検出する運転者の異常状態検出処理を開始する。この異常状態検出処理については、第1実施形態で説明をしたので省略する。   In the next step S33, the microcomputer 12 starts a driver abnormal state detection process for detecting the driver's mind and body state. Since this abnormal state detection process has been described in the first embodiment, a description thereof will be omitted.

次のステップS34において、マイクロコンピュータ12は、 検出した運転者の心身状態に応じて、運転者の現在の心身状態が車両100の運転に適した状態であるか否かを判定する。マイクロコンピュータ12は、運転者の心身状態が、車両100の運転に適した状態であると判定した場合は、処理をステップS35へと進め、運転に適さない異常状態であると判定した場合には、処理をステップS36へと進める。   In the next step S <b> 34, the microcomputer 12 determines whether or not the driver's current mind-body state is a state suitable for driving the vehicle 100, according to the detected mind-body state of the driver. If the microcomputer 12 determines that the state of mind of the driver is suitable for driving the vehicle 100, the microcomputer 12 proceeds to step S35, and if the microcomputer 12 determines that the abnormal state is not suitable for driving. Then, the process proceeds to step S36.

ステップS35において、運転者の心身状態が、車両100の運転に適した状態であると判定されたことに応じて、マイク4とスピーカ5とを繋ぐ音声伝達回路をオフ状態にして機能を停止させ、処理をステップS32へと戻す。   In step S35, when it is determined that the state of mind of the driver is suitable for driving the vehicle 100, the voice transmission circuit connecting the microphone 4 and the speaker 5 is turned off to stop the function. Then, the process returns to step S32.

一方ステップS36において、運転者の心身状態が、車両100の運転に適さない状態であると判定されたことに応じて、マイク4とスピーカ5とを繋ぐ音声伝達回路をオン状態にして、機能をアクティブ状態とすることにより、運転者以外の同乗者は、マイク4及びスピーカ5を介して、運転者に対して、自身の声を伝達することができる状態となる。   On the other hand, in step S36, when it is determined that the driver's mind and body state is not suitable for driving the vehicle 100, the voice transmission circuit connecting the microphone 4 and the speaker 5 is turned on, and the function is performed. By setting the active state, passengers other than the driver can transmit their voices to the driver via the microphone 4 and the speaker 5.

次のステップS37において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して入力された映像信号を、映像出力ポートを介してモニタ3に供給しているか否かを検出し、モニタ3の表示画面状態を検出する。   In the next step S37, the microcomputer 12 detects whether the video signal input from the external device via the video signal input port is supplied to the monitor 3 via the video output port. Detect the display screen state.

次のステップS38において、マイクロコンピュータ12は、ステップS37の検出結果に応じて、外部機器から映像信号入力ポートを介して入力された映像信号が、映像出力ポートを介してモニタ3に供給されている場合は、処理をステップS39へと進め、外部機器からの映像信号がモニタ3に供給されていない場合は、処理をステップS40へと進める。   In the next step S38, the microcomputer 12 supplies the video signal input from the external device via the video signal input port to the monitor 3 via the video output port according to the detection result of step S37. If so, the process proceeds to step S39. If the video signal from the external device is not supplied to the monitor 3, the process proceeds to step S40.

次のステップS39において、マイクロコンピュータ12は、外部機器から映像信号入力ポートを介して映像信号が入力されていることに応じて、カメラ1で撮像した顔画像データを割り込ませて、合成する際のサイズを決定する。顔画像データの割り込みサイズの決定処理については、第1実施形態で説明をしたので省略する。   In the next step S39, the microcomputer 12 interrupts and synthesizes the face image data captured by the camera 1 in response to the video signal being input from the external device via the video signal input port. Determine the size. The process for determining the interrupt size of the face image data has been described in the first embodiment, and is therefore omitted.

ステップS40において、マイクロコンピュータ12は、ステップS32において、取得された運転者の人物情報と、ステップS33,S34で検出して判定された運転者の心身状態から、モニタ3上に出力表示させる文字情報を生成する。この文字情報生成処理については、第2実施形態で説明をしたので省略する。   In step S40, the microcomputer 12 outputs and displays on the monitor 3 the character information of the driver obtained in step S32 and the driver's mind and body state detected and determined in steps S33 and S34. Is generated. Since this character information generation process has been described in the second embodiment, a description thereof will be omitted.

ステップS41において、マイクロコンピュータ12は、カメラ1で撮像した顔画像データを、モニタ3に供給するための映像信号に変換する。このとき、外部機器から、映像信号入力ポートを介して映像信号が供給されている場合には、ステップS39において決定された画像サイズとなるように顔画像データから生成した映像信号を合成し、さらに、ステップS40で生成した文字情報を付加して、モニタ3に送出する。   In step S <b> 41, the microcomputer 12 converts the face image data captured by the camera 1 into a video signal to be supplied to the monitor 3. At this time, if the video signal is supplied from the external device via the video signal input port, the video signal generated from the face image data is synthesized so as to have the image size determined in step S39, and The character information generated in step S40 is added and sent to the monitor 3.

また、外部機器から映像信号の入力がない場合には、映像信号の合成処理をすることなく、顔画像データから生成された映像信号に、ステップS40で生成された文字情報を付加してモニタ3に送出する。   If no video signal is input from the external device, the character information generated in step S40 is added to the video signal generated from the face image data without performing the video signal synthesis process, and the monitor 3 is added. To send.

[第4実施形態の効果]
このような第4実施形態に係る車両内コミュニケーション装置40によれば、運転者以外の同乗者が視聴している映像に、運転者の心身状態に応じて画像サイズが決定された映像を割り込ませると共に文字情報を提示し、更に、音声伝達回路をオン状態にすることにより、更に確実且つ的確に同乗者と運転者とのコミュニケーションを促進することができる。
[Effect of Fourth Embodiment]
According to the in-vehicle communication device 40 according to the fourth embodiment as described above, an image whose image size is determined in accordance with the state of mind and body of the driver is inserted into an image that is being viewed by a passenger other than the driver. At the same time, by presenting character information and further turning on the voice transmission circuit, communication between the passenger and the driver can be promoted more reliably and accurately.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した第1実施形態に係る車両コミュニケーション装置の構成を示したブロック図である。It is the block diagram which showed the structure of the vehicle communication apparatus which concerns on 1st Embodiment to which this invention is applied. 本発明を適用した第1実施形態に係る車両コミュニケーション装置を車両へ設置した様子を示した図である。It is the figure which showed a mode that the vehicle communication apparatus which concerns on 1st Embodiment to which this invention was applied was installed in the vehicle. 本発明を適用した第1実施形態に係る車両コミュニケーション装置の処理動作について説明するためのフローチャートである。It is a flowchart for demonstrating the processing operation of the vehicle communication apparatus which concerns on 1st Embodiment to which this invention is applied. 本発明を適用した第1実施形態に係る車両コミュニケーション装置が備えるステアリングハンドルを示した図である。It is the figure which showed the steering handle with which the vehicle communication apparatus which concerns on 1st Embodiment to which this invention is applied is provided. 図5(a)乃至(e)は、心身状態の異常レベルの違いに応じて、モニタに表示される画像を示した図である。FIGS. 5A to 5E are diagrams showing images displayed on the monitor in accordance with the difference in the abnormal level of the psychosomatic state. 本発明を適用した第2実施形態に係る車両コミュニケーション装置の構成を示した図である。It is the figure which showed the structure of the vehicle communication apparatus which concerns on 2nd Embodiment to which this invention is applied. 本発明を適用した第2実施形態に係る車両コミュニケーション装置の処理動作について説明するためのフローチャートである。It is a flowchart for demonstrating the processing operation of the vehicle communication apparatus which concerns on 2nd Embodiment to which this invention is applied. 図8(a)乃至(f)は、心身状態の異常レベルの違いに応じて、モニタに表示される文字情報が付加された画像を示した図である。FIGS. 8A to 8F are diagrams showing images to which character information displayed on the monitor is added according to the difference in the abnormal level of the mind and body state. 本発明を適用した第3実施形態に係る車両コミュニケーション装置の構成を示した図である。It is the figure which showed the structure of the vehicle communication apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る車両コミュニケーション装置を車両へ設置した様子を示した図である。It is the figure which showed a mode that the vehicle communication apparatus which concerns on 3rd Embodiment to which this invention was applied was installed in the vehicle. 本発明を適用した第3実施形態に係る車両コミュニケーション装置の処理動作について説明するためのフローチャートである。It is a flowchart for demonstrating the processing operation of the vehicle communication apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第4実施形態に係る車両コミュニケーション装置の構成を示した図である。It is the figure which showed the structure of the vehicle communication apparatus which concerns on 4th Embodiment to which this invention is applied. 本発明を適用した第4実施形態に係る車両コミュニケーション装置の処理動作について説明するためのフローチャートである。It is a flowchart for demonstrating the processing operation of the vehicle communication apparatus which concerns on 4th Embodiment to which this invention is applied.

符号の説明Explanation of symbols

1 カメラ
2 マイクロコンピュータ
3 モニタ
4 マイク
5 スピーカ
10,20,30,40 車両内コミュニケーション装置
12 マイクロコンピュータ
21 運転者人物特定部
22 運転状態検出部
23 文字情報生成部
100 車両
101 インストルメントパネル
102 前部座席
103 後部座席
104 ステアリングハンドル
105 ヘッドレスト
DESCRIPTION OF SYMBOLS 1 Camera 2 Microcomputer 3 Monitor 4 Microphone 5 Speaker 10, 20, 30, 40 In-vehicle communication apparatus 12 Microcomputer 21 Driver person specific part 22 Driving state detection part 23 Character information generation part 100 Vehicle 101 Instrument panel 102 Front part Seat 103 Rear seat 104 Steering handle 105 Headrest

Claims (8)

車両に搭載される車両内コミュニケーション装置であって、
前記車両の運転操作を行う運転者の顔を撮像する撮像手段と、
前記運転者の心身状態を検出する心身状態検出手段と、
前記心身状態検出手段によって検出された運転者の心身状態に基づいて、運転者の心身状態が異常か否かを判定する判定手段と、
外部機器から供給される映像信号を入力する入力手段と、
前記入力手段によって入力された映像信号に基づく映像を表示する表示手段と、
前記判定手段によって運転者の心身状態に異常があると判定された場合に、前記入力手段によって入力された映像信号と、前記撮像手段によって撮像された運転者の顔の映像信号とを合成し、当該合成された映像信号を前記表示手段で表示させるように制御する制御手段と
を備えることを特徴とする車両内コミュニケーション装置。
An in-vehicle communication device mounted on a vehicle,
Imaging means for imaging the face of the driver who performs the driving operation of the vehicle;
A psychosomatic state detection means for detecting the driver's psychosomatic state;
Determination means for determining whether or not the driver's mind-body condition is abnormal based on the mind-body condition of the driver detected by the mind-body condition detector;
Input means for inputting a video signal supplied from an external device;
Display means for displaying video based on the video signal input by the input means;
When it is determined by the determination means that the driver's mind and body condition is abnormal, the video signal input by the input means and the video signal of the driver's face imaged by the imaging means are combined, Control means for controlling the synthesized video signal to be displayed on the display means. An in-vehicle communication device comprising:
前記心身状態検出手段は、前記撮像手段で撮像された運転者の顔画像データに所定の画像処理を施して、前記運転者の心身状態として、居眠り、脇見、漫然状態、怒り、過度の緊張の何れかを検出し、
前記判定手段は、前記心身状態検出手段によって居眠り、脇見、漫然状態、怒り、過度の緊張のうち、何れかの心身状態が検出された場合に、前記運転者の心身状態が異常であると判定することを特徴とする請求項1に記載の車両内コミュニケーション装置。
The mind-body state detection means performs predetermined image processing on the driver's face image data imaged by the imaging means, and the driver's mind-body state falls asleep, looks aside, abusive, angry, excessive tension Detect either
The determination means determines that the driver's mind-body condition is abnormal when any mind-body condition is detected among the mind-body condition detection means: doze, look aside, sloppy condition, anger, and excessive tension. The in-vehicle communication device according to claim 1.
前記心身状態検出手段は、運転者の生体情報を検出して、前記運転者の心身状態として、居眠り、脇見、漫然状態、怒り、過度の緊張の何れかを検出する生体情報検出手段を更に備え
前記判定手段は、前記心身状態検出手段によって居眠り、脇見、漫然状態、怒り、過度の緊張のうち、何れかの心身状態が検出された場合に、前記運転者の心身状態が異常であると判定することを特徴とする請求項1に記載の車両内コミュニケーション装置。
The psychosomatic state detecting means further comprises biometric information detecting means for detecting biometric information of the driver and detecting any one of the driver's psychosomatic state such as dozing, looking aside, sloppy state, anger, and excessive tension. The determination means determines that the driver's mind-body condition is abnormal when any mind-body condition is detected among the mind-body condition detection means: doze, look aside, sloppy condition, anger, and excessive tension. The in-vehicle communication device according to claim 1.
前記判定手段による運転者の心身状態に基づいた判定結果に応じて、前記運転者の心身状態を通知する文字情報を生成する文字情報生成手段を更に備え、
前記制御手段は、前記文字情報生成手段で生成された文字情報を前記合成された映像信号に付加し、当該映像信号に基づく映像を前記表示手段に表示させるように制御することを特徴とする請求項1に記載の車両内コミュニケーション装置。
According to a determination result based on the driver's mind and body state by the determination means, further comprising: character information generating means for generating character information for notifying the driver's mind and body state;
The control means adds the character information generated by the character information generation means to the synthesized video signal, and controls the display means to display a video based on the video signal. Item 2. The in-vehicle communication device according to Item 1.
運転者を特定する運転者特定手段を更に備え、
前記文字情報生成手段は、前記運転者特定手段によって特定された前記運転者を示す文字を組み込んだ文字列の前記文字情報を生成することを特徴とする請求項4に記載の車両内コミュニケーション装置。
A driver identification unit for identifying the driver;
The in-vehicle communication device according to claim 4, wherein the character information generating unit generates the character information of a character string incorporating a character indicating the driver specified by the driver specifying unit.
前記運転者特定手段は、前記撮像手段によって撮像された顔画像データと、予め保持されているデータベース上の顔画像データとを比較照合して、前記運転者を特定することを特徴とする請求項5に記載の車両内コミュニケーション装置。   The driver identification means identifies the driver by comparing and collating face image data captured by the imaging means with face image data on a database stored in advance. 5. The in-vehicle communication device according to 5. 前記判定手段は、前記心身状態検出手段によって検出された運転者の心身状態に基づいて判定する運転者の異常を、異常の程度によってレベル分けして判定し、
前記制御手段は、前記判定手段による運転者の心身状態の異常の程度が低い場合には、前記運転者の顔の映像が、前記入力手段によって入力される映像信号による映像よりも小さくなるように合成し、前記判定手段による運転者の心身状態の異常の程度が高い場合には、前記運転者の顔の映像が、前記入力手段によって入力される映像信号による映像よりも大きくなるように合成することを特徴とする請求項1に記載の車両内コミュニケーション装置。
The determination means determines the driver abnormality determined based on the mind and body state of the driver detected by the mind and body state detection means, classified by level according to the degree of abnormality,
When the degree of abnormality of the driver's mind and body condition by the determination unit is low, the control unit is configured so that the video of the driver's face is smaller than the video by the video signal input by the input unit. When the degree of abnormality of the driver's mind and body state by the determination unit is high, the driver's face image is combined so as to be larger than the image by the video signal input by the input unit. The in-vehicle communication device according to claim 1.
前記運転者以外の乗員の音声を入力する音声入力手段と、
前記音声入力手段によって入力された音声を前記運転者に対して出力する音声出力手段と、
前記判定手段によって前記運転者の心身状態に異常があると判定された場合に、前記音声入力手段と前記音声出力手段とを接続して、前記音声入力手段から入力された前記乗員の音声を、前記音声出力手段を介して前記運転者に出力させる接続回路と
を備えることを特徴とする請求項1乃至請求項7の何れかに記載の車両内コミュニケーション装置。
Voice input means for inputting voices of passengers other than the driver;
Voice output means for outputting the voice input by the voice input means to the driver;
When it is determined by the determination means that the driver's mind and body condition is abnormal, the voice input means and the voice output means are connected, and the voice of the occupant input from the voice input means, The in-vehicle communication device according to claim 1, further comprising: a connection circuit that causes the driver to output via the voice output unit.
JP2004153345A 2004-05-24 2004-05-24 In-vehicle communication device Expired - Fee Related JP4487633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004153345A JP4487633B2 (en) 2004-05-24 2004-05-24 In-vehicle communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004153345A JP4487633B2 (en) 2004-05-24 2004-05-24 In-vehicle communication device

Publications (2)

Publication Number Publication Date
JP2005338934A true JP2005338934A (en) 2005-12-08
JP4487633B2 JP4487633B2 (en) 2010-06-23

Family

ID=35492476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004153345A Expired - Fee Related JP4487633B2 (en) 2004-05-24 2004-05-24 In-vehicle communication device

Country Status (1)

Country Link
JP (1) JP4487633B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007072675A1 (en) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Contents presentation device, and contents presentation method
JP2007212421A (en) * 2006-02-13 2007-08-23 Denso Corp Entertainment information providing system for automobile
WO2014020889A1 (en) * 2012-08-03 2014-02-06 株式会社デンソー Operation control device and operation control program
WO2015174383A1 (en) * 2014-05-16 2015-11-19 Ricoh Company, Ltd. Display device and vehicle
JP2017511164A (en) * 2014-02-24 2017-04-20 ソニー株式会社 Smart wearable device and method with attention level and workload detection
JP2017158149A (en) * 2016-03-04 2017-09-07 トヨタ自動車株式会社 Remote operation system, vehicle, and remote operation device
JP2018105749A (en) * 2016-12-27 2018-07-05 日産自動車株式会社 Method and device for audio assistance
JP2019006331A (en) * 2017-06-28 2019-01-17 矢崎総業株式会社 Vehicle roof mounting system
CN111797662A (en) * 2019-04-08 2020-10-20 财团法人交大思源基金会 Method for evaluating fatigue score of driver
CN113841187A (en) * 2019-05-28 2021-12-24 索尼集团公司 Signal processing device, signal processing method, program, and imaging device
JP2022132278A (en) * 2018-04-12 2022-09-08 株式会社Jvcケンウッド Video control device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007072675A1 (en) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Contents presentation device, and contents presentation method
JP2007212421A (en) * 2006-02-13 2007-08-23 Denso Corp Entertainment information providing system for automobile
JP4509042B2 (en) * 2006-02-13 2010-07-21 株式会社デンソー Hospitality information provision system for automobiles
US8108083B2 (en) 2006-02-13 2012-01-31 Denso Corporation Vehicular system which retrieves hospitality information promoting improvement of user's current energy value based on detected temporal change of biological condition
WO2014020889A1 (en) * 2012-08-03 2014-02-06 株式会社デンソー Operation control device and operation control program
JP2014032119A (en) * 2012-08-03 2014-02-20 Denso Corp Operation control device and operation control program
JP2017511164A (en) * 2014-02-24 2017-04-20 ソニー株式会社 Smart wearable device and method with attention level and workload detection
CN106458029A (en) * 2014-05-16 2017-02-22 株式会社理光 Display device and vehicle
JP2015231828A (en) * 2014-05-16 2015-12-24 株式会社リコー Display device and movable body
WO2015174383A1 (en) * 2014-05-16 2015-11-19 Ricoh Company, Ltd. Display device and vehicle
AU2015260356B2 (en) * 2014-05-16 2018-05-10 Ricoh Company, Ltd. Display device and vehicle
JP2017158149A (en) * 2016-03-04 2017-09-07 トヨタ自動車株式会社 Remote operation system, vehicle, and remote operation device
JP2018105749A (en) * 2016-12-27 2018-07-05 日産自動車株式会社 Method and device for audio assistance
JP2019006331A (en) * 2017-06-28 2019-01-17 矢崎総業株式会社 Vehicle roof mounting system
JP2022132278A (en) * 2018-04-12 2022-09-08 株式会社Jvcケンウッド Video control device
JP7472936B2 (en) 2018-04-12 2024-04-23 株式会社Jvcケンウッド Video control device
CN111797662A (en) * 2019-04-08 2020-10-20 财团法人交大思源基金会 Method for evaluating fatigue score of driver
CN113841187A (en) * 2019-05-28 2021-12-24 索尼集团公司 Signal processing device, signal processing method, program, and imaging device

Also Published As

Publication number Publication date
JP4487633B2 (en) 2010-06-23

Similar Documents

Publication Publication Date Title
US11074769B2 (en) Safety for vehicle users
JP5061074B2 (en) In-vehicle device control apparatus and in-vehicle device control method
JP4487633B2 (en) In-vehicle communication device
US20120169582A1 (en) System ready switch for eye tracking human machine interaction control system
US20090167516A1 (en) Look-away detecting device, method and program
US11084424B2 (en) Video image output apparatus, video image output method, and medium
CN108437999A (en) A kind of attention auxiliary system
CN104665848B (en) Driver status sensing device and its method
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
JP2020024532A (en) Inattentive driving detection device
CN111813491B (en) Vehicle-mounted assistant anthropomorphic interaction method and device and automobile
WO2022010221A1 (en) In-cabin safety sensor installed in vehicle and method for providing service platform therefor
KR102494530B1 (en) Camera Apparatus Installing at a Car for Detecting Drowsy Driving and Careless Driving and Method thereof
CN111717083B (en) Vehicle interaction method and vehicle
JP2008083184A (en) Driving evaluation system
US11787342B2 (en) Vehicular cabin monitoring camera system with dual function
US20190149777A1 (en) System for recording a scene based on scene content
KR20210119243A (en) Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof
JP2021086412A (en) Occupant monitoring device, and occupant monitoring system
CN114390254B (en) Rear-row cockpit monitoring method and device and vehicle
JP2007148506A (en) Driving support device
US11958425B2 (en) System and method for controlling a driver facing camera
KR20220005290A (en) In-Cabin Security Sensor and Platform Service Method therefor
JP2022042239A (en) Object recognition controller and method for controlling object recognition
US20190149778A1 (en) Method for variable recording of a scene based on scene content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees