JP2013182521A - Network system and sensing system - Google Patents

Network system and sensing system Download PDF

Info

Publication number
JP2013182521A
JP2013182521A JP2012047185A JP2012047185A JP2013182521A JP 2013182521 A JP2013182521 A JP 2013182521A JP 2012047185 A JP2012047185 A JP 2012047185A JP 2012047185 A JP2012047185 A JP 2012047185A JP 2013182521 A JP2013182521 A JP 2013182521A
Authority
JP
Japan
Prior art keywords
vehicle
driver
detection system
terminal
warning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012047185A
Other languages
Japanese (ja)
Other versions
JP6047727B2 (en
Inventor
Akira Uchiumi
章 内海
Masahiro Tada
昌裕 多田
Naoki Yamamoto
直樹 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2012047185A priority Critical patent/JP6047727B2/en
Publication of JP2013182521A publication Critical patent/JP2013182521A/en
Application granted granted Critical
Publication of JP6047727B2 publication Critical patent/JP6047727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a network system and a sensing system for allowing a pedestrian or other vehicle around a vehicle to easily avoid danger.SOLUTION: The network system comprises the sensing system installed in the vehicle and a terminal. The sensing system includes a communication interface, a sensor for sensing a recognition state of a driver of the vehicle, and a vehicle processor for transmitting warning information to the terminal via the communication interface on the basis of the recognition state of the driver. The terminal includes an output section, and a terminal processor for causing the output section to output visual and/or auditory warning on the basis of the warning information.

Description

本発明は、車両または歩行者の道路交通上の危険を回避するための技術であって、特に車両の周囲の歩行者または他の車両の危険を低減するための技術に関する。   The present invention relates to a technique for avoiding a road traffic danger of a vehicle or a pedestrian, and more particularly to a technique for reducing the danger of a pedestrian or other vehicle around the vehicle.

従来から、車両と歩行者との交通事故、車両と車両との交通事故を回避するための様々な技術が提案されている。   Conventionally, various techniques for avoiding a traffic accident between a vehicle and a pedestrian and a traffic accident between the vehicle and the vehicle have been proposed.

たとえば、特開2009−199583号公報(特許文献1)には、危険運転予防意識判定システムおよび危険運転予防意識判定方法が開示されている。特許文献1によると、危険運転予防意識判定システムはコンピュータを含む。コンピュータは、たとえば、運転者の頭部に装着された角速度センサと右足先に装着された角速度センサから角速度データを取得し、位置検出装置から現在の位置データを取得し、運転データ記録装置にデータを記録する。自動車が無信号交差点のような危険箇所に近付いたときに危険運転予防のための動作として目視確認動作やブレーキの構えが行われたか否かが角速度データに基づいて判定される。たとえば、危険箇所に対する目視確認動作やブレーキの構えの判定結果が運転データ記録装置に記録され、また、目視確認動作やブレーキの構えが行われなかったと判定されるとき、警報装置から警報が発せられる。   For example, Japanese Unexamined Patent Application Publication No. 2009-199583 (Patent Document 1) discloses a dangerous driving prevention awareness determination system and a dangerous driving prevention awareness determination method. According to Patent Document 1, the dangerous driving prevention consciousness determination system includes a computer. The computer, for example, acquires angular velocity data from an angular velocity sensor attached to the driver's head and an angular velocity sensor attached to the right foot, acquires current position data from the position detection device, and stores data in the driving data recording device. Record. When the vehicle approaches a dangerous place such as a no-signal intersection, it is determined based on the angular velocity data whether a visual confirmation operation or a brake stance is performed as an operation for preventing dangerous driving. For example, the visual confirmation operation for the dangerous part and the determination result of the brake stance are recorded in the operation data recording device, and the alarm device issues an alarm when it is determined that the visual confirmation operation and the brake stance are not performed. .

また、特開2011−090702号公報(特許文献2)には、視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラムが開示されている。特許文献2によると、視線方向の検出装置において、相対関係特定部は、人間が単眼カメラを見ている状態で単眼カメラにより撮影された校正用画像を予め取得し、顔領域内の複数の特徴点間の相対的な3次元の位置関係を特定する。眼球中心推定部は、単眼カメラにより撮影された対象画像領域内において複数の特徴点の投影位置を検出し、特定された相対的な3次元の位置関係に基づいて、人間の眼球中心の投影位置を推定する。視線方向推定部は、抽出された虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線方向を推定する。   Japanese Unexamined Patent Application Publication No. 2011-090702 (Patent Document 2) discloses a gaze direction estimation device, a gaze direction estimation method, and a program for causing a computer to execute the gaze direction estimation method. According to Patent Document 2, in the gaze direction detection device, the relative relationship specifying unit acquires in advance a calibration image captured by a monocular camera while a human is looking at the monocular camera, and a plurality of features in the face region are obtained. A relative three-dimensional positional relationship between points is specified. The eyeball center estimation unit detects the projection positions of a plurality of feature points in the target image area captured by the monocular camera, and based on the specified relative three-dimensional positional relationship, the projection position of the human eyeball center Is estimated. The gaze direction estimation unit estimates the gaze direction based on the extracted iris center position and the estimated projection position of the eyeball center.

特開2009−199583号公報JP 2009-199583 A 特開2011−090702号公報JP 2011-090702 A

しかしながら、従来の技術では、危険を回避するという効果が車両の運転手の注意力に依存してしまう。換言すれば、車両の運転手が適切に対応できなければ、危険を回避できる可能性が低減されてしまう。   However, in the conventional technology, the effect of avoiding the danger depends on the attention of the vehicle driver. In other words, if the driver of the vehicle cannot respond appropriately, the possibility that danger can be avoided is reduced.

本発明は、かかる問題を解決するためになされたものであり、その目的は、車両の周囲の歩行者または他の車両が危険を回避し易くなるネットワークシステムおよび検知システムを提供することにある。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a network system and a detection system in which pedestrians or other vehicles around the vehicle can easily avoid danger.

この発明のある局面に従うと、車両に搭載される検知システムと、端末と、を備えるネットワークシステムが提供される。検知システムは、通信インターフェイスと、車両の運転手の認知状態を検知するためのセンサと、運転手の認知状態に基づいて、通信インターフェイスを介して端末に警告情報を送信するための車両プロセッサとを含む。端末は、出力部と、警告情報に基づいて、出力部に、視覚的な警告、聴覚的な警告、および振動による警告の少なくともいずれかを出力させる端末プロセッサとを含む。   According to an aspect of the present invention, a network system including a detection system mounted on a vehicle and a terminal is provided. The detection system includes a communication interface, a sensor for detecting a recognition state of the driver of the vehicle, and a vehicle processor for transmitting warning information to the terminal via the communication interface based on the recognition state of the driver. Including. The terminal includes an output unit and a terminal processor that causes the output unit to output at least one of a visual warning, an audible warning, and a vibration warning based on the warning information.

好ましくは、検知システムは、車両の位置および向きを検知するための第1の位置計測センサをさらに含む。車両プロセッサは、通信インターフェイスを介して端末に、車両の位置および向きを示す情報を送信する。端末は、端末の位置を検知するための第2の位置計測センサをさらに含む。端末プロセッサは、車両の位置および向きを示す情報と端末の位置を示す情報とに基づいて、端末が車両の進行方向に位置する場合に出力部に警告を出力させる。   Preferably, the detection system further includes a first position measurement sensor for detecting the position and orientation of the vehicle. The vehicle processor transmits information indicating the position and orientation of the vehicle to the terminal via the communication interface. The terminal further includes a second position measurement sensor for detecting the position of the terminal. The terminal processor causes the output unit to output a warning when the terminal is located in the traveling direction of the vehicle based on information indicating the position and orientation of the vehicle and information indicating the position of the terminal.

好ましくは、センサは、運転手の認知状態として、運転手の視線を検知する。車両プロセッサは、運転手の視線に基づいて、端末に警告を送信するか否かを判断する。   Preferably, the sensor detects the driver's line of sight as the driver's cognitive state. The vehicle processor determines whether or not to send a warning to the terminal based on the driver's line of sight.

好ましくは、端末は、歩行者によって保持可能である。   Preferably, the terminal can be held by a pedestrian.

好ましくは、端末は、車両とは異なる他の車両に搭載される検知システムに含まれる。   Preferably, the terminal is included in a detection system mounted on another vehicle different from the vehicle.

好ましくは、端末は、道路に対して直接的または他の構造物を介して間接的に設置される。   Preferably, the terminal is installed directly on the road or indirectly through another structure.

この発明の別の局面に従うと、車両に搭載される検知システムが提供される。検知システムは、通信インターフェイスと、車両の運転手の認知状態を検知するためのセンサと、運転手の認知状態に基づいて、通信インターフェイスを介して端末に警告情報を送信するための車両プロセッサとを備える。   When another situation of this invention is followed, the detection system mounted in a vehicle is provided. The detection system includes a communication interface, a sensor for detecting a recognition state of the driver of the vehicle, and a vehicle processor for transmitting warning information to the terminal via the communication interface based on the recognition state of the driver. Prepare.

この発明の別の局面に従うと、車両に搭載される検知システムが提供される。検知システムは、出力部と、車両の運転手の認知状態を検知するためのセンサと、運転手の認知状態に基づいて、出力部に視覚的な警告、聴覚的な警告、および振動による警告の少なくともいずれかを出力させるためのコンピュータとを備える。   When another situation of this invention is followed, the detection system mounted in a vehicle is provided. The detection system includes an output unit, a sensor for detecting the recognition state of the driver of the vehicle, and a visual warning, an audible warning, and a vibration warning based on the recognition state of the driver. A computer for outputting at least one of them.

好ましくは、センサは、運転手の認知状態として運転手の視線を検知する。車両プロセッサは、運転手の視線に基づいて、警告として、出力部に視覚的および/または聴覚的に運転手の視線の方向を示す情報を出力させる。   Preferably, the sensor detects the driver's line of sight as the driver's cognitive state. The vehicle processor causes the output unit to output information indicating the direction of the driver's line of sight visually and / or audibly as a warning based on the driver's line of sight.

以上のように、本発明によって、車両の周囲の歩行者または他の車両が危険を回避し易くなる。   As described above, the present invention makes it easier for pedestrians or other vehicles around the vehicle to avoid danger.

実施の形態1に係るネットワークシステム1の動作概要を示すイメージ図である。FIG. 3 is an image diagram showing an operation outline of the network system 1 according to the first embodiment. 歩行者が有する携帯電話200を含むネットワークシステム1の構成を示すブロック図である。It is a block diagram which shows the structure of the network system 1 containing the mobile telephone 200 which a pedestrian has. 実験対象である各運転手の認知状態を安全確認の観点から解析した結果を示すグラフである。It is a graph which shows the result of having analyzed the cognitive state of each driver who is an experiment object from a viewpoint of safety confirmation. 実験対象である各運転手の認知状態を速度コントロールの観点から解析した結果である。It is the result of analyzing the cognitive state of each driver who is the subject of experiment from the viewpoint of speed control. 実施の形態1に係るネットワークシステム1における処理を示すフローチャートである。3 is a flowchart showing processing in the network system 1 according to the first embodiment. 携帯電話200のディスプレイ230が警告情報を表示する状態を示すイメージ図である。It is an image figure which shows the state in which the display 230 of the mobile telephone 200 displays warning information. 他の車両99Xの検知システム100Xを含むネットワークシステム1の構成を示すブロック図である。It is a block diagram which shows the structure of the network system 1 containing the detection system 100X of the other vehicle 99X. 他の車両99Xの検知システム100Xのディスプレイ130が警告情報を表示する状態を示すイメージ図である。It is an image figure which shows the state in which the display 130 of the detection system 100X of another vehicle 99X displays warning information. 実施の形態2に係る検知システム100Bの動作概要を示すイメージ図である。It is an image figure which shows the operation | movement outline | summary of the detection system 100B which concerns on Embodiment 2. FIG. 車両99に搭載される検知システム100Bのハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of a detection system 100B mounted on a vehicle 99. FIG. 検知システム100Bを搭載する車両99のイメージ図である。It is an image figure of the vehicle 99 carrying the detection system 100B. 外部ディスプレイ180を示すイメージ図である。It is an image figure which shows the external display 180. FIG. 外部スピーカ190を示すイメージ図である。It is an image figure which shows the external speaker 190. FIG. 外部ディスプレイ180Bの変形タイプを搭載する車両99を示すイメージ図である。It is an image figure which shows the vehicle 99 carrying the deformation | transformation type of the external display 180B. 実施の形態2に係る検知システム100Bにおける処理を示すフローチャートである。10 is a flowchart showing processing in a detection system 100B according to Embodiment 2. 交通事故当事者の状態別死者数の推移を示すグラフである。It is a graph which shows transition of the death toll according to the state of a traffic accident party. 想定事故状況と実際の実験環境とを示すイメージ図である。It is an image figure which shows the assumption accident situation and actual experiment environment. 実験環境の設定を示すイメージ図である。It is an image figure which shows the setting of an experiment environment. 1回の施行の流れを示すイメージ図である。It is an image figure which shows the flow of one enforcement. 条件ごとの視覚刺激の見落とし率を示すグラフである。It is a graph which shows the oversight rate of the visual stimulus for every condition. 条件ごとの誤反応率を示すグラフである。It is a graph which shows the error reaction rate for every conditions. 条件ごとの平均反応時間を示すグラフである。It is a graph which shows the average reaction time for every conditions.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

[実施の形態1]
<動作概要>
まずは、本実施の形態に係るネットワークシステム1の動作概要について説明する。図1は、本実施の形態に係るネットワークシステム1の動作概要を示すイメージ図である。
[Embodiment 1]
<Overview of operation>
First, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 1 is an image diagram showing an operation outline of the network system 1 according to the present embodiment.

図1(A)を参照して、車両99が道路を走行している。このとき、車両99の前方の交差点では、歩行者が横断歩道を渡り始めようとしている。本実施の形態においては、車両99の検知システム100が、車両の運転者の認知状態を定期的に検知する。すなわち、検知システム100は、認知状態に異常がないか否かを定期的に判断する。   Referring to FIG. 1A, a vehicle 99 is traveling on the road. At this time, the pedestrian is about to cross the pedestrian crossing at the intersection in front of the vehicle 99. In the present embodiment, detection system 100 of vehicle 99 periodically detects the recognition state of the driver of the vehicle. That is, the detection system 100 periodically determines whether or not the recognition state is abnormal.

なお、認知状態に異常がないとは、外部から安全走行に必要な刺激を適度に取得していることをいう。一方、認知状態に異常があるとは、外部から安全走行に必要な刺激を適度に取得していないことをいう。   In addition, that there is no abnormality in a cognitive state means having acquired the stimulus required for safe driving | running from the outside moderately. On the other hand, that the cognitive state is abnormal means that the stimulus necessary for safe driving has not been acquired appropriately from the outside.

図1(B)を参照して、引き続き車両99が道路を走行している。このとき、車両99の前方の交差点では、歩行者が横断歩道を渡り始めている。また、他の車両99Xが、交差点を横切ろうとしている。車両99の検知システム100が、車両の運転者の認知状態を検知する。検知システム100は、認知状態に異常があることを検知する。たとえば、検知システム100は、運転手がわき見をしていること、または居眠りをしていることなどを検知する。   Referring to FIG. 1B, the vehicle 99 continues to travel on the road. At this time, a pedestrian is starting to cross the pedestrian crossing at the intersection in front of the vehicle 99. Another vehicle 99X is about to cross the intersection. The detection system 100 of the vehicle 99 detects the recognition state of the driver of the vehicle. The detection system 100 detects that there is an abnormality in the cognitive state. For example, the detection system 100 detects that the driver is looking aside or is asleep.

図1(C)を参照して、検知システム100は、車両99の運転手の認知状態に異常がある旨の警告情報を外部に送信する。車両99の周囲の歩行者が保持する携帯電話200、および車両99の周囲の他の車両99Xの検知システム100Xは、車両99からの警告情報を受信すると、警告表示や警告音を出力する。   Referring to FIG. 1C, detection system 100 transmits warning information indicating that there is an abnormality in the recognition state of the driver of vehicle 99 to the outside. When the mobile phone 200 held by a pedestrian around the vehicle 99 and the detection system 100X of the other vehicle 99X around the vehicle 99 receive warning information from the vehicle 99, it outputs a warning display or a warning sound.

具体的には、携帯電話200および検知システム100Xは、自身が車両99(または検知システム100)の前方(または進行方向)に位置する場合に、警告表示や警告音を出力してもよい。あるいは、携帯電話200および検知システム100Xは、自身が車両99または検知システム100から所定距離(たとえば、50mなど)以内に位置する場合に、警告を警告表示や警告音を出力してもよい。   Specifically, the mobile phone 200 and the detection system 100X may output a warning display or a warning sound when the mobile phone 200 and the detection system 100X are located in front of (or the traveling direction of) the vehicle 99 (or the detection system 100). Alternatively, when the mobile phone 200 and the detection system 100X are located within a predetermined distance (for example, 50 m) from the vehicle 99 or the detection system 100, the mobile phone 200 and the detection system 100X may output a warning display or a warning sound.

このように、本実施の形態に係るネットワークシステム1は、車両99の周囲の歩行者または他の車両99Xの運転手の注意を喚起することによって交通上の危険が回避される可能性を高めることができる。換言すれば、走行中の車両99の周囲の歩行者または車両99Xの運転手が危険を回避し易い行動をとることができる。   Thus, the network system 1 according to the present embodiment increases the possibility of avoiding traffic hazards by alerting the pedestrian around the vehicle 99 or the driver of another vehicle 99X. Can do. In other words, a pedestrian around the traveling vehicle 99 or a driver of the vehicle 99X can take an action that easily avoids danger.

以下、このような機能を実現するためのネットワークシステム1の構成について詳述する。   Hereinafter, the configuration of the network system 1 for realizing such a function will be described in detail.

<歩行者が有する携帯電話200を含むネットワークシステム1の全体構成>
次に、車両99に搭載される検知システム100と歩行者が有する携帯電話200とが通信する場合のネットワークシステム1の全体構成について説明する。図2は、歩行者が有する携帯電話200を含むネットワークシステム1の構成を示すブロック図である。
<Overall Configuration of Network System 1 Including Pedestrian Mobile Phone 200>
Next, the overall configuration of the network system 1 when the detection system 100 mounted on the vehicle 99 communicates with the mobile phone 200 of a pedestrian will be described. FIG. 2 is a block diagram illustrating a configuration of the network system 1 including the mobile phone 200 that a pedestrian has.

検知システム100は、車両に搭載される。たとえば、検知システム100は、カーナビゲーションシステムの一部であってもよいし、カーナビゲーションシステムとは別のシステムであってもよい。   The detection system 100 is mounted on a vehicle. For example, the detection system 100 may be a part of a car navigation system or may be a system different from the car navigation system.

検知システム100は、CPU110と、メモリ120と、ディスプレイ130と、GPS(Global Positioning System)140と、ボタン150と、通信インターフェイス160と、車外センサ171と、視線センサ172と、操舵センサ173とを含む。   The detection system 100 includes a CPU 110, a memory 120, a display 130, a GPS (Global Positioning System) 140, a button 150, a communication interface 160, a vehicle exterior sensor 171, a line-of-sight sensor 172, and a steering sensor 173. .

メモリ120は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ120は、CPU110によって実行される制御プログラムとその他のデータとを記憶する。   The memory 120 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), and / or a hard disk. The memory 120 stores a control program executed by the CPU 110 and other data.

ディスプレイ130は、車両99の室内に設置される。ディスプレイ130は、CPU110からの指令に基づいて、文字や画像を出力する。なお、検知システム100は、ディスプレイ130の代わりに、タッチパネルを含んでもよい。   The display 130 is installed in the vehicle 99. The display 130 outputs characters and images based on commands from the CPU 110. Note that the detection system 100 may include a touch panel instead of the display 130.

GPS140は、人工衛星からの電波を利用して自分が地球上のどこにいるのかを示す位置情報を取得する。GPS140は、位置情報をCPU110に入力する。本実施の形態に係るGPS140は、コンパスを利用して、車両99または検知システム100の向きも取得する   The GPS 140 acquires position information indicating where on the earth it is using radio waves from an artificial satellite. The GPS 140 inputs position information to the CPU 110. The GPS 140 according to the present embodiment also acquires the direction of the vehicle 99 or the detection system 100 using a compass.

ボタン150は、車両99の室内に設置される。ボタン150は、ユーザからの命令を受け付けて、ユーザからの命令をCPU110に入力する。たとえば、ボタン150は、検知システム100のON/OFF命令、および認知状態の判断基準を設定命令などを受け付たりする。   The button 150 is installed in the vehicle 99. The button 150 receives a command from the user and inputs the command from the user to the CPU 110. For example, the button 150 receives an ON / OFF command for the detection system 100 and a command for setting a judgment criterion for the recognition state.

通信インターフェイス160は、検知システム100の外部の機器とデータ通信を行う。たとえば、通信インターフェイス160は、CPU110からの命令に基づいて、携帯電話200および他の車両99Xの検知システム100Xに、警告情報を送信する。   The communication interface 160 performs data communication with a device external to the detection system 100. For example, the communication interface 160 transmits warning information to the mobile phone 200 and the detection system 100X of the other vehicle 99X based on a command from the CPU 110.

車外センサ171は、車両99の外部を撮影し、撮影データをCPU110に入力する。これによって、CPU110は、車両99の外部の状況を把握することができる。たとえば、CPU110は、撮影データに基づいて、車両99の周囲に位置する歩行車および他の車両99の位置および自身からの距離を計算する。   The vehicle exterior sensor 171 captures the outside of the vehicle 99 and inputs the captured data to the CPU 110. Thus, the CPU 110 can grasp the situation outside the vehicle 99. For example, the CPU 110 calculates the positions of the walking car and the other vehicles 99 located around the vehicle 99 and the distance from itself based on the photographing data.

視線センサ172は、運転者の顔を撮影し、撮影データをCPU110に入力する。これによって、CPU110は、車両99の運転手の視線の方向を把握することができる。   The line-of-sight sensor 172 captures the driver's face and inputs captured data to the CPU 110. Thereby, the CPU 110 can grasp the direction of the line of sight of the driver of the vehicle 99.

操舵センサ173は、車両99に対する運転手の操舵情報を検知して、操舵情報をCPU110に入力する。   The steering sensor 173 detects driver steering information for the vehicle 99 and inputs the steering information to the CPU 110.

CPU110は、車外センサ171、視線センサ172、操舵センサ173からのデータに基づいて、運転手の認知状態を判断する。CPU110は、運転手の認知状態に異常があれば、通信インターフェイス160を介して、他の端末に警告情報を送信する。本実施の形態に係るCPU110は、通信インターフェイス160を介して、他の端末に、警告情報とともに、車両99または検知システム100の位置と向きとを示す位置情報を送信する。   The CPU 110 determines the driver's recognition state based on data from the vehicle outside sensor 171, the line-of-sight sensor 172, and the steering sensor 173. If there is an abnormality in the driver's recognition state, CPU 110 transmits warning information to another terminal via communication interface 160. CPU 110 according to the present embodiment transmits position information indicating the position and orientation of vehicle 99 or detection system 100 together with the warning information to other terminals via communication interface 160.

以下では、認知状態を判断するための具体例について説明する。本実施の形態に係る検知システム100は、大きな顔姿勢変化がある場合でも顔特徴点および目領域の観測を視線センサ172に分担させることによって継続的な視線計測を可能にしている。   Below, the specific example for determining a recognition state is demonstrated. Detection system 100 according to the present embodiment enables continuous gaze measurement by having gaze sensor 172 share observations of facial feature points and eye regions even when there is a large change in face posture.

なお、本実施の形態においては、メモリ120が、運転者の認知状態を分類するための情報として認知状態モデルを格納している。そのため、たとえば今回の実装では、予め、認知状態検知について蓄積している800余名分の運転挙動データを解析し、構築した実験環境で得られる視線・操舵に関する初期データを解析することによって、認知状態モデルを作成した。   In the present embodiment, the memory 120 stores a cognitive state model as information for classifying the driver's cognitive state. Therefore, in this implementation, for example, the driving behavior data for the more than 800 people accumulated for the recognition state detection is analyzed in advance, and the initial data regarding the line of sight / steering obtained in the constructed experimental environment is analyzed, thereby realizing the recognition. A state model was created.

なお、運転挙動データベースは、視線方向の近似である顔向き変化に基づく運転者の安全確認挙動データ、アクセル/ブレーキの操作挙動データ、車両速度データ、GPSによる車両走行軌跡(操舵)データからなる。解析では、自動車教習所の指導員の安全運転に関する知識に基づき、運転者の安全確認と車両の速度コントロールという観点から、運転者がどれくらい周辺に気を配り、安全運転を心掛けているのか、その認知状態を定量的に評価・得点化し、その傾向の分類を試みた。   The driving behavior database is composed of driver safety confirmation behavior data based on changes in face orientation that is an approximation of the line of sight direction, accelerator / brake operation behavior data, vehicle speed data, and vehicle travel locus (steering) data using GPS. In the analysis, based on the knowledge about driving safety of the driving school instructor, the cognitive state of how much attention the driver is careful about and driving safely from the viewpoint of driver safety confirmation and vehicle speed control Was evaluated and scored quantitatively, and the tendency was classified.

図3は、実験対象である各運転手の認知状態を安全確認の観点から解析した結果を示すグラフである。図3中の各点は各運転者の確認に関する認知状態得点をプロットしたものであり、横軸と縦軸はそれぞれ左方向/右方向への安全確認に関する知状態得点を表す。   FIG. 3 is a graph showing a result of analyzing the cognitive state of each driver as an experiment target from the viewpoint of safety confirmation. Each point in FIG. 3 is a plot of the recognition state score related to each driver's confirmation, and the horizontal axis and the vertical axis represent the knowledge state score related to the left / right safety confirmation, respectively.

図3に示すように、安全確認に関する運転者の認知状態は、(1)認知状態が常に良好、(2)認知状態が悪くなることがある、(3)認知状態が右側に偏りがち(左側への認知状態が悪い)、(4)認知状態が左側に偏りがち、(5)認知状態が常に悪い、という5種類に大別しうることが示唆される。本実施の形態に係るCPU110は、運転手の認知状態が上記の(2)〜(5)のいずれかに該当するか否かを判断する。CPU110は、視線センサ172からのデータに基づいて、認知状態が上記の(2)〜(5)のいずれかに該当する場合に、通信インターフェイス160を介して外部に警告情報を発信する。   As shown in Fig. 3, the driver's cognitive status regarding safety confirmation is (1) the cognitive status is always good, (2) the cognitive status may get worse, (3) the cognitive status tends to be biased to the right (left side) (4) Cognitive status tends to be biased to the left side, and (5) Cognitive status is always poor. CPU110 which concerns on this Embodiment judges whether a driver | operator's recognition state corresponds to either of said (2)-(5). Based on the data from the line-of-sight sensor 172, the CPU 110 transmits warning information to the outside via the communication interface 160 when the recognition state corresponds to any of the above (2) to (5).

図4は、実験対象である各運転手の認知状態を速度コントロールの観点から解析した結果である。図4を参照して、速度コントロールに関する運転者の認知状態は、(1)速度認知状態が常に良好、(2)速度認知状態が悪くなることがある、(3)速度認知状態が常に悪いという3種類に大別しうることが示唆される。CPU110は、視線センサ172および操舵センサ173からのデータに基づいて、認知状態が上記の(2)または(3)に該当する場合に、通信インターフェイス160を介して外部に警告情報を発信する。   FIG. 4 shows the result of analyzing the cognitive state of each driver as an experiment subject from the viewpoint of speed control. Referring to FIG. 4, the driver's cognitive state regarding speed control is (1) the speed cognitive state is always good, (2) the speed cognitive state may be bad, and (3) the speed cognitive state is always bad. It is suggested that there are three types. Based on the data from the line-of-sight sensor 172 and the steering sensor 173, the CPU 110 transmits warning information to the outside via the communication interface 160 when the recognition state corresponds to the above (2) or (3).

図2に戻って、携帯電話200は、CPU210と、メモリ220と、ディスプレイ230と、GPS240と、ボタン250と、通信インターフェイス260と、スピーカ270とを含む。   Returning to FIG. 2, the mobile phone 200 includes a CPU 210, a memory 220, a display 230, a GPS 240, a button 250, a communication interface 260, and a speaker 270.

メモリ220は、各種のRAM、ROMおよび/またはハードディスクなどによって実現される。メモリ220は、CPU210によって実行される制御プログラムとその他のデータとを記憶する。   The memory 220 is realized by various RAMs, ROMs, and / or hard disks. The memory 220 stores a control program executed by the CPU 210 and other data.

ディスプレイ230は、CPU210からの信号に基づいて、文字や画像を出力する。たとえば、ディスプレイ230は、CPU210から信号に基づいて、警告情報を表示する。これによって、携帯電話200のユーザは、認知状態が悪い運転手が運転する車両が周囲に存在することを認識し易くなる。なお、携帯電話200は、ディスプレイ230の代わりに、タッチパネルを含んでもよい。   The display 230 outputs characters and images based on signals from the CPU 210. For example, the display 230 displays warning information based on a signal from the CPU 210. This makes it easier for the user of the mobile phone 200 to recognize that a vehicle driven by a driver with a poor recognition state exists in the vicinity. Note that the mobile phone 200 may include a touch panel instead of the display 230.

GPS240は、人工衛星からの電波を利用して自分が地球上のどこにいるのかを示す位置情報を取得する。GPS240は、位置情報をCPU210に入力する。本実施の形態に係るGPS240は、コンパスを利用して、携帯電話200の向きも取得する。   The GPS 240 acquires position information indicating where on the earth it is using radio waves from an artificial satellite. The GPS 240 inputs position information to the CPU 210. The GPS 240 according to the present embodiment also acquires the orientation of the mobile phone 200 using a compass.

ボタン250は、ユーザからの命令を受け付けて、ユーザからの命令をCPU210に入力する。たとえば、ボタン250は、携帯電話のON/OFF命令、電話番号や文字の入力命令、および警告を出力するか否かを判断するための基準の設定命令などを受け付たりする。   The button 250 receives a command from the user and inputs the command from the user to the CPU 210. For example, the button 250 receives a cellular phone ON / OFF command, a phone number / character input command, a reference setting command for determining whether or not to output a warning, and the like.

通信インターフェイス260は、携帯電話200の外部の機器とデータ通信を行う。たとえば、通信インターフェイス260は、車両99の検知システム100からの警告情報および位置情報を受信する。   Communication interface 260 performs data communication with an external device of mobile phone 200. For example, the communication interface 260 receives warning information and position information from the detection system 100 of the vehicle 99.

スピーカ270は、CPU210からの信号に基づいて、警告音を発する。これによって、携帯電話200のユーザは、認知状態が悪い運転手が運転する車両が周囲に存在することを認識し易くなる。   The speaker 270 emits a warning sound based on the signal from the CPU 210. This makes it easier for the user of the mobile phone 200 to recognize that a vehicle driven by a driver with a poor recognition state exists in the vicinity.

CPU210は、検知システム100からの警告情報に基づいて、ディスプレイ230に警告を表示させる。CPU210は、検知システム100からの警告情報に基づいて、スピーカ270に警告音を出力させる。   The CPU 210 displays a warning on the display 230 based on the warning information from the detection system 100. CPU 210 causes speaker 270 to output a warning sound based on the warning information from detection system 100.

なお、CPU210は、車両99の位置および向きと、携帯電話200の位置および向きとに基づいて、携帯電話200が車両99の前方に位置する場合に、警告情報を出力してもよい。ここで、車両99の前方とは、車両99の略前方であって、車両99の前方を中心に左右±30度程度の範囲をいう。あるいは、CPU210は、車両99の位置および向きと、携帯電話200の位置および向きとに基づいて、携帯電話200が車両99から所定距離以内に位置する場合に、警告情報を出力してもよい。   CPU 210 may output warning information when mobile phone 200 is located in front of vehicle 99 based on the position and orientation of vehicle 99 and the position and orientation of mobile phone 200. Here, the front of the vehicle 99 is substantially in front of the vehicle 99 and means a range of about ± 30 degrees on the left and right with respect to the front of the vehicle 99. Alternatively, CPU 210 may output warning information when mobile phone 200 is located within a predetermined distance from vehicle 99 based on the position and orientation of vehicle 99 and the position and orientation of mobile phone 200.

<歩行者が有する携帯電話200を含むネットワークシステム1の処理>
次に、車両99に搭載される検知システム100と歩行者が有する携帯電話200とが通信する場合のネットワークシステム1における処理について説明する。図5は、本実施の形態に係るネットワークシステム1における処理を示すフローチャートである。
<Processing of Network System 1 Including Pedestrian Mobile Phone 200>
Next, processing in the network system 1 when the detection system 100 mounted on the vehicle 99 communicates with the mobile phone 200 of a pedestrian will be described. FIG. 5 is a flowchart showing processing in the network system 1 according to the present embodiment.

図5を参照して、検知システム100のCPU110は、車両99が走行中において、定期的に車外センサ171と視線センサ172と操舵センサ173とからのデータに基づいて、運転手の認知状態を検知する(ステップS102)。CPU110は、認知状態が良いか悪いかを判断する(ステップS104)。CPU110は、具体的には、検知した認知状態が所定の条件を満たすか否かを判断する。   Referring to FIG. 5, the CPU 110 of the detection system 100 periodically detects the driver's cognitive state based on data from the outside sensor 171, the line-of-sight sensor 172, and the steering sensor 173 while the vehicle 99 is traveling. (Step S102). CPU110 judges whether a recognition state is good or bad (step S104). Specifically, CPU 110 determines whether or not the detected recognition state satisfies a predetermined condition.

CPU110は、認知状態がよい場合すなわち認知状態が所定の条件を満たす場合(ステップS104にてYESである場合)、ステップS102からの処理を繰り返す。CPU110は、認知状態が悪い場合すなわち認知状態が所定の条件を満たさない場合(ステップS104にてNOである場合)、GPS140を利用して、車両99(または検知システム100)の位置と向きとを取得する(ステップS106)   CPU110 repeats the process from step S102, when a recognition state is good, ie, a recognition state satisfy | fills a predetermined condition (when it is YES in step S104). When the cognitive state is bad, that is, when the cognitive state does not satisfy the predetermined condition (NO in step S104), CPU 110 uses GPS 140 to determine the position and orientation of vehicle 99 (or detection system 100). Obtain (Step S106)

CPU110は、通信インターフェイス160を介して、運転手の認知状態が悪い旨を示す警告情報と、車両99(または検知システム100)の位置と向きとを示す位置情報とを外部へ送信する(ステップS108)。CPU110は、ステップS102からの処理を繰り返す。   CPU 110 transmits, via communication interface 160, warning information indicating that the driver's recognition state is poor and position information indicating the position and orientation of vehicle 99 (or detection system 100) to the outside (step S108). ). CPU110 repeats the process from step S102.

一方、携帯電話200のCPU210は、通信インターフェイス260を介して、車両99の検知システム100からの警告情報を待ち受ける(ステップS152)。CPU210は、警告情報を受信すると(ステップS152にてYESである場合)、GPS240を利用して、携帯電話200の位置と向きとを取得する(ステップS154)。   On the other hand, CPU 210 of mobile phone 200 waits for warning information from detection system 100 of vehicle 99 via communication interface 260 (step S152). When CPU 210 receives the warning information (YES in step S152), CPU 210 acquires the position and orientation of mobile phone 200 using GPS 240 (step S154).

CPU210は、携帯電話200と車両99(または検知システム100)との位置関係が所定の関係であるか否かを判断する(ステップS156)。たとえば、CPU210は、携帯電話200が車両99の前方に位置するか否かを判断したり、携帯電話200が車両99から所定の距離以内であるか否かを判断する。   CPU 210 determines whether or not the positional relationship between mobile phone 200 and vehicle 99 (or detection system 100) is a predetermined relationship (step S156). For example, CPU 210 determines whether mobile phone 200 is located in front of vehicle 99 or determines whether mobile phone 200 is within a predetermined distance from vehicle 99.

CPU210は、携帯電話200と車両99との位置関係が所定の関係でない場合(ステップS156にてNOである場合)、ステップS152からの処理を繰り返す。CPU210は、携帯電話200と車両99との位置関係が所定の関係である場合(ステップS156にてYESである場合)、ディスプレイ230に警告メッセージを表示させる。   CPU210 repeats the process from step S152, when the positional relationship of the mobile telephone 200 and the vehicle 99 is not a predetermined relationship (when it is NO in step S156). CPU 210 causes display 230 to display a warning message when the positional relationship between mobile phone 200 and vehicle 99 is a predetermined relationship (YES in step S156).

なお、図6は、携帯電話200のディスプレイ230が警告情報を表示する状態を示すイメージ図である。CPU210は、車両99の位置と向きと携帯電話200の位置と向きとに基づいて、携帯電話200が車両99の前方に位置する場合に、当該車両99がいずれの方向から自分に向かってくるのかを示すメッセージをディスプレイ230に表示させる。   FIG. 6 is an image diagram showing a state in which the display 230 of the mobile phone 200 displays warning information. Based on the position and orientation of the vehicle 99 and the position and orientation of the mobile phone 200, the CPU 210 determines from which direction the vehicle 99 comes toward itself when the mobile phone 200 is located in front of the vehicle 99. Is displayed on the display 230.

なお、ステップS158において、CPU210は、携帯電話200と車両99との位置関係が所定の関係である場合(ステップS156にてYESである場合)、スピーカ270に警告メッセージを出力させてもよい。CPU210は、ステップS152からの処理を繰り返す。   In step S158, CPU 210 may cause speaker 270 to output a warning message when the positional relationship between mobile phone 200 and vehicle 99 is a predetermined relationship (YES in step S156). CPU210 repeats the process from step S152.

<他の車両99Xの検知システム100Xを含むネットワークシステム1の全体構成>
次に、車両99に搭載される検知システム100と他の車両99Xの検知システム100Xとが通信する場合のネットワークシステム1の構成について説明する。図7は、他の車両99Xの検知システム100Xを含むネットワークシステム1の構成を示すブロック図である。なお、車両99の検知システム100の構成も、他の車両99の検知システム100Xの構成も、図2において説明したものと同様であるため、ここでは説明を繰り返さない。
<Overall Configuration of Network System 1 Including Other Vehicle 99X Detection System 100X>
Next, the configuration of the network system 1 when the detection system 100 mounted on the vehicle 99 and the detection system 100X of another vehicle 99X communicate with each other will be described. FIG. 7 is a block diagram illustrating a configuration of the network system 1 including the detection system 100X of another vehicle 99X. Note that the configuration of the detection system 100 of the vehicle 99 and the configuration of the detection system 100X of the other vehicle 99 are the same as those described with reference to FIG. 2, and therefore description thereof will not be repeated here.

<他の車両99Xの検知システム100Xを含むネットワークシステム1の処理>
次に、車両99に搭載される検知システム100と他の車両99Xの検知システム100Xとが通信する場合のネットワークシステム1における処理について説明する。なお、車両99の検知システム100の処理は、前述した検知システム100の処理と同様であるため、ここでは説明を繰り返さない。
<Processing of Network System 1 Including Detection System 100X of Other Vehicle 99X>
Next, processing in the network system 1 when the detection system 100 mounted on the vehicle 99 communicates with the detection system 100X of another vehicle 99X will be described. Note that the processing of the detection system 100 of the vehicle 99 is the same as the processing of the detection system 100 described above, and therefore description thereof will not be repeated here.

再度、図5を参照して、他の車両99Xの検知システム100XのCPU110は、通信インターフェイス160を介して、車両99の検知システム100からの警告情報を待ち受ける(ステップS152)。CPU110は、警告情報を受信すると(ステップS152にてYESである場合)、GPS140を利用して、他の車両99Xまたは検知システム100Xの位置と向きとを取得する(ステップS154)。   Referring to FIG. 5 again, CPU 110 of detection system 100X of another vehicle 99X waits for warning information from detection system 100 of vehicle 99 via communication interface 160 (step S152). CPU110 will acquire the position and direction of other vehicles 99X or detection system 100X using GPS140, if warning information is received (when it is YES at Step S152) (Step S154).

CPU110は、他の車両99X(または検知システム100X)と車両99(または検知システム100)との位置関係が所定の関係であるか否かを判断する(ステップS156)。たとえば、CPU110は、他の車両99Xが車両99の前方に位置するか否かを判断したり、他の車両99Xが車両99から所定の距離以内であるか否かを判断する。   CPU 110 determines whether or not the positional relationship between other vehicle 99X (or detection system 100X) and vehicle 99 (or detection system 100) is a predetermined relationship (step S156). For example, the CPU 110 determines whether or not another vehicle 99X is located in front of the vehicle 99, or determines whether or not the other vehicle 99X is within a predetermined distance from the vehicle 99.

CPU110は、他の車両99Xと車両99との位置関係が所定の関係でない場合(ステップS156にてNOである場合)、ステップS152からの処理を繰り返す。CPU110は、他の車両99Xと車両99との位置関係が所定の関係である場合(ステップS156にてYESである場合)、ディスプレイ130に警告メッセージを表示させる。   CPU110 repeats the process from step S152, when the positional relationship of the other vehicle 99X and the vehicle 99 is not a predetermined relationship (when it is NO in step S156). CPU 110 causes display 130 to display a warning message when the positional relationship between other vehicle 99X and vehicle 99 is a predetermined relationship (YES in step S156).

なお、図8は、他の車両99Xの検知システム100Xのディスプレイ130が警告情報を表示する状態を示すイメージ図である。CPU110は、車両99の位置と向きと他の車両99Xの位置と向きとに基づいて、他の車両99Xが車両99の前方に位置する場合に、当該車両99がいずれの方向から自分に向かってくるのかを示すメッセージをディスプレイ130に表示させる。   FIG. 8 is an image diagram showing a state in which the display 130 of the detection system 100X of another vehicle 99X displays warning information. When the other vehicle 99X is positioned in front of the vehicle 99 based on the position and orientation of the vehicle 99 and the position and orientation of the other vehicle 99X, the CPU 110 is directed toward the vehicle 99 from which direction. A message indicating whether or not to come is displayed on the display 130.

なお、ステップS158において、CPU110は、他の車両99Xと車両99との位置関係が所定の関係である場合(ステップS156にてYESである場合)、スピーカ170に警告メッセージを出力させてもよい。CPU110は、ステップS152からの処理を繰り返す。   In step S158, CPU 110 may cause speaker 170 to output a warning message when the positional relationship between other vehicle 99X and vehicle 99 is a predetermined relationship (YES in step S156). CPU110 repeats the process from step S152.

なお、本実施の形態においては、携帯電話200と他の検知システム100Xとが警告情報を出力するものであった。しかしながら、ネットワークシステム1は、交差点や合流地点などの道路上に設置される端末を有していてもよい。すなわち、道路上に設置される端末が、携帯電話200または他の検知システム100Xと同様の構成を有してもよい。この場合は、検知システム100が、警告情報を車両99の前方の道路上の端末に送信し、当該道路上の端末が警報を表示したり警報音を発したりする。   In the present embodiment, the mobile phone 200 and the other detection system 100X output warning information. However, the network system 1 may have a terminal installed on a road such as an intersection or a junction. That is, the terminal installed on the road may have the same configuration as that of the mobile phone 200 or other detection system 100X. In this case, the detection system 100 transmits warning information to a terminal on the road ahead of the vehicle 99, and the terminal on the road displays a warning or emits a warning sound.

また、本実施の形態においては、検知システム100が、運転手の認知状態に異常があるか否かを判断するものであった。しかしながら、検知システム100が、運転手の認知状態を端末(携帯電話200または他の検知システム100X)に送信し、端末が認知状態に異常があるか否かを判断してもよい。この場合は、判断基準を端末毎に変更できることが好ましい。たとえば、図3の(1)〜(5)および図4の(1)〜(3)のいずれを異常とするかを端末で任意に設定できるようにすることが好ましい。   In the present embodiment, detection system 100 determines whether or not there is an abnormality in the driver's recognition state. However, the detection system 100 may transmit the driver's recognition state to the terminal (the mobile phone 200 or another detection system 100X) and determine whether the terminal has an abnormality in the recognition state. In this case, it is preferable that the determination criterion can be changed for each terminal. For example, it is preferable that any of (1) to (5) in FIG. 3 and (1) to (3) in FIG.

[実施の形態2]
次に、本発明の実施の形態2について説明する。上述した実施の形態1に係るネットワークシステム1は、車両99の検知システム100が、運転手の認知状態の異常を検出した際に、他の端末に警告情報を送信するものであった。しかしながら、本実施の形態に係る検知システム100Bは、運転手の認知状態に応じて、検知システム100B自身が警告表示や警告音を出力するものである。
[Embodiment 2]
Next, a second embodiment of the present invention will be described. The network system 1 according to the first embodiment described above transmits warning information to other terminals when the detection system 100 of the vehicle 99 detects an abnormality in the driver's cognitive state. However, in the detection system 100B according to the present embodiment, the detection system 100B itself outputs a warning display or a warning sound according to the driver's recognition state.

<動作概要>
まずは、本実施の形態に係る検知システム100Bの動作概要について説明する。図9は、本実施の形態に係る検知システム100Bの動作概要を示すイメージ図である。
<Overview of operation>
First, the operation | movement outline | summary of the detection system 100B which concerns on this Embodiment is demonstrated. FIG. 9 is an image diagram showing an outline of operation of detection system 100B according to the present embodiment.

図9(A)を参照して、車両99が道路を走行している。このとき、車両99の前方の交差点では、歩行者が横断歩道を渡り始めようとしている。本実施の形態においては、車両99の検知システム100Bが、車両の運転者の認知状態を定期的に検知する。すなわち、検知システム100Bは、認知状態に異常がないか否かを定期的に判断する。   Referring to FIG. 9A, vehicle 99 is traveling on the road. At this time, the pedestrian is about to cross the pedestrian crossing at the intersection in front of the vehicle 99. In the present embodiment, detection system 100B of vehicle 99 periodically detects the recognition state of the driver of the vehicle. That is, the detection system 100B periodically determines whether or not the recognition state is abnormal.

図9(B)を参照して、車両99が道路を走行している。このとき、車両99の前方の交差点では、歩行者が横断歩道を渡り始めている。また、他の車両99Xが、交差点を横切ろうとしている。車両99の検知システム100Bが、車両の運転者の認知状態を検知する。検知システム100Bは、認知状態に異常があることを検知する。たとえば、検知システム100Bは、運転手がわき見をしていること、または居眠りをしていることなどを検知する。   Referring to FIG. 9B, vehicle 99 is traveling on the road. At this time, a pedestrian is starting to cross the pedestrian crossing at the intersection in front of the vehicle 99. Another vehicle 99X is about to cross the intersection. The detection system 100B of the vehicle 99 detects the recognition state of the driver of the vehicle. The detection system 100B detects that there is an abnormality in the cognitive state. For example, the detection system 100B detects that the driver is looking aside or is asleep.

図9(C)を参照して、本実施の形態に係る検知システム100Bは、車両99の運転手の認知状態に応じて警告情報を外部に出力する。より詳細には、検知システム100Bは、車両の前方に歩行者や車両が存在するか否かを判断する。検知システム100Bは、前方の歩行車や車両の方向に、警告情報を表示したり警告音を発したりする。また、検知システム100Bは、車両99から所定の距離以内に存在する歩行車や車両に向かって、警告情報を表示したり警告音を発したりする。   Referring to FIG. 9C, detection system 100B according to the present embodiment outputs warning information to the outside in accordance with the recognition state of the driver of vehicle 99. More specifically, the detection system 100B determines whether there is a pedestrian or a vehicle in front of the vehicle. The detection system 100B displays warning information or emits a warning sound in the direction of the walking vehicle or vehicle ahead. In addition, the detection system 100B displays warning information or emits a warning sound toward a walking car or vehicle existing within a predetermined distance from the vehicle 99.

このように、本実施の形態に係る検知システム100Bは、車両99の周囲の歩行者または他の車両99Xの運転手の注意を喚起することによって交通上の危険が回避される可能性を高めることができる。換言すれば、走行中の車両99の周囲の歩行者または車両99Xの運転手が危険を回避し易い行動をとることができる。   As described above, the detection system 100B according to the present embodiment increases the possibility of avoiding traffic dangers by alerting the driver of a pedestrian around the vehicle 99 or another vehicle 99X. Can do. In other words, a pedestrian around the traveling vehicle 99 or a driver of the vehicle 99X can take an action that easily avoids danger.

以下、このような機能を実現するための検知システム100Bの構成について詳述する。   Hereinafter, the configuration of the detection system 100B for realizing such a function will be described in detail.

<検知システム100Bの構成>
次に、車両99に搭載される検知システム100Bの構成について説明する。図10は、車両99に搭載される検知システム100Bのハードウェア構成を示すブロック図である。図11は、検知システム100Bを搭載する車両99のイメージ図である。図12は、外部ディスプレイ180を示すイメージ図である。図13は、外部スピーカ190を示すイメージ図である。
<Configuration of Detection System 100B>
Next, the configuration of the detection system 100B mounted on the vehicle 99 will be described. FIG. 10 is a block diagram showing a hardware configuration of a detection system 100B mounted on the vehicle 99. As shown in FIG. FIG. 11 is an image diagram of a vehicle 99 equipped with the detection system 100B. FIG. 12 is an image diagram showing the external display 180. FIG. 13 is an image diagram showing the external speaker 190.

図10を参照して、検知システム100Bは、車両に搭載される。たとえば、検知システム100Bは、カーナビゲーションシステムの一部であってもよいし、カーナビゲーションシステムとは別のシステムであってもよい。   Referring to FIG. 10, detection system 100B is mounted on a vehicle. For example, the detection system 100B may be a part of a car navigation system or may be a system different from the car navigation system.

検知システム100Bは、CPU110と、メモリ120と、ディスプレイ130と、GPS140と、ボタン150と、通信インターフェイス160と、車外センサ171と、視線センサ172と、操舵センサ173と、外部ディスプレイ180と、外部スピーカ190を含む。なお、メモリ120と、ディスプレイ130と、GPS140と、ボタン150と、通信インターフェイス160と、車外センサ171と、視線センサ172と、操舵センサ173とに関しては、実施の形態1に係るそれらと同様であるため、ここでは説明を繰り返さない(図2および図7を参照。)。また、認知状態の判断についても、実施の形態1に係るそれらと同様であるため、ここでは説明を繰り返さない(図3および図4を参照。)。   The detection system 100B includes a CPU 110, a memory 120, a display 130, a GPS 140, a button 150, a communication interface 160, a vehicle exterior sensor 171, a line-of-sight sensor 172, a steering sensor 173, an external display 180, and an external speaker. 190 is included. The memory 120, the display 130, the GPS 140, the button 150, the communication interface 160, the vehicle exterior sensor 171, the line-of-sight sensor 172, and the steering sensor 173 are the same as those according to the first embodiment. Therefore, the description will not be repeated here (see FIGS. 2 and 7). The determination of the cognitive state is also the same as those according to the first embodiment, and therefore description thereof will not be repeated here (see FIGS. 3 and 4).

図10、図11、図12を参照して、外部ディスプレイ180は、たとえば、車両99の天井に搭載される。外部ディスプレイ180は、特定の方向(法線方向)に位置する人間(たとえば、車両99の前方に位置する歩行者や運転手)に視覚的な刺激を与えることができる。本実施の形態に係る外部ディスプレイ180は、LED(Light Emitting Diode)アレイ182と、LEDアレイ181に積層されるレンチキュラー板とを含む。   Referring to FIGS. 10, 11, and 12, external display 180 is mounted on the ceiling of vehicle 99, for example. The external display 180 can give a visual stimulus to a person (for example, a pedestrian or driver located in front of the vehicle 99) located in a specific direction (normal direction). External display 180 according to the present embodiment includes an LED (Light Emitting Diode) array 182 and a lenticular plate stacked on LED array 181.

図10、図11、図13を参照して、外部スピーカ190は、たとえば、車両99の天井に搭載される。外部スピーカ190は、特定の方向(法線方向)に位置する人間(たとえば、車両99の前方に位置する歩行者や運転手)に聴覚的な刺激を与えることができる。本実施の形態に係る外部スピーカ190は、超音波振動子アレイ191を含む。   Referring to FIGS. 10, 11, and 13, external speaker 190 is mounted on the ceiling of vehicle 99, for example. The external speaker 190 can give an auditory stimulus to a person (for example, a pedestrian or driver located in front of the vehicle 99) located in a specific direction (normal direction). External speaker 190 according to the present embodiment includes an ultrasonic transducer array 191.

CPU110は、車外センサ171、視線センサ172、操舵センサ173からのデータに基づいて、運転手の認知状態を判断する。CPU110は、運転手の認知状態に異常があれば、外部ディスプレイ180に警告情報を表示させる。CPU110は、運転手の認知状態に異常があれば、外部スピーカ190に警告音を発させる。   The CPU 110 determines the driver's recognition state based on data from the vehicle outside sensor 171, the line-of-sight sensor 172, and the steering sensor 173. If there is an abnormality in the driver's recognition state, the CPU 110 displays warning information on the external display 180. If the driver's cognitive state is abnormal, CPU 110 causes external speaker 190 to emit a warning sound.

あるいは、CPU110は、視線センサ172からのデータに基づいて、運転手の視線の方向を検出する。CPU110は、外部ディスプレイ180に、運転手の視線の方向を表示させる。CPU110は、外部スピーカ190に、運転手の視線の方向を示す音声を出力させる。   Alternatively, the CPU 110 detects the direction of the driver's line of sight based on the data from the line-of-sight sensor 172. CPU 110 causes external display 180 to display the direction of the driver's line of sight. CPU 110 causes external speaker 190 to output a sound indicating the direction of the driver's line of sight.

より詳細には、本実施の形態においては、CPU110は、車外センサ171からのデータに基づいて、歩行者および他の車両の位置を検出する。CPU110は、車両99または検知システム100Bから、歩行者および他の車両それぞれまでの距離が所定距離以内であるか否かを判断する。CPU110は、外部ディスプレイ180に、車両99から所定距離以内に位置する歩行者および他の車両の方向に向けて、警告情報を表示させる。CPU110は、外部スピーカ190に、車両99から所定距離以内に位置する歩行者および他の車両の方向に向けて、警告音を発させる。   More specifically, in the present embodiment, CPU 110 detects the positions of pedestrians and other vehicles based on data from vehicle exterior sensor 171. CPU 110 determines whether the distance from vehicle 99 or detection system 100B to the pedestrian and each of the other vehicles is within a predetermined distance. CPU 110 causes external display 180 to display warning information toward the direction of pedestrians and other vehicles located within a predetermined distance from vehicle 99. CPU 110 causes external speaker 190 to emit a warning sound toward pedestrians and other vehicles located within a predetermined distance from vehicle 99.

ここで、外部ディスプレイ180の変形例について説明する。図14は、外部ディスプレイ180Bの変形タイプを搭載する車両99を示すイメージ図である。   Here, a modified example of the external display 180 will be described. FIG. 14 is an image diagram showing a vehicle 99 equipped with a modified type of the external display 180B.

図14を参照して、外部ディスプレイ180は、ボンネットやフロントガラスなどの車体の外面の一部または全部の表面に設置されてもよい。また、表示する警告情報は、運転手の視線の方向を示す矢印またはその他のアニメーションであってもよいし、認知状態の良さおよび悪さの程度を示すテキストまたは画像であってもよい。   Referring to FIG. 14, external display 180 may be installed on a part or all of the outer surface of a vehicle body such as a bonnet or a windshield. The warning information to be displayed may be an arrow indicating the direction of the driver's line of sight or other animation, or may be text or an image indicating the degree of goodness and badness of the recognition state.

<検知システム100Bの処理>
次に、車両99に搭載される検知システム100Bにおける処理について説明する。図15は、本実施の形態に係る検知システム100Bにおける処理を示すフローチャートである。
<Processing of detection system 100B>
Next, processing in the detection system 100B mounted on the vehicle 99 will be described. FIG. 15 is a flowchart showing processing in the detection system 100B according to the present embodiment.

図15を参照して、検知システム100BのCPU110は、車両99が走行中において、定期的に車外センサ171と視線センサ172と操舵センサ173とからのデータに基づいて、運転手の認知状態を検知する(ステップS202)。CPU110は、認知状態が良いか悪いかを判断する(ステップS204)。CPU110は、具体的には、検知した認知状態が所定の条件を満たすか否かを判断する。   Referring to FIG. 15, CPU 110 of detection system 100 </ b> B detects the driver's cognitive state based on data from outside sensor 171, gaze sensor 172 and steering sensor 173 periodically while vehicle 99 is traveling. (Step S202). CPU110 judges whether a recognition state is good or bad (step S204). Specifically, CPU 110 determines whether or not the detected recognition state satisfies a predetermined condition.

CPU110は、認知状態がよい場合すなわち認知状態が所定の条件を満たす場合(ステップS204にてNOである場合)、ステップS102からの処理を繰り返す。CPU110は、認知状態が悪い場合すなわち認知状態が所定の条件を満たさない場合(ステップS204にてYESである場合)、車外センサ171を利用して歩行者または他の車両をサーチする(ステップS206)。   CPU110 repeats the process from step S102, when a cognitive state is good, ie, when a cognitive state satisfy | fills a predetermined condition (when it is NO in step S204). CPU110 searches for a pedestrian or another vehicle using outside sensor 171, when a cognitive state is bad, ie, a cognitive state does not satisfy a predetermined condition (when it is YES in Step S204) (Step S206). .

CPU110は、(車両99の前方かつ)車両99から所定距離以内に、歩行者または他の車両が存在するか否かを判断する(ステップS208)。CPU110は、(車両99の前方かつ)車両99から所定距離以内に、歩行者または他の車両が存在しない場合(ステップS208にてNOである場合)、ステップS202からの処理を繰り返す。   CPU 110 determines whether there is a pedestrian or another vehicle (in front of vehicle 99) and within a predetermined distance from vehicle 99 (step S208). CPU110 repeats the process from step S202, when a pedestrian or another vehicle does not exist within the predetermined distance from vehicle 99 (in front of vehicle 99) (in the case of NO in step S208).

CPU110は、(車両99の前方かつ)車両99から所定距離以内に、歩行者または他の車両が存在する場合(ステップS208にてYESである場合)、警告情報を出力すべき方向を計算する(ステップS210)。CPU110は、外部ディスプレイ180に、当該出力方向へと警告情報を表示させる(ステップS212)。CPU110は、外部スピーカ190に、当該出力方向へと警告音を発させる。CPU110は、ステップS202からの処理を繰り返す。   CPU 110 calculates the direction in which the warning information should be output when there is a pedestrian or another vehicle (in front of vehicle 99) and within a predetermined distance from vehicle 99 (YES in step S208) ( Step S210). The CPU 110 displays warning information on the external display 180 in the output direction (step S212). CPU 110 causes external speaker 190 to emit a warning sound in the output direction. CPU110 repeats the process from step S202.

[注意喚起効果]
以下では、ネットワークシステム1および検知システム100Bによる、車両99の周囲の歩行者および他の車両に対する注意喚起効果について説明する。
[Attention effect]
Below, the alerting effect with respect to the pedestrian around the vehicle 99 and other vehicles by the network system 1 and the detection system 100B is demonstrated.

歩行者と自動車の事故の多くは運転者・歩行者双方の不注意や危険認識の欠如などに起因する。そこで我々は、交通参加者同士が互いの存在や認知状態などの情報を共有することで、事故を回避する新たなシステムを提案している。このシステムにより、交通参加者同士がお互いに適切な危険認識を持つことが危険回避につながると考えられる。本研究ではこのシステムの一部として、車外搭載型高輝度ディスプレイを用いた自動車から歩行者への視覚情報の視認性評価、および視覚刺激による注意喚起効果について検討を行った。その結果、視認性について50mの視距離で十分な視認性が得られた。視覚刺激による歩行者への注意喚起についても、注意喚起効果は歩行者の視線方向に依存するものの一定の効果が確認された。   Many accidents involving pedestrians and cars are caused by carelessness of both drivers and pedestrians and lack of awareness of danger. Therefore, we have proposed a new system that avoids accidents by sharing information such as each other's presence and cognitive status among traffic participants. With this system, it is considered that traffic participants can recognize each other's dangers and avoid danger. In this study, as part of this system, we examined the visibility evaluation of visual information from automobiles to pedestrians using a high-brightness display mounted on the outside of the vehicle, and examined the alerting effect of visual stimuli. As a result, sufficient visibility was obtained at a viewing distance of 50 m. Regarding the alerting of pedestrians by visual stimuli, although the alerting effect depends on the pedestrian's gaze direction, a certain effect was confirmed.

<1.はじめに>
<1.1.歩行者事故の現状>
図16は、交通事故当事者の状態別死者数の推移を示すグラフである。図16を参照して、近年、交通事故による死亡者数は減少傾向にある。しかしその一方で、歩行者の死亡者数は全交通事故死亡者数と比べて相対的に増加している。歩行者の交通事故致死率は交通事故全体の致死率と比べて5倍以上高いことから、歩行者の死亡事故を未然に食い止めるためには歩行者が事故に遭遇しない交通環境を整備することが最も重要となる。
<1. Introduction>
<1.1. Current situation of pedestrian accidents>
FIG. 16 is a graph showing changes in the number of deaths by state of persons involved in a traffic accident. Referring to FIG. 16, the number of deaths due to traffic accidents has been decreasing in recent years. On the other hand, however, the number of pedestrian deaths has increased relative to the total number of traffic fatalities. Since the fatality rate of pedestrian traffic accidents is more than five times higher than the overall fatality rate of traffic accidents, in order to prevent pedestrian fatal accidents, it is necessary to improve the traffic environment in which pedestrians do not encounter accidents. Most important.

統計データによると、歩行者死亡事故の第一当事者の90%近くが自動車である。自動車が第一当事者、歩行者が第二当事者の場合における事故発生要因についてみると、死亡事故件数の多い順に、「脇見」、「安全不確認」、「考え事・漫然運転等」となる。つまり、事故原因の多くは運転操作や判断の誤りではなく、漫然運転や運転中の不注意によるものであることがわかる。   According to statistical data, nearly 90% of the first parties to pedestrian fatalities are cars. Looking at the causes of accidents when the car is the first party and the pedestrian is the second party, the order of the number of fatal accidents is “Wakimi”, “Safety unconfirmed”, “Thinking and random driving”. In other words, it can be understood that many of the causes of accidents are not due to errors in driving operations or judgments, but due to casual driving or carelessness during driving.

一方、第二当事者である歩行者側の要因についてみると、「要因なし」、「安全不確認」、「判断の誤り等」の順となる。歩行者の場合、運転者要因によって事故に遭遇してしまうほか、危険認識の欠如などが死亡事故要因となっている。このような実際の事故事例にある運転者・歩行者の事故要因を減らすことで、事故の危険性を未然に回避できる。すなわち、運転者や歩行者が互いの存在や事故の可能性を適切に認識することが可能であれば、事故を未然に防止することができると考えられる。   On the other hand, regarding factors on the pedestrian side, which is the second party, the order is “no factor”, “safety unconfirmed”, and “judgment error”. In the case of pedestrians, accidents are caused by driver factors, and lack of danger awareness is a cause of death. By reducing the driver / pedestrian accident factors in such actual accident cases, the risk of accidents can be avoided. In other words, if the driver and pedestrian can appropriately recognize each other's existence and the possibility of an accident, it is considered that the accident can be prevented in advance.

そこで我々は、従来の運転者支援型の安全運転支援システムに加え、新たに認知状態の共有による交通事故の低減システムを提案している。   Therefore, in addition to the conventional driver assistance type safe driving support system, we have proposed a new traffic accident reduction system by sharing the cognitive state.

<1.2.認知状態の共有による交通事故の低減>
我々の提案する「認知状態共有システム」とは、運転者の状態を他の交通参加者と共有することで、交通事故の回避を目指すシステムである。これまで、自動車の安全性を向上性し事故を未然に防ぐために、様々な安全装置が研究・開発されている。これらの多くは運転操作の自動化や、運転者本人への情報提供による運転者支援を目指している。運転の自動化や運転者支援は交通安全の向上に非常に有効なアプローチである一方で、その実用性や応用可能性については未だ発展途上である。例えば運転者支援システムの例として、居眠りや不注意といった事故につながる可能性のある運転者の危険な挙動を検知し、運転者に伝えることで事故を低減するシステムが挙げられる。このようなシステムの場合、運転者がシステムから得られる情報を適切に利用する必要があるため、その効果は運転者の能力や認知状態に依存する。このため、疲労や加齢などによって適切な行動ができない運転者に対する効果はあまり期待することができない。
<1.2. Reduction of traffic accidents by sharing cognitive status>
The "cognitive state sharing system" we propose is a system that aims to avoid traffic accidents by sharing the driver's state with other traffic participants. Until now, various safety devices have been researched and developed in order to improve the safety of automobiles and prevent accidents. Many of these are aimed at driver assistance by automating driving operations and providing information to the driver himself. While driving automation and driver assistance are very effective approaches to improving road safety, their practicality and applicability are still under development. For example, as an example of a driver assistance system, there is a system that reduces accidents by detecting dangerous behaviors of a driver that may lead to accidents such as snoozing or carelessness and transmitting them to the driver. In such a system, since the driver needs to appropriately use information obtained from the system, the effect depends on the ability and cognitive state of the driver. For this reason, the effect with respect to the driver | operator who cannot perform appropriate action by fatigue, aging, etc. cannot be expected so much.

認知状態共有システムでは、運転者が適切に運転できない場合であっても、検知された事故につながる情報を運転者本人だけではなく周囲の交通参加者と共有することで、交通参加者の危険予測や危険回避を促進することを目指している。これにより、交通参加者同士の協調的行動を促すことができ、従来の運転者支援型の安全運転支援では防ぎきれない事故を未然に防ぐことができると考えられる。   In the cognitive state sharing system, even if the driver is unable to drive properly, the risk prediction of traffic participants can be made by sharing information that leads to detected accidents with not only the driver but also surrounding traffic participants. It aims to promote risk avoidance. Thereby, it is considered that cooperative actions among traffic participants can be promoted, and accidents that cannot be prevented by conventional driver assistance type safe driving assistance can be prevented.

本研究は、この「認知状態共有システム」の開発の一部として、運転者の居眠りや不注意といった「危険につながる認知状態」を周囲の交通参加者に提示する方法の開発を目的として実施された。運転者の認知状態提示方法として、現在我々は視聴覚、および無線を用いた車車間、歩車間コミュニケーションについて検討している。本研究では、そのなかでも特に視覚による自動車から歩行者への情報提示、注意喚起の有効性について検討することを目的として実施した。まず予備調査として、視覚情報提示装置として屋外型高輝度液晶ディスプレイに提示された視覚情報の視認性、注意喚起効果について主観評定を実施した。その後、歩行者の視線方向、注意状態を操作したときの視覚情報による注意喚起効果について、行動実験によって検討を実施した。   This study was conducted as part of the development of this “cognitive state sharing system” with the aim of developing a method to present surrounding traffic participants with a “cognitive state leading to danger” such as a driver's sleep or carelessness. It was. We are currently investigating audio-visual and wireless vehicle-to-vehicle and pedestrian-to-vehicle communication as methods for presenting the driver's cognitive state. The purpose of this study was to examine the effectiveness of visual presentation of information from automobiles to pedestrians and alerting among them. First, as a preliminary survey, a subjective assessment was performed on the visibility and alerting effect of visual information presented on an outdoor high-brightness LCD as a visual information presentation device. After that, behavioral experiments were conducted to examine the alerting effect of visual information when manipulating the pedestrian's gaze direction and attention state.

<2.予備調査>
本実験に用いる刺激選定および屋外用ディスプレイの視認性について確認するため、色・図形の見やすさおよび注意喚起効果について 4 名の評定者による主観評価を実施した。本調査は(株) 国際電気通信基礎技術研究所構内の屋外環境で実施した。実験車両は南南西向きに設置した。実験中の天気は晴れ−曇り、照度は18700−64000 lx で、時折太陽光がディスプレイに直射する状況であった。
<2. Preliminary survey>
In order to confirm the visibility of stimuli used in this experiment and the visibility of outdoor displays, a subjective evaluation was conducted by four evaluators on the visibility of colors and graphics and the alerting effect. This survey was conducted in the outdoor environment of the International Telecommunications Research Institute. The test vehicle was installed facing south-southwest. The weather during the experiment was sunny-cloudy, and the illuminance was 18700-64000 lx, with occasional sunlight directly on the display.

<2.1.装置について>
刺激提示には15インチ屋外用高輝度液晶ディスプレイ(三菱電機製、最高輝度1500cd/m2) を用いた。ディスプレイは実験車両のルーフ上に、画面を車両前方に向けて設置した。刺激制御にはWindows(登録商標)PC上でOctave3.2.4およびPsychtoolbox3を用いた。
<About the device>
A 15-inch outdoor high-brightness liquid crystal display (Mitsubishi Electric, maximum brightness 1500 cd / m2) was used for stimulus presentation. The display was installed on the roof of the experimental vehicle with the screen facing forward. For the stimulation control, Octave 3.2.4 and Psychtoolbox 3 were used on a Windows (registered trademark) PC.

<2.2.刺激>
刺激評価は、色および色の組み合わせ、図形の見やすさについて行われた。このため、色は白・黒・赤・青・緑・黄・シアン・マジェンタ・オレンジを用い、単色および2 色の組み合わせた図を作成した。図形は矢印を用い、図の色と背景色で2色の組み合わせ図形を作成した。図形パターンは目、矢印、および漢字(左)を用いた。図形の見やすさ評価については図を黒、背景を白とした。
<2.2. Stimulation>
Stimulus evaluation was performed on colors, color combinations, and graphic visibility. For this reason, white, black, red, blue, green, yellow, cyan, magenta, and orange were used as the colors, and a diagram combining a single color and two colors was created. The figure used arrows to create a combination of two colors, the figure color and the background color. The figure pattern used eyes, arrows, and kanji (left). For the evaluation of the visibility of figures, the figure was black and the background was white.

<2.3.主観評価>
単色については視認性、色の組み合わせおよび図形パターンについては、視認性と注意喚起効果について評定を行った。評価は「視認性」および「注意喚起効果」について、それぞれ「最もみにくい」から「最もみやすい」、「全く目をひかない」から「とても目をひく」までの5段階で評定を実施した。色を組み合わせたパターンについては、単色ではなく画面全体について評価とした。
<2.3 Subjective evaluation>
For single colors, the visibility, color combinations and graphic patterns were evaluated for visibility and alerting effects. The evaluation was carried out for the "visibility" and "attention effect" in five stages from "most visible" to "most visible", "not eye-catching" to "very eye-catching". About the pattern which combined the color, it evaluated as the whole screen instead of a single color.

<2.4.手続き>
評定者は、車両中央から向かって右側約3m、距離50mの位置からディスプレイを観察した。刺激は評定開始から15−45sのランダムなタイミングで1s間提示された。評定者は車両中央から右側3mの位置に設置された注視目印となる三脚を注視し、刺激が提示されたら画面を注目した後すぐに刺激についての評定を実施した。
<2.4. Procedure>
The evaluator observed the display from a position about 3m on the right side and a distance of 50m from the center of the vehicle. Stimulation was presented for 1 s at a random timing of 15-45 s from the start of the assessment. The evaluator glanced at the tripod, which is a gaze mark placed 3m on the right side from the center of the vehicle, and when the stimulus was presented, he immediately focused on the screen and performed a rating on the stimulus.

<2.5結果>
色のみやすさについて、みにくいと評価されたのはオレンジのみで、残りの色は全てみやすいと評価された。次に、2色を組み合わせた場合の色のみやすさについての評定結果を見ると、シアンやマジェンタといった一部の色は、別の色であると判断されることがあった。これは画面に直射する太陽光による影響と考えられる。2色の組み合わせについての視認性評定結果とあわせて、シアン・マジェンタ・オレンジは表示職として不適切であることが示された。色の組み合わせについての注意喚起効果の評定結果は視認性とほぼ同様の結果であった。図形パターンについては、矢印図形でやや低い評定値であったものの視認性・注意喚起効果ともパターン間であまり差は見られなかった。
<2.5 Results>
Regarding the ease of color, only orange was rated as difficult to see, and the remaining colors were all evaluated as easy to see. Next, looking at the evaluation results regarding the ease of color when the two colors are combined, some colors such as cyan and magenta may be determined to be different colors. This is considered to be the effect of sunlight directly on the screen. Together with the visibility assessment results for the two color combinations, Cyan, Magenta and Orange were shown to be inappropriate for display. The evaluation result of the alerting effect for the combination of colors was almost the same as the visibility. Regarding the graphic pattern, although it was a slightly low rating value with an arrow graphic, there was not much difference between the patterns in terms of visibility and alerting effect.

これらの結果から、視距離50mからの情報提示に屋外用LEDディスプレイが十分な性能を持つことが示された。本調査結果に基づき、次節では行動指標を用い、車外搭載ディスプレイによる注意喚起効果について検討を実施した。   From these results, it was shown that the outdoor LED display has sufficient performance for information presentation from a viewing distance of 50m. Based on the results of this survey, in the next section, behavioral indicators were used to examine the alerting effect of on-board displays.

<3.行動実験>
図17は、想定事故状況と実際の実験環境とを示すイメージ図である。図17を参照して、行動実験では、歩行者の視線方向や注意状態が異なる条件を設定し、それぞれの条件下における視覚刺激による注意喚起効果について検討した。実験環境は、自動車と歩行者の接触事故が生じた事例に基づき、歩行者が道路横断中に直進する自動車が接近、左折してくる状況を想定した屋外環境を設定した。
<3. Behavioral experiment>
FIG. 17 is an image diagram showing an assumed accident situation and an actual experimental environment. Referring to FIG. 17, in the behavioral experiment, conditions in which a pedestrian's line-of-sight direction and attention state are different were set, and the attention raising effect by visual stimulation under each condition was examined. The experimental environment was set based on the case where a car and pedestrian contact accident occurred, and an outdoor environment was set assuming a situation where a pedestrian is approaching and turning left while the car is moving straight across the road.

<3.1.実験参加者>
健常な視力を有した5名(男性3名、女性2名)が実験に参加した。参加者は全員運転免許証を所持していた。
<3.1. Participants in the experiment>
Five people (3 men and 2 women) with healthy vision participated in the experiment. All participants had a driver's license.

<3.2.実験環境>
株式会社国際電気通信基礎技術研究所構内の屋外環境で実施された。実験時間は9:30から16:30までの間とした。天候は晴天または曇りであった。実験環境の照度は7720−101100lxであった。車両は北向きに設置し、太陽光は画面に直接当たらない状況であった。車両からの太陽光の反射が直接実験参加者の目に入る場合は実験を中断した。
<3.2. Experimental environment>
The experiment was conducted in the outdoor environment of the International Telecommunications Research Institute. The experiment time was between 9:30 and 16:30. The weather was clear or cloudy. The illuminance of the experimental environment was 7720-101100lx. The vehicle was installed northward and sunlight did not hit the screen directly. The experiment was interrupted when sunlight reflected directly from the vehicle was in the eyes of the participants.

図18は、実験環境の設定を示すイメージ図である。図18を参照して、実験装置には予備調査と同じものを使用した。実験中、参加者は車両から50m離れた位置に車両と相対して立ち、三脚で示された注視点を注視するよう指示された。車両―歩行者間の距離は、事故の回避に必要な時間は2−3秒(時速60km/hで30−50mに相当)であるといわれていることに基づいて決定した。歩行者と車両の中央に左側3m/18mの位置には三脚を設置し、実験参加者の視線方向の目印とした。本実験では、50mの視距離における視覚情報提示の効果を検討することを目的としていたため、車両、歩行者とも位置は固定とした。   FIG. 18 is an image diagram showing the setting of the experimental environment. Referring to FIG. 18, the same experimental apparatus as that used in the preliminary investigation was used. During the experiment, participants were instructed to stand 50m away from the vehicle, facing the vehicle and gazing at the gaze point indicated by the tripod. The distance between the vehicle and the pedestrian was determined based on the fact that the time required to avoid the accident was 2-3 seconds (equivalent to 30-50m at 60km / h). A tripod was installed in the middle of the pedestrian and vehicle at the left 3m / 18m position to mark the gaze direction of the participants. The purpose of this experiment was to examine the effect of presentation of visual information at a viewing distance of 50 m, so the position of both the vehicle and the pedestrian was fixed.

<3.3.課題>
図19は、1回の施行の流れを示すイメージ図である。図19を参照して、屋外型高輝度ディスプレイによる歩行者への注意喚起効果について検討するため、車外搭載ディスプレイに表示される刺激の弁別課題を設定した。課題は、15-45秒間の空白画面に続いて1s間提示される矢印の左右向きについて判断するものであった。実験参加者は、あらかじめ設定された注視点を注目して画面を見ていない状態で、画面に矢印が提示されたことに気づき次第、その向きを判断してキー押し反応することが課された。矢印・背景の配色は、高い視認性と注意喚起効果が期待される色の組み合わせについての予備調査結果をもとに、背景は黄色、図は黒とした。視距離50mで矢印のサイズは0.2°であった。
<3.3 Issues>
FIG. 19 is an image diagram showing a flow of one execution. With reference to FIG. 19, in order to examine the alerting effect to a pedestrian by an outdoor type high brightness display, the discrimination | determination subject of the stimulus displayed on a display mounted outside a vehicle was set. The task was to determine the left-right direction of the arrow presented for 1 s following a 15-45 second blank screen. Participants were required to respond to key presses by determining their orientation as soon as they noticed that an arrow was presented on the screen without paying attention to the preset gazing point. . The color of the arrow / background was set to yellow for the background and black for the figure, based on the preliminary survey results for color combinations that are expected to have high visibility and alerting effects. The size of the arrow was 0.2 ° at a viewing distance of 50 m.

課題中の実験参加者の視線方向について、2条件を設定した。正面条件では、実験参加者は課題中実験車両に近い注視点に注目した。一方、歩行者が接近車両から離れた位置に注目している状況を想定した脇見条件では、観察者は車両から離れた注視点に注目していた。注視位置から画面までの偏心度は正面条件で3.4°、脇見条件では20.4°であった。また、歩行者の注意が道路環境以外に逸れている状況を想定し、注意負荷条件として暗算課題が設定された(暗算条件)。暗算条件では、主課題である弁別課題が開始すると1000から13ずつ減算し続けることが課された。暗算の計算結果は課題終了後に報告させた。注意負荷課題を課さない条件を統制条件とした。実験は条件ごとに行われ、各条件18試行、実験時間は1条件で約10分程度であった。   Two conditions were set for the gaze direction of the participants in the experiment. In frontal conditions, the participants of the experiment focused on the point of interest close to the experimental vehicle under study. On the other hand, in a side-view condition that assumes a situation where a pedestrian is paying attention to a position away from the approaching vehicle, the observer pays attention to a gazing point away from the vehicle. The degree of eccentricity from the gaze position to the screen was 3.4 ° in the front condition and 20.4 ° in the side-view condition. In addition, a mental arithmetic task was set as a caution load condition assuming a situation where the pedestrian's attention deviates from other than the road environment (mental arithmetic condition). Under mental arithmetic conditions, it was required to continue subtracting 13 from 1000 when the main discrimination task started. The result of mental calculation was reported after the task was completed. The condition that does not impose a caution load task was defined as the control condition. The experiment was conducted for each condition, and each experiment was 18 trials, and the experiment time was about 10 minutes per condition.

<4.結果>
図20は、条件ごとの視覚刺激の見落とし率を示すグラフである。図21は、条件ごとの誤反応率を示すグラフである。図22は、条件ごとの平均反応時間を示すグラフである。なお、反応時間は刺激提示開始から参加者がキー押し反応するまでとした。刺激提示開始後2000ms以降の反応は刺激の見落としとみなし、反応時間の分析から除外した。
<4. Results>
FIG. 20 is a graph showing the oversight rate of visual stimuli for each condition. FIG. 21 is a graph showing a false reaction rate for each condition. FIG. 22 is a graph showing the average reaction time for each condition. The reaction time was from the start of stimulus presentation until the participant responded to a key press. Responses after 2000 ms after the start of stimulus presentation were considered as missed stimuli and were excluded from the analysis of reaction time.

<4.1.見落とし率>
図20を参照して、条件ごとの見落とし率を比較すると、正面条件と比べて脇見条件、統制条件と比べて暗算条件の見落とし率が高いことが分かる。正面条件の見落とし率は注意負荷条件であっても平均4.6%と殆ど見落としはみられない。その一方で、脇見条件では統制条件で20.0%、暗算条件で24.4%と比較的高い頻度で見落としが生じている。各条件の見落とし率について、視線方向(2)×注意負荷(2)の分散分析を実施したところ、視線方向の主効果のみ有意であった(F(1,4)=30.03,p<.01,ηp2=0.88)。
<4.1 Oversight rate>
Referring to FIG. 20, when comparing the oversight rate for each condition, it can be seen that the oversight rate for the mental arithmetic condition is higher than that for the frontal condition and the control condition. The average oversight rate of the front condition is 4.6% on average even under the caution load condition, and almost no oversight is seen. On the other hand, oversight has occurred at a relatively high frequency of 20.0% under control conditions and 24.4% under mental arithmetic conditions. When the analysis of variance of the gaze direction (2) x attention load (2) was performed for the oversight rate under each condition, only the main effect in the gaze direction was significant (F (1,4) = 30.03, p <.01 , ηp2 = 0.88).

<4.2.反応時間、誤反応>
図21および図22を参照して、視線方向について比較すると、正面条件と比べて脇見条件で反応時間の遅延、誤反応の増加傾向がみられる。また、正面条件において、注意負荷条件についても統制条件と比べて暗算条件で成績の低下傾向がみてとれる。各条件の反応時間について、視線方向 (2) × 注意負荷 (2) の分散分析を実施したところ、視線方向の主効果が有意であった( F (1, 4) = 17.03,p < .001, η p2=0.97)。視線方向と注意負荷の交互作用は有意ではなかったものの( F (1, 4) = 5.773, p < .08,η p2=0.59)、
暗算による注意負荷による反応遅延が生じた可能性を示唆している。
<4.2. Reaction time, false reaction>
Referring to FIGS. 21 and 22, when compared with the line-of-sight direction, there is a tendency for the reaction time to be delayed and the number of false reactions to increase in the look-ahead condition compared to the front condition. Moreover, in the front condition, the attention load condition also shows a tendency for the results to decrease in the mental calculation condition compared to the control condition. For the reaction time of each condition, an analysis of variance of gaze direction (2) × attention load (2) was performed, and the main effect of gaze direction was significant (F (1, 4) = 17.03, p <.001 , η p2 = 0.97). Although the interaction between gaze direction and attention load was not significant (F (1, 4) = 5.773, p <.08, η p2 = 0.59),
This suggests the possibility of delay in reaction due to attention load due to mental arithmetic.

次に、条件ごとの誤反応率について比較した。誤反応率についても、脇見条件で誤反応が増加する傾向がみられた。しかし、誤反応率についての視線方向 (2)× 注 意 負 荷 (2) の分散分析の結果、有意な効果はみられなかった。   Next, the error rate for each condition was compared. As for the false reaction rate, there was a tendency for false reactions to increase under the awkward condition. However, as a result of analysis of variance of the line-of-sight direction (2) × attention load (2) for the false reaction rate, no significant effect was observed.

<5.考察>
実験の結果、正面条件においては、本実験刺激は注意負荷の有無に関わらず高い注意喚起効果が期待できることが示された。歩行者−車両間の距離が50mのときに、視覚情報提示開始から表示内容の認識、反応までが概ね1秒前後で可能であるということは、自動車から提示された視覚情報によって歩行者が適切な行動をとる余地があることを示している。例えば時速60km/hで接近する車両が歩行者の位置まで進むまでには約3秒かかる。この車両が歩行者の手前50mで提示した情報を歩行者が迅速に認知可能であれば、何の情報も提示しない場合と比べて歩行者が回避行動をとることができる可能性は十分に期待できる。一方で、脇見条件の成績は総じて正面条件より低い。正面条件と比べた時の200−300ms 程度の反応時間の遅延は視点移動が主な原因と考えられるが、この程度の遅延であれば、視覚情報の提示に歩行者が気づきさえすれば、ある程度の危機回避効果が期待できる。しかし、脇見条件における高い視覚刺激の見落とし率からは、歩行者の視線が車両から離れている場合の視覚刺激による注意喚起効果はあまり期待できない。本実験で見られた高い見落とし率は、屋外環境と比べた場合のディスプレイ輝度の相対的な低さによるものと考えられる。ヘッドライトの昼間点灯による事故低減効果を示す事例もあることから、視覚情報による注意喚起効果を高めるために、装置の設置場所や仕様については検討の余地が残る。
<5. Consideration>
As a result of the experiment, it was shown that in the frontal condition, this experimental stimulus can be expected to have a high alerting effect regardless of the presence or absence of attention load. When the distance between the pedestrian and the vehicle is 50m, it is possible to recognize the display content from the start of the presentation of visual information to the reaction in approximately 1 second. It shows that there is room to take appropriate actions. For example, it takes about 3 seconds for a vehicle approaching at a speed of 60 km / h to reach a pedestrian. If the pedestrian can quickly recognize the information presented by this vehicle 50m before the pedestrian, the possibility that the pedestrian can take avoidance action is better than when no information is presented. it can. On the other hand, the performance of the side-view condition is generally lower than the front condition. The delay in the reaction time of about 200-300ms compared to the frontal condition is considered to be caused mainly by viewpoint movement, but if this is a delay of this level, it will be to some extent if the pedestrian is aware of the presentation of visual information. Can be expected to avoid the crisis. However, from the high rate of oversight of visual stimuli in the side-viewing condition, the alerting effect by visual stimuli when the pedestrian's line of sight is away from the vehicle cannot be expected. The high oversight rate observed in this experiment is thought to be due to the relative low brightness of the display compared to the outdoor environment. There are cases that show the effect of reducing accidents by turning on the headlights in the daytime, so there is still room for study on the installation location and specifications of the device in order to increase the warning effect by visual information.

注意負荷が課題成績に及ぼす影響は本実験結果からは確認されなかった。しかし、統制条件と比べて暗算条件で成績が低下する傾向を示しており、本実験はサンプル数が少なくデータのばらつきが大きいことから、今後より詳細に検討する必要がある。特に脇見・暗算条件における見落とし率は高い傾向にある。歩行者の行動パターンは多岐にわたり、交通環境に対する注意状態も常に変化していることから、歩行者の状態と視覚刺激の注意喚起効果の関連について、今後より詳細な検討を行う必要がある。   The effect of attention load on task performance was not confirmed from the results of this experiment. However, the results show a tendency to decrease under mental arithmetic conditions compared to the control conditions, and this experiment needs to be examined in more detail in the future because the number of samples is small and the data varies greatly. In particular, the oversight rate tends to be high under the conditions of aside and mental arithmetic. Since the pedestrian behavior patterns are diverse and the attentional state with respect to the traffic environment is constantly changing, it is necessary to conduct a more detailed study on the relationship between the pedestrian state and the visual alerting effect.

本実験の前に行った予備的検討においては、実験参加者に課す注意負荷課題として、音楽鑑賞や携帯端末を用いた読書などの条件も試みた。サンプル数は少ないものの、結果は概ね今回の報告と同様であった。しかし、携帯電話読書条件においては、実験参加者は視覚情報提示に全く気付かないという結果であった。歩行中の携帯端末操作は歩行者の行動パターンとして高頻度であることが予想されることから、本事例のように視野内に視覚情報が殆ど、あるいはまったく入らない場合の効果的な注意喚起方法についても検討する必要がある。前述のように、我々は視聴覚・無線を組み合わせた情報提示技術を提案しており、現在開発中である。複数の情報提示手法を併用することで、単一の方法による場合と比べてより効果的な情報提示・注意喚起効果が期待できる。   In a preliminary study conducted prior to this experiment, we also tried conditions such as music appreciation and reading using a mobile terminal as an attention load task imposed on the experiment participants. Although the number of samples was small, the results were almost the same as this report. However, under the mobile phone reading conditions, the experiment participants did not notice the presentation of visual information at all. Since it is expected that mobile terminal operations during walking are frequent as pedestrian behavior patterns, an effective alerting method when little or no visual information enters the visual field as in this case Need to be considered. As mentioned above, we have proposed an information presentation technology that combines audiovisual and wireless, and is currently under development. By using a plurality of information presentation methods in combination, a more effective information presentation and alerting effect can be expected compared to a single method.

<6.まとめ>
本研究は、車外搭載ディスプレイを用いた自動車から歩行者への情報提示、および注意喚起の有効性について検討を実施した。この結果、屋外型高輝度ディスプレイは50m の視距離においても十分な視認性があり、視覚刺激による歩行者への注意喚起についても一定の効果が認められた。このことから、自動車から歩行者への視覚情報提示は、歩行者の危険予測や回避行動を促進するために効果的であることが示された。
<6. Summary>
In this study, we examined the effectiveness of information presentation from automobiles to pedestrians using a display mounted outside the vehicle, and the effectiveness of alerting. As a result, the outdoor type high-intensity display has sufficient visibility even at a viewing distance of 50 m, and a certain effect was also observed in alerting pedestrians by visual stimuli. From this, it was shown that the presentation of visual information from a car to a pedestrian is effective for promoting pedestrian risk prediction and avoidance behavior.

<その他の実施の形態>
本発明は、システムまたは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other embodiments>
It goes without saying that the present invention can also be applied to a case where the object is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and a program code stored in the storage medium by the computer (or CPU or MPU) of the system or apparatus It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現されてもよい。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code May perform part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現されてもよい。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. The CPU of the board or the function expansion unit may perform part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 ネットワークシステム
99,99X 車両
100,100B,100X 検知システム
110 CPU
120 メモリ
130 ディスプレイ
140 GPS
150 ボタン
160 通信インターフェイス
170 スピーカ
171 車外センサ
172 視線センサ
173 操舵センサ
180,180B 外部ディスプレイ
190 外部スピーカ
200 携帯電話
210 CPU
220 メモリ
230 ディスプレイ
240 GPS
250 ボタン
260 通信インターフェイス
270 スピーカ
1 Network System 99, 99X Vehicle 100, 100B, 100X Detection System 110 CPU
120 memory 130 display 140 GPS
150 button 160 communication interface 170 speaker 171 vehicle outside sensor 172 line of sight sensor 173 steering sensor 180, 180B external display 190 external speaker 200 mobile phone 210 CPU
220 memory 230 display 240 GPS
250 button 260 communication interface 270 speaker

Claims (9)

車両に搭載される検知システムと、端末と、を備えるネットワークシステムであって、
前記検知システムは、
通信インターフェイスと、
前記車両の運転手の認知状態を検知するためのセンサと、
前記運転手の認知状態に基づいて、前記通信インターフェイスを介して前記端末に警告情報を送信するための車両プロセッサとを含み、
前記端末は、
出力部と、
前記警告情報に基づいて、前記出力部に、視覚的な警告、聴覚的な警告、および振動による警告の少なくともいずれかを出力させる端末プロセッサとを含む、ネットワークシステム。
A network system comprising a detection system mounted on a vehicle and a terminal,
The detection system includes:
A communication interface;
A sensor for detecting a cognitive state of the driver of the vehicle;
A vehicle processor for transmitting warning information to the terminal via the communication interface based on the driver's cognitive state;
The terminal
An output section;
A network system, comprising: a terminal processor that causes the output unit to output at least one of a visual warning, an audible warning, and a vibration warning based on the warning information.
前記検知システムは、
前記車両の位置および向きを検知するための第1の位置計測センサをさらに含み、
前記車両プロセッサは、前記通信インターフェイスを介して前記端末に、前記車両の位置および向きを示す情報を送信し、
前記端末は、
前記端末の位置を検知するための第2の位置計測センサをさらに含み、
前記端末プロセッサは、前記車両の位置および向きを示す情報と前記端末の位置を示す情報とに基づいて、前記端末が前記車両の進行方向に位置する場合に前記出力部に前記警告を出力させる、請求項1に記載のネットワークシステム。
The detection system includes:
A first position measurement sensor for detecting the position and orientation of the vehicle;
The vehicle processor transmits information indicating the position and orientation of the vehicle to the terminal via the communication interface;
The terminal
A second position measurement sensor for detecting the position of the terminal;
The terminal processor causes the output unit to output the warning when the terminal is located in the traveling direction of the vehicle based on information indicating the position and orientation of the vehicle and information indicating the position of the terminal. The network system according to claim 1.
前記センサは、前記運転手の認知状態として、前記運転手の視線を検知し、
前記車両プロセッサは、前記運転手の視線に基づいて、前記端末に前記警告を送信するか否かを判断する、請求項1または2に記載の検知システム。
The sensor detects the driver's line of sight as the driver's cognitive state,
The detection system according to claim 1, wherein the vehicle processor determines whether to transmit the warning to the terminal based on the driver's line of sight.
前記端末は、歩行者によって保持可能である、請求項1から3のいずれか1項に記載のネットワークシステム。   The network system according to claim 1, wherein the terminal can be held by a pedestrian. 前記端末は、前記車両とは異なる他の車両に搭載される検知システムに含まれる、請求項1から3のいずれか1項に記載のネットワークシステム。   The network system according to any one of claims 1 to 3, wherein the terminal is included in a detection system mounted on another vehicle different from the vehicle. 前記端末は、道路に対して直接的または他の構造物を介して間接的に設置される、請求項1から3のいずれか1項に記載のネットワークシステム。   The network system according to any one of claims 1 to 3, wherein the terminal is installed directly on the road or indirectly through another structure. 車両に搭載される検知システムであって、
通信インターフェイスと、
前記車両の運転手の認知状態を検知するためのセンサと、
前記運転手の認知状態に基づいて、前記通信インターフェイスを介して端末に警告情報を送信するための車両プロセッサとを備える、検知システム。
A detection system mounted on a vehicle,
A communication interface;
A sensor for detecting a cognitive state of the driver of the vehicle;
A detection system comprising: a vehicle processor for transmitting warning information to the terminal via the communication interface based on the driver's recognition state.
車両に搭載される検知システムであって、
出力部と、
前記車両の運転手の認知状態を検知するためのセンサと、
前記運転手の認知状態に基づいて、前記出力部に視覚的な警告、聴覚的な警告、および振動による警告の少なくともいずれかを出力させるためのコンピュータとを備える、検知システム。
A detection system mounted on a vehicle,
An output section;
A sensor for detecting a cognitive state of the driver of the vehicle;
A detection system comprising: a computer for causing the output unit to output at least one of a visual warning, an audible warning, and a vibration warning based on the driver's cognitive state.
前記センサは、前記運転手の認知状態として前記運転手の視線を検知し、
前記車両プロセッサは、前記運転手の視線に基づいて、前記警告として、前記出力部に視覚的および/または聴覚的に前記運転手の視線の方向を示す情報を出力させる、請求項8に記載の検知システム。
The sensor detects the driver's line of sight as the driver's cognitive state,
The said vehicle processor makes the said output part output the information which shows the direction of the said driver | operator's eyes visually and / or auditoryly as the said warning based on the said driver | operator's eyes | visual_axis. Detection system.
JP2012047185A 2012-03-02 2012-03-02 Network system and detection system Active JP6047727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012047185A JP6047727B2 (en) 2012-03-02 2012-03-02 Network system and detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012047185A JP6047727B2 (en) 2012-03-02 2012-03-02 Network system and detection system

Publications (2)

Publication Number Publication Date
JP2013182521A true JP2013182521A (en) 2013-09-12
JP6047727B2 JP6047727B2 (en) 2016-12-21

Family

ID=49273109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012047185A Active JP6047727B2 (en) 2012-03-02 2012-03-02 Network system and detection system

Country Status (1)

Country Link
JP (1) JP6047727B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5880740B1 (en) * 2014-12-26 2016-03-09 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
JP5880741B1 (en) * 2014-12-26 2016-03-09 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
JP2019508764A (en) * 2015-12-15 2019-03-28 ソニー株式会社 System and method for generating a parking alert
JP2021103436A (en) * 2019-12-25 2021-07-15 パナソニックIpマネジメント株式会社 Notification control device, notification device, notification control method, notification control program, and vehicle information transmitting device
CN114423343A (en) * 2019-09-19 2022-04-29 三菱电机株式会社 Cognitive function estimation device, learning device, and cognitive function estimation method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116564A (en) * 1999-10-15 2001-04-27 Toshiba Corp Mobile communication system
JP2001219760A (en) * 2000-02-09 2001-08-14 Hitachi Ltd Moving body driving support device
US20060220915A1 (en) * 2005-03-21 2006-10-05 Bauer James A Inter-vehicle drowsy driver advisory system
JP2008197740A (en) * 2007-02-08 2008-08-28 Toyota Motor Corp Collision prevention safety device for vehicle, collision prevention safety system and collision prevention safety information center
JP2009075695A (en) * 2007-09-19 2009-04-09 Nec Personal Products Co Ltd Danger notification device and system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116564A (en) * 1999-10-15 2001-04-27 Toshiba Corp Mobile communication system
JP2001219760A (en) * 2000-02-09 2001-08-14 Hitachi Ltd Moving body driving support device
US20060220915A1 (en) * 2005-03-21 2006-10-05 Bauer James A Inter-vehicle drowsy driver advisory system
JP2008197740A (en) * 2007-02-08 2008-08-28 Toyota Motor Corp Collision prevention safety device for vehicle, collision prevention safety system and collision prevention safety information center
JP2009075695A (en) * 2007-09-19 2009-04-09 Nec Personal Products Co Ltd Danger notification device and system
JP2010217956A (en) * 2009-03-13 2010-09-30 Omron Corp Information processing apparatus and method, program, and information processing system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3239959A4 (en) * 2014-12-26 2018-07-25 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
JP5880740B1 (en) * 2014-12-26 2016-03-09 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
WO2016103469A1 (en) * 2014-12-26 2016-06-30 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
WO2016103468A1 (en) * 2014-12-26 2016-06-30 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
CN107111949A (en) * 2014-12-26 2017-08-29 横滨橡胶株式会社 CAS and avoiding collision
US9913607B2 (en) 2014-12-26 2018-03-13 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
JP5880741B1 (en) * 2014-12-26 2016-03-09 横浜ゴム株式会社 Collision avoidance system and collision avoidance method
US10144349B2 (en) 2014-12-26 2018-12-04 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
CN107111949B (en) * 2014-12-26 2020-04-10 横滨橡胶株式会社 Anti-collision system and anti-collision method
JP2019508764A (en) * 2015-12-15 2019-03-28 ソニー株式会社 System and method for generating a parking alert
JP7006591B2 (en) 2015-12-15 2022-01-24 ソニーグループ株式会社 Parking lot monitoring system and method
CN114423343A (en) * 2019-09-19 2022-04-29 三菱电机株式会社 Cognitive function estimation device, learning device, and cognitive function estimation method
JP2021103436A (en) * 2019-12-25 2021-07-15 パナソニックIpマネジメント株式会社 Notification control device, notification device, notification control method, notification control program, and vehicle information transmitting device
JP7417891B2 (en) 2019-12-25 2024-01-19 パナソニックIpマネジメント株式会社 Notification control device, notification device, notification control method, notification control program, and vehicle information transmitting device

Also Published As

Publication number Publication date
JP6047727B2 (en) 2016-12-21

Similar Documents

Publication Publication Date Title
US11597390B2 (en) Method and system for driving mode switching based on driver&#39;s state in hybrid driving
US11609566B2 (en) Method and system for driving mode switching based on self-aware capability parameters in hybrid driving
US11813983B2 (en) Method and system for augmented alerting based on driver&#39;s state in hybrid driving
JP6047727B2 (en) Network system and detection system
US11518305B2 (en) Techniques for generating vehicle-to-pedestrian (V2P) communications based on driver monitoring
WO2019122967A1 (en) Method and system for risk based driving mode switching in hybrid driving
US20240149904A1 (en) Attention attracting system and attention attracting method
JP2018097479A (en) Driving support apparatus, driving support method, driving support program, and driving support system
US11643012B2 (en) Driving assistance device, driving situation information acquisition system, driving assistance method, and program
JP7372382B2 (en) Traffic safety support system
US20240109555A1 (en) Attention attracting system and attention attracting method
JP7372381B2 (en) Traffic safety support system
JP2023151648A (en) Traffic safety support system
JP2022156031A (en) Safe driving support device, safe driving support method, program, and storage medium
JP2022087117A (en) Drive assistance device, drive assistance method, and program
CA3083411A1 (en) Method and system for adapting augmented switching warning
JP2018097485A (en) Driving support apparatus, driving support method, driving support program, and driving support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R150 Certificate of patent or registration of utility model

Ref document number: 6047727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250