JP6448880B1 - 危険情報収集装置 - Google Patents

危険情報収集装置 Download PDF

Info

Publication number
JP6448880B1
JP6448880B1 JP2018544375A JP2018544375A JP6448880B1 JP 6448880 B1 JP6448880 B1 JP 6448880B1 JP 2018544375 A JP2018544375 A JP 2018544375A JP 2018544375 A JP2018544375 A JP 2018544375A JP 6448880 B1 JP6448880 B1 JP 6448880B1
Authority
JP
Japan
Prior art keywords
information
risk
danger
cause
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018544375A
Other languages
English (en)
Other versions
JPWO2018235409A1 (ja
Inventor
和代 川勝
和代 川勝
喜久 山口
喜久 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6448880B1 publication Critical patent/JP6448880B1/ja
Publication of JPWO2018235409A1 publication Critical patent/JPWO2018235409A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は危険情報収集装置に関し、車両の走行情報に基づいて車両の走行状態の危険状態度を算出する危険状態度算出部と、車両の運転者の視点情報と車両の周辺の物体情報を組み合わせて運転者の視認対象の名称を特定して視認対象候補とする視認対象特定部と、少なくとも同乗者が発した言葉を含む同乗者情報を取得する同乗者情報取得部と、同乗者情報取得部で取得された同乗者情報に基づいて、危険誘発原因を特定するための危険誘発原因候補を設定する危険誘発原因候補設定部と、危険状態度、視認対象候補および危険誘発原因候補に基づいて危険誘発原因を特定する危険誘発原因特定部とを備え、危険誘発原因特定部は、危険状態度が閾値以上となった場合に、視認対象候補と危険誘発原因候補との関連性を照合し、視認対象候補と危険誘発原因候補とが関連する場合には、危険誘発原因候補を危険誘発原因に特定する。

Description

本発明は車両が道路を走行する際の危険情報を収集する危険情報収集装置に関する。
車両が道路を走行する際において、運転者または同乗者が交通事故に直結するような危険を感じる場面である「ヒヤリ・ハット」を体感することがある。「ヒヤリ・ハット」情報を収集し整理することで交通事故を誘発する地帯を示す地図を作成し、その地図を共有することで交通事故の予防に使用する例もある。しかし、「ヒヤリ・ハット」情報の収集には、従来はアンケートが利用されており、アンケート結果を整理して入力するには手間と時間がかかる。そこで、「ヒヤリ・ハット」情報を走行情報から自動で収集する仕組みが特許文献1および2において提案されている。
特開2003−123185号公報 特開2007−47914号公報
特許文献1では、車間距離センサ、運転者を対象にした脈拍センサ、音声マイクなどの車両の状態を取得するためのセンサの出力に基づいて危険な状態か否かを判定し、その結果に基づいて自動で危険の種類を判定し、危険箇所を特定して地図データに反映する技術が開示されている。しかし、この方法では、危険を誘発する原因を特定することはできない。
特許文献2には、運転者の視線方向がどちらを向いているかを判定し、その視線方向の先にヒヤリ・ハットの状態を引き起こすことになった対象物候補が存在するか否かによって危険対象物を特定する技術が開示されている。しかし、この方法では、対象物候補が複数発生することが考えられ、危険を誘発する原因を特定することはできない。
本発明は上記のような問題を解決するためになされたものであり、危険を誘発する危険誘発原因を特定することが可能な危険情報収集装置を提供することを目的とする。
本発明に係る危険情報収集装置は、車両に搭載され、前記車両の走行に危険な情報を収集する危険情報収集装置であって、前記車両の走行状態を示す走行情報を取得する走行情報取得部と、前記走行情報取得部で取得した前記走行情報に基づいて前記車両の走行状態が危険状態かどうかの指標となる危険状態度を算出する危険状態度算出部と、前記車両の運転者の視点情報と前記車両の周辺の物体情報を組み合わせて前記運転者の視認対象を特定して視認対象候補とする視認対象特定部と、同乗者が発した言葉を含む同乗者情報を取得する同乗者情報取得部と、前記同乗者情報取得部で取得された前記同乗者情報に基づいて、危険を誘発した危険誘発原因を特定するための危険誘発原因候補を設定する危険誘発原因候補設定部と、前記危険状態度算出部で算出された前記危険状態度、前記視認対象特定部で特定された前記視認対象候補および前記危険誘発原因候補設定部で設定された前記危険誘発原因候補に基づいて前記危険誘発原因を特定する危険誘発原因特定部と、を備え、前記危険誘発原因特定部は、前記危険状態度が閾値以上となった場合に、前記視認対象候補と前記危険誘発原因候補との関連性を照合し、前記視認対象候補と前記危険誘発原因候補とが関連する場合には、前記危険誘発原因候補を前記危険誘発原因として特定し、前記危険誘発原因候補設定部は、前記同乗者が発した言葉を音声解析し、前記言葉を単語単位に分割し、分割された複数の単語を一まとまりとして前記危険誘発原因候補として設定する。

本発明に係る危険情報収集装置によれば、危険誘発原因を特定することができる。
本発明に係る実施の形態1の危険情報収集装置の構成を示す機能ブロック図である。 本発明に係る実施の形態1の危険情報収集装置の視認対象特定部の動作を説明するフローチャートである。 本発明に係る実施の形態1の危険情報収集装置の同乗者情報取得部と危険誘発原因候補設定部の動作を説明するフローチャートである。 本発明に係る実施の形態1の危険情報収集装置の走行情報取得部、危険状態度算出部および危険誘発原因特定部の動作を説明するフローチャートである。 危険状態度を10段階で表した例を説明する図である。 視認対象候補群と危険誘発原因候補群との関連性を照合する手順を説明するフローチャートである。 視認対象候補群と危険誘発原因候補群との関連度の例を説明する図である。 本発明に係る実施の形態2の危険情報収集装置の構成を示す機能ブロック図である。 本発明に係る実施の形態2の危険情報収集装置の同乗者情報取得部と危険誘発原因候補設定部の動作を説明するフローチャートである。 本発明に係る実施の形態2の危険情報収集装置の走行情報取得部、危険状態度算出部および危険誘発原因特定部の動作を説明するフローチャートである。 本発明に係る実施の形態3の危険情報収集装置の構成を示す機能ブロック図である。 本発明に係る実施の形態4の危険情報収集装置の構成を示す機能ブロック図である。 本発明に係る実施の形態5の危険情報収集装置の構成を示す機能ブロック図である。 危険情報の例を説明する図である。 本発明に係る実施の形態5の危険情報収集装置の走行情報取得部、危険状態度算出部および危険誘発原因特定部の動作を説明するフローチャートである。 本発明に係る実施の形態1の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態2の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態3の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態6の危険情報収集装置の構成を示す機能ブロック図である。 本発明に係る実施の形態6の危険情報収集装置の走行情報取得部、危険状態度算出部および危険誘発原因特定部の動作を説明するフローチャートである。 本発明に係る実施の形態1の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態2の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態3の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る実施の形態4の危険情報収集装置の構成の変形例を示す機能ブロック図である。 本発明に係る危険情報収集装置のハードウェア構成を示すブロック図である。 本発明に係る危険情報収集装置のハードウェア構成を示すブロック図である。
<実施の形態1>
図1は本発明に係る実施の形態1の危険情報収集装置100の構成を示す機能ブロック図である。図1に示すように危険情報収集装置100は、車両の走行情報を取得する走行情報取得部101、危険状態度算出部102、視認対象特定部103、同乗者情報取得部104、危険誘発原因候補設定部106、危険誘発原因特定部107および危険誘発原因出力部108を備えている。
走行情報取得部101は、車両の走行状態を示す車両状態量である走行情報を取得し、危険状態度算出部102に出力する。車両の走行情報としては、速度、加速度、ブレーキ情報、操舵角情報、アクセル情報、エンジン情報などが含まれる。走行情報は、車両に備えられた複数のセンサにより検出されるが、その検出には公知の方法が用いられるので、説明は省略する。
危険状態度算出部102は、走行情報取得部101から出力される走行情報の変化の程度に基づいて、車両の危険状態度を算出して危険状態情報とする。
視認対象特定部103は、運転者の視点情報と車両周辺の物体情報を用いて、運転者の視認対象を特定し視認対象群の情報として危険誘発原因特定部107に出力する。
運転者の視点情報は視線検知デバイスを用いて取得する。視線検知デバイスには、カメラと赤外線を利用して視点を検知するもの、眼球周りの筋電位情報を利用して視線を検知する装着型のものなどがある。視線検知デバイスの代わりに、車両内を撮影するカメラと映像解析機能を用いて、運転者の目を認識して視点を特定するようにしても良い。視点情報としては、最低限、視線の起点位置と、視線の方向を含む。これに加えて、運転者の顔あるいは目の位置、顔あるいは黒目の向き、まばたきの回数、運転者の眼鏡またはコンタクトレンズ装着の有無など、目に関する情報を追加しても良い。視線検出の方法としては、角膜反射法など、様々な方法があるが、本発明においては、既知の任意の方法を採用することができる。
車両周辺の物体情報は、車両に搭載されるカメラと映像解析機能を用いて取得する。車両に搭載されるカメラは、自車両の前方と側方を同時に撮影可能な広角レンズを備えるカメラの他に、複数のカメラで撮影された複数の方向の映像を合成して1つの映像とするカメラシステムを用いても良い。なお、以下においては、各実施の形態に係る危険情報収集装置を搭載した車両を自車両、自車両以外の車両を他車両と呼称する。また、他車両にも自車両と同様の危険情報収集装置が搭載され、危険情報収集装置間で情報の授受を行う場合もある。
また、路肩など車外に設置されたカメラで撮影された映像を利用しても良い。その場合、車外に設置したカメラと危険情報収集装置100との間で直接に通信する、もしくは、クラウドサーバを経由することで、車外に設置したカメラから危険情報収集装置100に映像を送信することで、車外に設置したカメラで撮影された映像を利用することが可能となる。なお、カメラの代わりに、レーダーを用いて車両周辺の物体情報を取得しても良い。
物体情報としては、最低限、名称、自車両との相対位置、大きさの情報を含む。これに加えて、色、形などの物体情報を追加しても良い。例えば、「黒いミニバン、全長4m、相対位置(相対距離2m、車両からの角度60°)」などのように、見たとおりの状態の情報とすることができる。この場合、自車両からの角度は自車両の進行方向を0°として、時計回りの向きで表すことができる。
また、走行中は連続的に物体情報を取得する。物体情報の取得範囲は、走行時に急ブレーキをかけても走行上支障のない範囲を想定し、急ブレーキ時の停止距離を基準に算出する。例えば、一般道では自車両を中心に直径60m程度の範囲、高速道路では直径130m程度の範囲とする。なお、この範囲は、速度ごとに変更しても良い。
ここで、図2に示すフローチャートを用いて、視認対象特定部103での処理の一例を説明する。危険情報収集装置100は、車両のイグニッションスイッチがオンされることで動作を開始するので視認対象特定部103も視認対象特定処理を開始し、まず、視線検知デバイス等を用いて運転者の視点情報を取得する(ステップS11)。
次に、車両外部を撮影する車載カメラ等を用いて車両周辺映像を取得し(ステップS12)、ステップS11で取得した運転者の視点の座標を車両周辺映像の座標に変換し、車両周辺映像上における視点の位置座標を取得する(ステップS13)。座標の変換は、線検知デバイスによって算出される視点の位置座標を、ステップS11で利用した車載カメラ等のカメラ座標に変換する処理である。このように、座標を変換することで車両周辺映像上に運転者の視点の位置座標をマッピングすることができる。なお、車載カメラを用いる場合、変換した座標は、カメラの位置と視線検知デバイスの位置により一意に定まるものであり、事前にキャリブレーションをしておくことができる。
次に、車両周辺映像上にマッピングされた運転者の視点の位置座標の周辺に存在する物体を検出する。物体の検出方法としては、画像認識を用いた方法など、既知の方法を使用することができ、検出した物体を視認対象として特定する(ステップS14)。上述したステップS11〜S14の処理は、車両のイグニッションスイッチがオンされている間は周期的に繰り返される。
上述した視認対象特定処理の具体例について、運転者が自車両からの相対距離2m、角度60°に位置する黒いミニバンを視認した場合を説明する。
ステップS11において相対距離2m、角度60°への運転者の視線を検知すると、ステップS12においてその時の車両周辺の映像を取得し、ステップS13において車両周辺の映像上に視点位置(自車両からの距離2m、自車両からの角度60°)を変換する。
ステップS14では車両周辺映像上における視点位置(自車両からの距離2m、自車両からの角度60°)にある物体情報を検出し、視認対象が黒いミニバンで全長が4mであることを特定する。特定された視認対象の情報は、「黒いミニバン、全長4m、相対位置(相対距離2m、車両からの角度60°)」として、所定の記憶装置に検出した時間の情報と共に保存する。なお、所定の記憶装置は危険情報収集装置100内に設けても良いが、車両内の別の場所に設けても良い。
同乗者情報取得部104は、同乗者情報を取得し危険誘発原因候補設定部106に出力する。同乗者情報としては、同乗者が発した言葉の音声情報、特定の物体を指差すなどの同乗者の動作を示す映像情報および同乗者が指し示した物体の映像情報などを含んでいる。
同乗者情報の取得には、車両内部を撮影する車内カメラ、車両外部を撮影する車載カメラ、マイク、加速度センサ、ジャイロセンサを利用することができる。加速度センサ、ジャイロセンサは、同乗者に持たせる、もしくは座席、シートベルトに設置し、同乗者の顔および体の向き、動作の取得に利用する。
危険誘発原因候補設定部106は、同乗者情報取得部104から出力される同乗者情報を解析し、危険誘発原因候補群を設定して危険誘発原因特定部107に出力する。
ここで、図3に示すフローチャートを用いて、同乗者情報取得部104および危険誘発原因候補設定部106での処理を説明する。
同乗者情報取得部104において同乗者情報を取得し(ステップS21)、当該同乗者情報は危険誘発原因候補設定部106に与えられ、危険誘発原因候補設定部106において同乗者情報を解析する(ステップS22)。
同乗者が発声した言葉の解析としては、同乗者が発した言葉に対して音声認識により音声解析を行い、音声を単語単位に分割する処理を行う。例えば、「明日は公園に行きたい。」という音声情報が得られた場合には、「明日」、「公園」、「行きたい」と言うように分割する。
同乗者の動作の解析としては、例えば、同乗者が自転車を指差す動作をした場合には、その映像に対して画像認識により画像解析を行って指差し動作を検出し、指を差した先の自転車を物体として特定する。以下、物体の解析の例を説明する。
例えば、同乗者が自転車を指差す動作をした場合、車内カメラで撮影した映像情報を利用して指差した方向を検出する場合は、車内カメラで撮影した映像に対して画像認識により手の形を判別して指差しを検出し、指の伸びる方向を特定することで指し示した方向を検出する。そして、指し示した方向の座標位置を車両外部を撮影する車載カメラで撮影した車両周辺映像上の座標に変換し、その方向に存在する自転車をパターンマッチング等で自転車として認識し、その名称を特定する。
なお、指し示した方向の検出には、加速度センサ、ジャイロセンサを用いて、顔の向きまたは体の向きを検出する方法もある。加速度センサ、ジャイロセンサ用いて体の向きを検出する場合は、同乗者が前方を向いている状態を基準とし、同乗者が特定の方向に顔または体を向ける動きをした場合、直交する3軸の加速度に基づいてどの程度体が移動したかを検出する。これにより、顔または体が前方を向いた状態からどの程度の角度が変化したかを検出する。
この方法では、顔または体が向いた方向を正確には特定できないので、顔または体が向いたと推定される方向に存在する全ての物体を対象として特定する。
物体の検出は、視認対象特定部103での検出方法と同様であり、車載カメラで撮影した映像を画像処理する方法でも、レーダーで物体を検出する方法でも良い。
危険誘発原因候補設定部106は、ステップS22での同乗者情報の解析で得られた結果に基づいて、危険誘発原因候補群を設定する(ステップS23)。例えば、音声の解析の結果、「明日」、「公園」、「行きたい」と言う単語が得られ、同乗者の動作から指し示した方向に存在する物体として「自転車」が特定された場合、「明日」、「公園」、「行きたい」、「自転車」を危険誘発原因候補群の情報として出力する。上述したステップS21〜S23の処理は、車両のイグニッションスイッチがオンされている間は周期的に繰り返される。
このように、同乗者の音声を解析することで危険誘発原因候補を設定するので、運転者からは得られない情報、例えば運転者の死角で危険誘発原因が発生したような場合でも、危険誘発原因を特定できる。
また、同乗者の動作を解析することで危険誘発原因候補を設定するので、同乗者しかできない動作、例えば、危険誘発原因が車両から遠ざかって行くような場合でも、指を差す動作を解析することにより危険誘発原因を特定できる。
危険誘発原因特定部107は、視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報を用いて危険誘発原因を特定し、危険誘発原因出力部108は、危険誘発原因特定部107で特定された危険誘発原因を外部に出力する。
次に、図4に示すフローチャートを用いて走行情報取得部101、危険状態度算出部102および危険誘発原因特定部107での処理を説明する。
走行情報取得部101において車両の走行時の走行情報を取得し(ステップS31)、危険状態度算出部102に出力する。走行情報には、速度、加速度、ブレーキ情報、操舵角情報、アクセル情報、エンジン情報などが含まれる。
危険状態度算出部102は、走行情報取得部101から出力される走行情報に基づいて、自車両の走行状態が危険な状態かどうかの指標となる危険状態度を算出し(ステップS32)、危険誘発原因特定部107に出力する。危険状態度とは走行状態の危険の程度を段階で示すものであり、走行状態が平常時と比較して異常になると危険状態度は増加する。
図5を用いて危険状態度を10段階で表す場合について説明する。図5に示す例では、危険状態度を、速度情報、ブレーキ情報(ブレーキをかけているかどうか)、加速度情報および操舵角の情報を用いて設定している。この際、エンジンの回転数、スロットル開度などのエンジン情報およびアクセル情報を補助的に用いても良い。
図5において、危険状態度が一番低い「1」の場合は、速度が遅い(法定速度−10km/hより下)状態で急ブレーキをかけ、加速度は小さく、操舵角の変化も小さい状態が該当する。一方、危険状態度が一番高い「10」の場合は、速度が早い(法定速度+10km/hより上)状態で急ブレーキをかけ、加速度は大きく、操舵角の変化も大きい状態が該当する。また、危険状態度が「5」〜「8」では、速度情報として、速度が法定速度と同等の状態としているが、これは、法定速度以下かつ法定速度−10km/h以上の状態としている。なお、上記は一例であり、走行情報の組み合わせは上記に限定されるものではない。
このように、危険状態度を多段階の数値で設定することで、車両の走行状態が危険であるかどうかを数値に基づいて判断することができ、客観的な判断が可能となる。
危険誘発原因特定部107は、危険状態度算出部102で算出された危険状態度と予め定めた閾値との比較を行う(ステップS33)。危険状態度が閾値未満の場合(no)は、ステップS31以下の処理を繰り返すように走行情報取得部101および危険状態度算出部102を制御する。危険状態度が閾値以上の場合(yes)には自車両の走行状態が危険な状態であると判断し、ステップS34に移行する。
上記閾値は、過去の走行情報に基づいて設定されるが、運転者個人の過去のデータに基づいて運転者個人ごとに調整しても良い。また、危険状態の発生を複数回模擬し、その結果に基づいて閾値を設定しても良い。例えば、危険状態度が10段階で設定されており、安全状態が「1」、危険状態が「10」であるとした場合に、模擬的に複数回の危険状態を発生させ、それらの危険状態度の平均値が4である場合は、平均値である4を閾値として用いても良い。
次に、危険誘発原因特定部107は、危険状態度が閾値以上となった時間の前後における複数の視認対象の情報を視認対象特定部103から取得して視認対象候補群とする(ステップS34)。前後の時間の設定としては、10秒、15秒、30秒程度が挙げられる。これは、危険誘発原因を運転者が視認してから危険状態が発生するまでの時間すなわち危険状態度が閾値以上となった時間と、危険状態が発生してから同乗者が危険誘発原因を認識し、その情報を外部に伝えるまでの時間を考慮して設定すれば良い。運転者および同乗者が危険誘発原因を認識したタイミングと、ブレーキをかけるなどの運転者が車両を操作するタイミングにタイムラグが生じる可能性があるためである。例えば、急ブレーキ後に「自転車の飛び出し危ないよね」と言う言葉を発するようなケースが考えられる。なお、タイムラグを考慮せずに危険状態度が閾値以上となったタイミングでの視認対象群の情報を視認対象特定部103から取得するようにしても良い。
次に、危険誘発原因特定部107は、危険状態度が閾値以上となった時間の前後における複数の危険誘発原因候補を危険誘発原因候補設定部106から取得して危険誘発原因候補群とする(ステップS35)。そして視認対象候補群と危険誘発原因候補群との関連性を照合する(ステップS36)。照合に際しては、危険状態度が閾値以上となった時間より前と後の視認対象候補群と危険誘発原因候補群を区別せずに照合し、関連性が最も高い候補を危険誘発原因とする。
関連性は物体の大きさまたは色、形、単語の意味の何れかの情報を用いて関連度として数値化する。例えば、危険誘発原因候補を「危険度を表す単語」、「物体を表す単語」および「物体の様子を表す単語」ごとに関連度の点数を設定し、その関連度の点数が最も高いものを危険誘発原因とする(ステップS37)。
例えば、「危険度を表す単語」として、「危ない」、「危険」などの危険を表す単語と、「見えなかった」、「飛び出してきた」、「横切った」などの危険行動を連想させる単語を定義する。また、「物体を表す単語」として、「猫」、「自転車」などの名詞を定義する。また、「物体の様子を表す単語」として、「小さい」、「白い」などの物体の形、大きさ、色などを表す単語を定義する。
そして、「危険度を表す単語」の点数を10点、「物体を表す単語」を5点、「物体の様子を表す単語」を1点として視認対象候補への点数付けを行う。点数付けは一文のまとまりで規定される危険誘発原因候補ごとに行う。ステップS36およびS37における具体的な処理を図6に示すフローチャートを用いて説明する。
図6に示すように、視認対象候補群と危険誘発原因候補群との関連性の照合においては、まず、一文のまとまりで規定される危険誘発原因候補内に「物体を表す単語」が存在するか否かを確認する(ステップS101)。そして、「物体を表す単語」が存在する場合(yes)には、「物体を表す単語」またはその同義語が視認対象候補と一致するか否かを確認する(ステップS102)。なお、「物体を表す単語」が存在しない場合(no)には、ステップS112に移行する。
ステップS102において、「物体を表す単語」またはその同義語が視認対象候補と一致する場合(yes)には、一致する視認対象候補に紐付け(結び付け)を行い(ステップS103)、ステップS104に移行する。一方、「物体を表す単語」またはその同義語が視認対象候補と一致しない場合(no)には、その危険誘発原因候補の一文には点数付けをせず(ステップS115)、ステップS107に移行する。
ステップS112では、視認対象候補群から形、大きさ、色などに基づいて視認対象候補を選択し「物体の様子を表す単語」と性質が一致するか否かを確認する。そして、「物体の様子を表す単語」と性質が一致する場合(yes)には、一致する視認対象候補に紐付けを行い(ステップS113)、ステップS104に移行する。一方、「物体の様子を表す単語」と性質が一致しない場合(no)には、その危険誘発原因候補の一文には点数付けをせず(ステップS114)、ステップS107に移行する。
ステップS104では、危険誘発原因候補内に「危険度を表す単語」が存在するか否かを確認する。「危険度を表す単語」が存在する場合(yes)にはステップS108に移行し、紐付けされた視認対象候補の関連度に10点を加算し、ステップS105に移行する。一方、「危険度を表す単語」が存在しない場合(no)にはステップS105に移行する。
ステップS105では、危険誘発原因候補内に「物体を表す単語」が存在するか否かを確認する。「物体を表す単語」が存在する場合(yes)にはステップS109に移行し、紐付けされた視認対象候補の関連度に5点を加算し、ステップS106に移行する。一方、「物体を表す単語」が存在しない場合(no)にはステップS106に移行する。
ステップS106では、危険誘発原因候補内に「物体の様子を表す単語」が存在するか否かを確認する。「物体の様子を表す単語」が存在する場合(yes)にはステップS110に移行し、紐付けされた視認対象候補の関連度に1点を加算し、ステップS107に移行する。一方、「物体の様子を表す単語」が存在しない場合(no)にはステップS107に移行する。
ステップS107では、照合処理を行っていない未処理の危険誘発原因候補が存在するか否かを確認する。未処理の危険誘発原因候補が存在する場合(yes)にはステップS101以下の処理を繰り返し、未処理の危険誘発原因候補が存在しない場合(no)にはステップS111に移行する。
なお、上記では、危険誘発原因候補が複数あるものとして説明した。しかし、危険誘発原因候補が1つしかなく、当該危険誘発原因候補がステップS103またはS113で視認対象候補に紐付けされた場合は、それだけで危険誘発原因候補と視認対象候補との関連があるとすることができ、危険誘発原因を特定することができる。
ステップS104〜S111は、危険誘発原因候補が複数ある場合に必要なステップと言うことができ、危険誘発原因候補が複数ある場合に対応できる。
図7は、上述した照合処理に従った場合の関連度の算出の例を示す図である。図7に示すように、「猫が」、「小さすぎて」、「見えなかった」と言う危険誘発原因候補Aがある場合に、「猫」が視認対象候補群にある場合について、関連度の算出方法を説明する。「猫」という視認対象候補には、「物体を表す単語」である「猫が」により5点が加算され、「物体の様子を表す単語」である「小さすぎて」により1点が加算され、「危険度を表す単語」である「見えなかった」により10点が加算される。つまり、危険誘発原因候補Aと視認対象候補の「猫」との関連度は16点となる。
なお、「小さすぎて」、「見えなかった」と言う危険誘発原因候補Cは、「小さすぎて」に1点が加算され、「見えなかった」に10点が加算されて11点となる。この場合「猫」を言い換える言葉として用いられる「小さい」が含まれているので、危険誘発原因候補Cは視認対象候補の「猫」に紐付けされる。
また、「小さくて」、「かわいい」と言う危険誘発原因候補Dは、「小さくて」に1点が加算されて1点となる。この場合、「猫」を言い換える言葉として用いられる「小さい」が含まれているので、危険誘発原因候補Dは視認対象候補の「猫」に紐付けされる。
従って危険誘発原因候補A、CおよびDと視認対象候補の「猫」との関連度は合計で28点となる。
なお、「明日」、「車で」、「でかける」と言う危険誘発原因候補Bは、「物体を表す単語」である「車で」により5点が加算されて5点となる。そして、視認対象候補群には「車」があるので、危険誘発原因候補Bと視認対象候補の「車」との関連度は5点となる。視認対象候補の「自転車」は、危険誘発原因候補群に関連する単語がないので、関連度は0点である。
そして、ステップS111では、各危険誘発原因候補の中で、視認対象候補との関連度の点数が最も高いものを危険誘発原因として特定する。例えば、視認対象候補の「猫」に紐付けされた危険誘発原因候補A、CおよびDのうち、視認対象候補の「猫」との関連度の点数が最も高いものは危険誘発原因候補Aである。そのうちの「物体を表す単語」である「猫」が危険誘発原因として特定され、最終的に危険誘発原因出力部108によって出力される危険誘発原因は「猫」となる。
なお、上記のように視認対象候補群と危険誘発原因候補群の関連度を逐次算出しても良いが、予め関連度の高い視認対象と危険誘発原因の組み合わせを設定しておき、一致する組み合わせを選出する方法でも良い。例えば、組み合わせの設定方法としては、視認対象が「猫」である場合、「猫」を言い換える単語として用いられる、「小さい」、「ふわふわ」、「毛」、「耳」、「白」、「黒」、「尻尾」など、大きさ、色、形などを表す単語と組み合わせる。また、視認対象が「車」であれば、「黒」、「大型」、「ワゴン」、「ボンネット」、「軽」、「オープン」、「ぶーぶー」など、大きさ、色、形などを表す単語と組み合わせる。例えば、「猫」が視認対象候補群にある場合に、危険誘発原因候補内に「毛」と言う単語があれば、関連度が高いとして「毛」すなわち「猫」が危険誘発原因として特定する。
ここで、危険誘発原因出力部108から出力される情報の提供先は、主として他車両の運転者、同乗者であり、例えばクラウドサーバを経由して、スマートフォンおよび他車両に搭載されたカーナビゲーションシステム等とすることができる。また、情報の提供先を自車両上に存在するシステムとし、出力結果を所定の記憶装置に記憶しても良い。
情報の提供先の例として、他車両の運転者等に提供される場合には、「自転車の飛び出しが多く発生しています」、「猛犬にご注意ください」などのように注意を喚起する表示が、例えばカーナビゲーションシステムの画面に表示される。
また、情報の提供先を自車両とする場合には、「本日のヒヤリ・ハット情報(猫が原因のヒヤリハット)」を運転終了時にカーナビゲーションシステムの画面に表示する、もしくは運転者のスマートフォン上に表示する。それにより、運転の振り返りができ、運転技術の向上に利用できる。
また、クラウドサーバなどに情報を出力し、その他の複数車両の情報とを組み合わせることで、「ヒヤリ・ハット」情報を詳細に解析し、原因の除去、運転者への運転指導で「ヒヤリ・ハット」の件数を減らし、交通事故の予防に使用できる。
以上説明したように、本発明に係る実施の形態1の危険情報収集装置100によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。
<実施の形態2>
図8は本発明に係る実施の形態2の危険情報収集装置200の構成を示す機能ブロック図である。図8に示す危険情報収集装置200は、図1に示した実施の形態1の危険情報収集装置100の構成に加えて、危険連想情報データベース105を備えている。なお、図8においては、図1を用いて説明した危険情報収集装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
危険連想情報データベース105は、同乗者情報ごとに危険を連想させる情報を保存している。すなわち、同乗者情報が同乗者が発した言葉の場合には、危険を連想させる単語が保存されている。危険を連想させる単語の例として、「見えなかった」、「危ない」、「ぎりぎり」などが挙げられる。また、同乗者情報が同乗者が指し示した物体の情報の場合には、危険を連想させる物体の例として、「自転車」、「歩行者」、「車」、「電柱」、「犬」などが挙げられる。
危険誘発原因候補設定部106は、同乗者情報を解析し、危険誘発原因候補群を設定する処理は実施の形態1と同じであるが、同乗者情報の解析結果と危険連想情報データベース105に保存される危険を連想させる情報を照合する処理が加わっている。
ここで、図9に示すフローチャートを用いて、同乗者情報取得部104および危険誘発原因候補設定部106での処理を説明する。
同乗者情報取得部104において同乗者情報を取得し(ステップS41)、当該同乗者情報は危険誘発原因候補設定部106に与えられ、危険誘発原因候補設定部106において同乗者情報を解析する(ステップS42)。
同乗者が発声した音声の解析としては、音声認識を用いて、音声を単語単位に分割する処理を行う。同乗者が指し示した物体の解析としては、同乗者の動作または、顔の向きまたは体の向きの情報を用いて、指し示した方向に存在する物体を特定する。
そして、ステップS42で得られた同乗者情報の解析結果と危険連想情報データベース105に保存される危険を連想させる情報との照合を行う(ステップS43)。ステップS43では、例えば、同乗者が発した言葉の場合に、「自転車が」「見えなかった」「明日」という情報が含まれているとステップS42で解析され、危険連想情報データベース105内に「見えなかった」という単語が保存されている場合は、「見えなかった」と言う単語の関連度が高いと判定する。そして、「見えなかった」という単語と、その前後に発生した「自転車が」、「明日」という単語を危険誘発原因候補とする(ステップS44)。
危険連想情報データベース105には、危険状態発生時に車両の搭乗者間での会話に発生しやすい「見えなかった」などの単語が含まれているため、無駄な情報が危険誘発原因候補として含まれることを抑制し、情報の絞り込みを行うことができる。例えば、ステップS42での解析結果に、「自転車が飛び出してきた」、「猫を飼いたい」、「おなかがすいた」などの情報があった場合に、危険連想情報データベース105との照合を行わない場合は、「自転車」、「飛び出してきた」、「猫」、「飼いたい」、「おなか」、「すいた」という単語を危険誘発原因候補とする。しかし、危険連想情報データベース105に「飛び出してきた」という単語が含まれている場合には、「飛び出してきた」と言う単語の関連度が高いと判定し、「自転車」、「飛び出してきた」、「猫」という単語のみを危険誘発原因候補群とすることができる。危険連想情報データベース105は、予想される単語を予め所定の記憶装置に保存してデータベースとする。危険情報収集装置200の動作に伴って危険誘発原因候補設定部106で取得された危険誘発原因候補の情報をデータベースに追加することでデータベースを充実させるようにしても良い。
危険誘発原因特定部107は、視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報を用いて危険誘発原因を特定する。危険誘発原因出力部108は、危険誘発原因特定部107で特定された危険誘発原因を外部に出力する。
次に、図10に示すフローチャートを用いて走行情報取得部101、危険状態度算出部102および危険誘発原因特定部107での処理を説明する。
走行情報取得部101において車両の走行時の走行情報を取得し(ステップS51)、危険状態度算出部102に出力する。
危険状態度算出部102は、走行情報取得部101から出力される走行情報に基づいて、自車両の走行状態が危険な状態かどうかの指標となる危険状態度を算出し(ステップS52)、危険誘発原因特定部107に出力する。
危険誘発原因特定部107は、危険状態度算出部102で算出された危険状態度と予め定めた閾値との比較を行う(ステップS53)。危険状態度が閾値未満の場合(no)は、ステップS31以下の処理を繰り返すように走行情報取得部101および危険状態度算出部102を制御する。危険状態度が閾値以上の場合(yes)には自車両の走行状態が危険な状態であると判断し、ステップS54に移行する。なお、閾値の設定方法は実施の形態1と同じである。
次に、危険誘発原因特定部107は、危険状態度が閾値以上となった時間の前後における視認対象群の情報を視認対象特定部103から取得する(ステップS54)。
次に、危険誘発原因特定部107は、危険誘発原因候補設定部106から車の起動後からこの処理を開始するまでに取得した危険誘発原因候補を全て取得する(ステップS55)。このように、時間による絞り込みを行わず、危険誘発原因候補の全てを取得することで、危険状態が発生した時点と危険誘発原因に関する情報が同乗者から得られた時点とが離れている状況、すなわち時間差がある場合でも視認対象候補と危険誘発原因候補を結び付けることが可能となる。例えば、危険状態が発生してしばらくたった後、走行を終了する時に、同乗者が危険状態に関して「さっきの猫の飛び出し、危なかったね」などと発言をした場合にでも視認対象候補と危険誘発原因候補を結び付けることが可能となる。
次に、危険誘発原因特定部107は、視認対象候補群と危険誘発原因候補群との関連性を照合する(ステップS56)。照合に際しては、関連性が最も高い候補を危険誘発原因とする。
関連性は物体の大きさまたは色、形、単語の意味の何れかの情報を用いて関連度として数値化する。例えば、危険誘発原因候補を「危険度を表す単語」、「物体を表す単語」および「物体の様子を表す単語」ごとに関連度の点数を設定し、その関連度の点数が最も高いものを危険誘発原因とする(ステップS57)。
例えば、「危険度を表す単語」として、「危ない」、「危険」などの危険を表す単語と、「見えなかった」、「飛び出してきた」、「横切った」などの危険行動を連想させる単語を定義する。また、「物体を表す単語」として、「猫」、「自転車」などの名詞を定義する。また、「物体の様子を表す単語」として、「小さい」、「白い」などの物体の形、大きさ、色などを表す単語を定義する。
そして、「危険度を表す単語」の点数を10点、「物体を表す単語」を5点、「物体の様子を表す単語」を1点として視認対象候補への点数付けを行う。点数付けは危険誘発原因候補の一文のまとまりごとに行う。なお、ステップS56およびS57における具体的な処理は、図6を用いて説明した処理と同じである。
ステップS57で特定された危険誘発原因は、危険誘発原因出力部108によって外部に出力される。危険誘発原因出力部108から出力される情報の提供先は、主として他車両の運転者、同乗者であり、例えばクラウドサーバを経由して、スマートフォンおよび他車両に搭載されたカーナビゲーションシステム等とすることができる。また、情報の提供先を自車両上に存在するシステムとし、出力結果を所定の記憶装置に記憶しても良い。
以上説明したように、本発明に係る実施の形態2の危険情報収集装置200によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。また、危険情報収集装置200は、危険連想情報データベース105を備える。同乗者情報の解析結果と危険連想情報データベース105に保存される危険を連想させる情報との照合を行うことで、無駄な情報が危険誘発原因候補として含まれることを抑制し、情報の絞り込みを行うことができる。このため、危険誘発原因候補の取得に費やす時間を短くできる。
<実施の形態3>
図11は本発明に係る実施の形態3の危険情報収集装置300の構成を示す機能ブロック図である。図11に示す危険情報収集装置300は、図8に示した実施の形態2の危険情報収集装置200の構成に加えて、自車両の位置を取得する位置情報データ取得部109を備えている。なお、図11においては、図8を用いて説明した危険情報収集装置200と同一の構成については同一の符号を付し、重複する説明は省略する。なお、実施の形態1の危険情報収集装置100の構成に加えて、自車両の位置を取得する位置情報データ取得部109を備えた構成としても良い。
位置情報データ取得部109は、自車両の位置を取得するためにGPS(Global Positioning System)などの測位システムを用いる。
図11に示されるように、位置情報データ取得部109で取得された自車両の位置情報は危険誘発原因出力部108に出力される。危険誘発原因出力部108は、危険誘発原因特定部107で特定した危険誘発原因と、危険状態が発生した時点の自車両の位置情報とを出力する。なお、危険状態が発生した時点は危険状態度算出部102において算出された危険状態度が閾値以上となった時間とする。
危険誘発原因出力部108から出力される情報の提供先は、主として他車両の運転者、同乗者であり、例えばクラウドサーバを経由して、スマートフォンおよび他車両に搭載されたカーナビゲーションシステム等とすることができる。また、情報の提供先を自車両上に存在するシステムとし、出力結果を所定の記憶装置に記憶しても良い。
以上説明したように、本発明に係る実施の形態3の危険情報収集装置300によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。また、危険情報収集装置300は、危険連想情報データベース105を備え、同乗者情報の解析結果と危険連想情報データベース105に保存される危険を連想させる情報との照合を行う。これにより、無駄な情報が危険誘発原因候補として含まれることを抑制し、情報の絞り込みを行うことができる。そのため、危険誘発原因候補の取得に費やす時間を短できる。また、危険情報収集装置300は、危険状態が発生した時点の自車両の位置情報を出力するので、危険状態に関するより詳細な情報を提供することができる。例えば、自車両が遭遇した危険状態が発生した位置に近づく他車両が危険を回避するなどの措置が取りやすくなる。
<実施の形態4>
図12は本発明に係る実施の形態4の危険情報収集装置400の構成を示す機能ブロック図である。図12に示す危険情報収集装置400は、図11に示した実施の形態3の危険情報収集装置300の構成に加えて、危険状態が発生した場所の周辺情報を収集する周辺情報収集部110を備えている。なお、図12においては、図11を用いて説明した危険情報収集装置300と同一の構成については同一の符号を付し、重複する説明は省略する。なお、実施の形態1の危険情報収集装置100の構成または実施の形態2の危険情報収集装置200の構成に加えて、自車両の位置を取得する位置情報データ取得部109を備えた構成としても良い。
図12に示されるように、周辺情報収集部110で収集された危険状態が発生した場所の周辺情報は、危険誘発原因出力部108に出力される。危険誘発原因出力部108は、危険誘発原因出力部108は、危険誘発原因特定部107で特定した危険誘発原因と、危険状態が発生した時点の自車両の位置情報と、周辺情報収集部110で収集された危険状態が発生した場所の周辺情報とを出力する。
周辺情報とは、時間、天候、車の密集度、人の密集度など、自車両の周辺から得られる情報である。周辺の範囲は、車の密集度については、例えば自車両を中心とする半径で規定し、半径1km、3km、5kmの中から選択するようにすれば良い。人の密集度については、例えば自車両を中心とする半径で規定し、半径100m、300m、500mの中から選択するようにすれば良い。
周辺情報の内、人の密集度は、インターネットを利用してクラウドサービスなどから収集することができる。例えば、無料アプリを提供しているインターネットサービス会社が、そのアプリの利用状況から取得した混雑度の情報を公開しているホームページから自車両が位置している場所の情報を収集することができる。車の密集度についても、インターネット上の渋滞情報サービスのホームページから収集することができる。また、時間、天候などもインターネット上のホームページから収集することができる。
また、人の密集度は、自車両に搭載され車両の外部を撮影するカメラまたは自車両の近傍の街頭カメラのような車外に設置されたカメラで撮影された映像を利用して、画像認識により人間を認識し、所定範囲内の人数を当該所定範囲の面積で割ることで求めても良い。車外に設置されたカメラで撮影された映像を利用する場合、車外に設置したカメラと危険情報収集装置400との間で直接に通信する、もしくは、クラウドサーバを経由することで、車外に設置したカメラから危険情報収集装置400に映像を送信することで、車外に設置したカメラで撮影された映像を利用することが可能となる。
危険誘発原因出力部108から出力される情報の提供先は、主として他車両の運転者、同乗者であり、例えばクラウドサーバを経由して、スマートフォンおよび他車両に搭載されたカーナビゲーションシステム等とすることができる。また、情報の提供先を自車両上に存在するシステムとし、出力結果を所定の記憶装置に記憶しても良い。
以上説明したように、本発明に係る実施の形態4の危険情報収集装置400によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。また、危険情報収集装置400は、危険連想情報データベース105を備え、同乗者情報の解析結果と危険連想情報データベース105に保存される危険を連想させる情報との照合を行う。これにより、無駄な情報が危険誘発原因候補として含まれることを抑制し、情報の絞り込みを行うことができるので、危険誘発原因候補の取得に費やす時間を短できる。また、危険情報収集装置400は、危険状態が発生した時点の自車両の位置情報および危険状態が発生した場所の周辺情報を出力するので、危険状態に関するより詳細な情報を提供することができる。これにより、例えば、自車両が遭遇した危険状態が発生した位置に近づく他車両が危険を回避するなどの措置が取りやすくなり、また、周辺情報に基づいて渋滞を回避するなどの措置が取りやすくなる。
<実施の形態5>
図13は本発明に係る実施の形態5の危険情報収集装置500の構成を示す機能ブロック図である。図13に示す危険情報収集装置500は、図12に示した実施の形態4の危険情報収集装置400の構成に加えて、過去に発生した危険誘発原因と位置情報を登録した危険情報データベース111を備えている。なお、図15においては、図12を用いて説明した危険情報収集装置400と同一の構成については同一の符号を付し、重複する説明は省略する。
図13に示されるように、危険情報データベース111に蓄積された過去の危険情報は、危険誘発原因特定部107に出力される。危険誘発原因特定部107は視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報と、位置情報データ収集部109から出力される現在地情報と、危険情報データベース111から出力される過去の危険情報とを用いて危険誘発原因を特定し、危険誘発原因出力部108に出力する。
危険情報データベース111には、過去の危険誘発原因とその地点の位置情報、時刻情報が記録されている。なお、車両IDを記憶しても良い。車両IDとは車両を識別するための識別情報であり、例えば製造番号などを車両IDとしても良い。図14に危険情報データベース111に記録された過去の危険情報の一例を示す。
危険情報データベース111には、危険誘発原因出力部108から危険誘発原因と位置情報が入力され、危険情報データベース111に格納される。なお、危険誘発情報データベース111には危険情報収集装置500の出荷時に、過去に蓄積した危険情報を格納しておいても良い。
図14においては、危険誘発原因として、猫および自転車を記録しており、猫および自転車と遭遇した車両の車両IDと、当該車両が猫および自転車に遭遇した地点の位置情報としての緯度、経度情報を、遭遇した時刻情報と共に記録している。
図15は、危険情報収集装置500の動作を説明するフローチャートであり、ステップS61〜S65の処理は、図10に示したフローチャートのステップS51〜S55の処理と同じであり、危険誘発原因特定部107において、視認対象候補群と危険誘発原因候補の関連度を算出する処理は実施の形態4と同じである。しかし、ステップS66で関連度を数値として算出した後に危険情報データベース111に保存される過去の統計情報である危険誘発原因と位置情報に基づいて、関連度に数値を加算するステップS67の重み付け処理が加わっている。
図14に示したように、危険情報データベース111には、過去の危険誘発原因とその地点の位置情報が記録されている。危険誘発原因特定部107では、視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報から、視認対象候補群と危険誘発原因候補群との関連性を照合する(ステップS66)。
関連性の照合後、位置情報データ取得部109から出力される位置情報を基に、危険状態度算出部102から算出される危険状態度が閾値以上となった時点における位置情報と、その周辺に紐付けられた危険誘発原因が存在するか否かを、危険情報データベース111に保存されている情報を検索して確認する。なお、上記周辺の範囲は、例えば自車両を中心とする半径で規定し、半径300m、500m、1kmの中から選択するようにすれば良い。
そして、該当する危険誘発原因が存在する場合にはその情報を取得する。取得した過去の危険誘発原因と危険誘発原因候補を照合し、一致する場合には、一致する危険誘発原因候補の関連度に点数を加算する(ステップS67)。例えば、取得した過去の危険誘発原因に「猫」が存在した場合、危険誘発原因候補に「猫」が存在すれば危険誘発原因候補の「猫」の関連度に点数を加算する。
危険誘発原因特定部107においては、重み付けされた関連度も含め、関連度の点数が最も高いものを危険誘発原因とする(ステップS68)。
以上説明したように、本発明に係る実施の形態5の危険情報収集装置500によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。また、危険情報収集装置500は、危険情報データベース111を備え、位置情報に基づいた過去の危険誘発原因の情報を使用する。これにより、地理特性など、特定の地点において発生しやすい危険誘発原因の情報を関連性の照合に加えることができるので、危険誘発原因特定の精度を上げることができる。
<変形例>
位置情報データ取得部109および危険情報データベース111は、実施の形態1の危険情報収集装置100または実施の形態2の危険情報収集装置200に加えることで、危険誘発原因特定の精度を上げることができる。
すなわち、図16に示す危険情報収集装置100Aにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、位置情報データ収集部109から出力される現在地情報と危険情報データベース111から出力される過去の危険情報が入力される構成となっている。
また、図17に示す危険情報収集装置200Aにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、位置情報データ収集部109から出力される現在地情報と危険情報データベース111から出力される過去の危険情報が入力される構成となっている。
また、実施の形態3の危険情報収集装置300に危険情報データベース111を加えることで、危険誘発原因特定の精度を上げることができる。
すなわち、図18に示す危険情報収集装置300Aにおいては、位置情報データ取得部109で取得された自車両の位置情報が、危険誘発原因出力部108ではなく危険誘発原因特定部107に入力され、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、位置情報データ収集部109から出力される現在地情報と危険情報データベース111から出力される過去の危険情報が入力される構成となっている。
なお、図16、図17および図18においては、図1、図8および図11を用いて説明した危険情報収集装置100〜300と同一の構成については同一の符号を付し、重複する説明は省略する。
<実施の形態6>
図19は本発明に係る実施の形態6の危険情報収集装置600の構成を示す機能ブロック図である。図19に示す危険情報収集装置600は、図13に示した実施の形態5の危険情報収集装置500の構成に加えて、他車両に関する危険誘発原因情報を取得する他車両情報取得部112を備えている。なお、図19においては、図13を用いて説明した危険情報収集装置500と同一の構成については同一の符号を付し、重複する説明は省略する。
図19に示されるように、他車両情報取得部112によって取得された他車両の危険誘発原因の情報は、危険誘発原因特定部107に出力される。危険誘発原因特定部107は視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報と、位置情報データ取得部109から出力される現在地情報と、危険情報データベース111から出力される過去の危険情報と、他車両情報取得部112から出力される他車両の危険誘発原因とを用いて危険誘発原因を特定し、危険誘発原因出力部108に出力する。
ここで、他車両の危険誘発原因の情報には、他車両で特定した危険誘発原因の名称が該当する。なお、他車両で特定した危険誘発原因が発生した際の位置情報を加えても良い。他車両情報取得部112は他車両の危険誘発原因の情報を他車両に搭載された危険情報収集装置との間で直接に通信して取得しても良く、クラウドサーバを介して取得しても良い。また、他車両情報取得部112から出力される他車両で特定された危険誘発原因とその位置情報を過去の危険情報として、危険情報データベース111に蓄積しても良い。
図20は、危険情報収集装置600の動作を説明するフローチャートであり、ステップS71〜S75の処理は、図10に示したフローチャートのステップS51〜S55の処理と同じであり、危険誘発原因特定部107において、視認対象候補群と危険誘発原因候補の関連度を算出し、ステップS76で関連度を数値として算出した後に、危険情報データベース111に保存される過去の統計情報である危険誘発原因と位置情報に基づいて、関連度に数値を加算するステップS77の重み付け処理は実施の形態5と同じである。しかし、さらに、他車両情報取得部112から出力される他車両の危険誘発原因に基づいて、関連度に加算するステップS78の重み付け処理が加わっている。
他車両情報取得部112では、自車両の周辺に存在する他車両からその車両の危険誘発原因を取得する。危険誘発原因特定部107では、視認対象特定部103から出力される視認対象群の情報と、危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報から、視認対象候補群と危険誘発原因候補群との関連性を照合する(ステップS76)。関連性の照合後、位置情報データ取得部109から出力される位置情報を基に、危険状態度算出部102から算出される危険状態度が閾値以上となった時点における位置情報と、その周辺に紐付けられた危険誘発原因が存在するか否かを、危険情報データベース111に保存されている情報を検索して確認する。
そして、該当する危険誘発原因が存在する場合にはその情報を取得する。取得した過去の危険誘発原因と危険誘発原因候補を照合し、一致する場合には、一致する危険誘発原因候補の関連度に点数を加算する(ステップS77)。
さらに危険誘発原因特定部107では、他車両情報取得部112から出力される自車両の周辺に存在する他車両から危険誘発原因を取得する。取得した他車両の危険誘発原因と危険誘発原因候補を照合し、一致する場合には、一致する危険誘発原因候補の関連度に点数を加算する(ステップS78)。例えば、取得した他車両の危険誘発原因に「猫」が存在した場合、危険誘発原因候補に「猫」が存在すれば危険誘発原因候補の「猫」の関連度に点数を加算する。なお、上記自車両の周辺の範囲は、例えば自車両を中心とする半径で規定し、半径300m、500m、1kmの中から選択するようにすれば良い。
危険誘発原因特定部107においては、重み付けされた関連度も含め、関連度の点数が最も高いものを危険誘発原因とする(ステップS79)。
以上説明したように、本発明に係る実施の形態6の危険情報収集装置600によれば、危険を誘発する物体を具体的に特定することができる。そのため、危険箇所を特定する機能の他に、その危険を誘発した原因を特定でき、何による危険なのかという情報をユーザに提供できる。また、危険情報収集装置600は、他車両情報取得部112を備え、自車両の周辺に存在する他車両の危険誘発原因の情報を使用することで、危険誘発原因特定の精度をさらに上げることができる。
<変形例>
他車両情報取得部112は、実施の形態1〜4の危険情報収集装置100〜400に加えることで、危険誘発原因特定の精度を上げることができる。
すなわち、図21に示す危険情報収集装置100Bにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、他車両情報取得部112から出力される他車両の危険誘発原因の情報が入力される構成となっている。
また、図22に示す危険情報収集装置200Bにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、他車両情報取得部112から出力される他車両の危険誘発原因の情報が入力される構成となっている。
また、図23に示す危険情報収集装置300Bにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、他車両情報取得部112から出力される他車両の危険誘発原因の情報が入力される構成となっている。
また、図24に示す危険情報収集装置400Bにおいては、危険誘発原因特定部107には、視認対象特定部103から出力される視認対象群の情報および危険誘発原因候補設定部106から出力される危険誘発原因候補群の情報に加えて、他車両情報取得部112から出力される他車両の危険誘発原因の情報が入力される構成となっている。
なお、図21〜図24においては、図1、図8、図11および図12を用いて説明した危険情報収集装置100〜400と同一の構成については同一の符号を付し、重複する説明は省略する。
以上説明した危険情報収集装置100〜600、100A〜300Aおよび100B〜300Bの主たる構成はコンピュータを用いて構成することができ、これらの各構成はコンピュータがプログラムを実行することで実現される。例えば、図1に示した危険情報収集装置100の走行情報取得部101、危険状態度算出部102、視認対象特定部103、同乗者情報取得部104、危険誘発原因候補設定部106、危険誘発原因特定部107および危険誘発原因出力部108は、例えば図25に示す処理回路10により実現される。処理回路10には、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などのプロセッサが適用され、記憶装置に格納されるプログラムを実行することで上記各構成の機能が実現される。
なお、処理回路10には、専用のハードウェアが適用されても良い。処理回路10が専用のハードウェアである場合、処理回路10は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)またはこれらを組み合わせたものなどが該当する。
また、図26には、一例として、図1に示した危険情報収集装置100の各構成がプロセッサを用いて構成されている場合におけるハードウェア構成を示している。この場合、危険情報収集装置100の各構成の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリ12に格納される。処理回路10として機能するプロセッサ11は、メモリ12(記憶装置)に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。
この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。

Claims (10)

  1. 車両に搭載され、前記車両の走行に危険な情報を収集する危険情報収集装置であって、
    前記車両の走行状態を示す走行情報を取得する走行情報取得部と、
    前記走行情報取得部で取得した前記走行情報に基づいて前記車両の走行状態が危険状態かどうかの指標となる危険状態度を算出する危険状態度算出部と、
    前記車両の運転者の視点情報と前記車両の周辺の物体情報を組み合わせて前記運転者の視認対象を特定して視認対象候補とする視認対象特定部と
    乗者が発した言葉を含む同乗者情報を取得する同乗者情報取得部と、
    前記同乗者情報取得部で取得された前記同乗者情報に基づいて、危険を誘発した危険誘発原因を特定するための危険誘発原因候補を設定する危険誘発原因候補設定部と、
    前記危険状態度算出部で算出された前記危険状態度、前記視認対象特定部で特定された前記視認対象候補および前記危険誘発原因候補設定部で設定された前記危険誘発原因候補に基づいて前記危険誘発原因を特定する危険誘発原因特定部と、を備え、
    前記危険誘発原因特定部は、
    前記危険状態度が閾値以上となった場合に、前記視認対象候補と前記危険誘発原因候補との関連性を照合し、前記視認対象候補と前記危険誘発原因候補とが関連する場合には、前記危険誘発原因候補を前記危険誘発原因として特定し、
    前記危険誘発原因候補設定部は、
    前記同乗者が発した言葉を音声解析し、前記言葉を単語単位に分割し、分割された複数の単語を一まとまりとして前記危険誘発原因候補として設定する、危険情報収集装置。
  2. 前記同乗者情報は、前記同乗者の動作の映像情報を含み、
    前記危険誘発原因候補設定部は、
    前記同乗者の動作を映像解析し、前記同乗者の動作が前記車両の外部の物体を特定する動作である場合は、前記物体を特定して前記物体の名称の単語を前記危険誘発原因候補に加える、請求項1記載の危険情報収集装置。
  3. 前記走行情報は、
    速度、ブレーキ操作の有無、加速度および操舵角の情報を含み、
    前記危険状態度算出部は、
    前記速度、前記ブレーキ操作の有無、前記加速度および前記操舵角の情報の組み合わせによって多段階の数値で前記危険状態度を設定する、請求項記載の危険情報収集装置。
  4. 前記危険誘発原因特定部は、
    前記視認対象候補と前記危険誘発原因候補との関連性の照合においては、前記危険誘発原因候補内の物体を表す単語または前記物体の様子を表す単語と前記視認対象候補とが一致する場合には、前記視認対象候補と前記危険誘発原因候補とを結び付け、前記危険誘発原因候補を前記危険誘発原因として特定する、請求項記載の危険情報収集装置。
  5. 前記危険誘発原因特定部は、
    前記視認対象候補と前記危険誘発原因候補との関連性の照合においては、前記危険誘発原因候補内の物体を表す単語または前記物体の様子を表す単語と前記視認対象候補とが一致する場合には、前記視認対象候補と前記危険誘発原因候補とを結び付け、
    前記危険誘発原因候補が複数存在する場合には、
    前記危険誘発原因候補内の単語のそれぞれを、前記物体を表す単語、前記物体の様子を表す単語および危険度を表す単語に分類し、分類ごとに予め定めた点数を関連度の指標としてそれぞれの前記単語に付与し、前記点数の合計を前記危険誘発原因候補ごとに算出し、前記点数の合計が最も高い前記危険誘発原因候補を前記危険誘発原因として特定する、請求項記載の危険情報収集装置。
  6. 危険を連想させる情報を保存した危険連想情報データベースをさらに備え、
    前記危険誘発原因候補設定部は、
    前記危険誘発原因候補の設定に際して、前記危険を連想させる情報を用いて前記同乗者情報の絞り込みを行い、
    前記危険を連想させる情報は、危険を連想させる単語を含み、
    前記同乗者情報の絞り込みに際しては、
    前記危険誘発原因候補内の複数の単語に、前記危険連想情報データベース内の前記危険を連想させる単語が含まれている場合は、前記危険誘発原因候補内の該当する単語と、前記単語の前後の単語を前記危険誘発原因候補として設定する、請求項記載の危険情報収集装置。
  7. 車両に搭載され、前記車両の走行に危険な情報を収集する危険情報収集装置であって、
    前記車両の走行状態を示す走行情報を取得する走行情報取得部と、
    前記走行情報取得部で取得した前記走行情報に基づいて前記車両の走行状態が危険状態かどうかの指標となる危険状態度を算出する危険状態度算出部と、
    前記車両の運転者の視点情報と前記車両の周辺の物体情報を組み合わせて前記運転者の視認対象を特定して視認対象候補とする視認対象特定部と、
    同乗者が発した言葉を含む同乗者情報を取得する同乗者情報取得部と、
    前記同乗者情報取得部で取得された前記同乗者情報に基づいて、危険を誘発した危険誘発原因を特定するための危険誘発原因候補を設定する危険誘発原因候補設定部と、
    前記危険状態度算出部で算出された前記危険状態度、前記視認対象特定部で特定された前記視認対象候補および前記危険誘発原因候補設定部で設定された前記危険誘発原因候補に基づいて前記危険誘発原因を特定する危険誘発原因特定部と、
    前記車両の位置情報を取得する位置情報データ取得部と、を備え、
    前記危険誘発原因特定部は、
    前記危険状態度が閾値以上となった場合に、前記視認対象候補と前記危険誘発原因候補との関連性を照合し、前記視認対象候補と前記危険誘発原因候補とが関連する場合には、前記危険誘発原因候補を前記危険誘発原因として特定し、
    特定された前記危険誘発原因と共に、前記危険状態が発生した時点の前記位置情報データ取得部から出力される前記車両の位置情報を出力する、危険情報収集装置。
  8. 車両に搭載され、前記車両の走行に危険な情報を収集する危険情報収集装置であって、
    前記車両の走行状態を示す走行情報を取得する走行情報取得部と、
    前記走行情報取得部で取得した前記走行情報に基づいて前記車両の走行状態が危険状態かどうかの指標となる危険状態度を算出する危険状態度算出部と、
    前記車両の運転者の視点情報と前記車両の周辺の物体情報を組み合わせて前記運転者の視認対象を特定して視認対象候補とする視認対象特定部と、
    同乗者が発した言葉を含む同乗者情報を取得する同乗者情報取得部と、
    前記同乗者情報取得部で取得された前記同乗者情報に基づいて、危険を誘発した危険誘発原因を特定するための危険誘発原因候補を設定する危険誘発原因候補設定部と、
    前記危険状態度算出部で算出された前記危険状態度、前記視認対象特定部で特定された前記視認対象候補および前記危険誘発原因候補設定部で設定された前記危険誘発原因候補に基づいて前記危険誘発原因を特定する危険誘発原因特定部と、
    前記車両の周辺の車の密集度および人の密集度を含む周辺情報を収集する周辺情報収集部と、を備え、
    前記危険誘発原因特定部は、
    前記危険状態度が閾値以上となった場合に、前記視認対象候補と前記危険誘発原因候補との関連性を照合し、前記視認対象候補と前記危険誘発原因候補とが関連する場合には、前記危険誘発原因候補を前記危険誘発原因として特定し、
    特定された前記危険誘発原因と共に、前記危険状態が発生した場所の前記周辺情報収集部から出力される周辺情報を出力する、危険情報収集装置。
  9. 過去の危険誘発原因と前記過去の危険誘発原因の位置情報を保存する危険情報データベースと、
    前記車両の位置情報を取得する位置情報データ取得部と、をさらに備え、
    前記危険誘発原因特定部は、
    前記視認対象候補と前記危険誘発原因候補との関連性の照合において、
    前記危険状態度が閾値以上となった時点における前記位置情報データ取得部から出力される前記車両の位置情報と関連する前記過去の危険誘発原因が前記危険情報データベースに存在し、前記過去の危険誘発原因と前記危険誘発原因候補とが一致する場合には、一致する前記危険誘発原因候補の関連度に重み付けする、請求項記載の危険情報収集装置。
  10. 他車両の危険誘発原因を取得する他車両情報取得部をさらに備え、
    前記危険誘発原因特定部は、
    前記視認対象候補と前記危険誘発原因候補との関連性の照合において
    前記危険状態度が閾値以上となった時点における前記位置情報データ取得部から出力される前記車両の位置情報と関連する前記他車両情報取得部で取得した前記他車両の前記危険誘発原因と、前記危険誘発原因候補とが一致する場合には、一致する前記危険誘発原因候補の関連度に重み付けする、請求項記載の危険情報収集装置。
JP2018544375A 2017-06-22 2018-04-13 危険情報収集装置 Active JP6448880B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017121910 2017-06-22
JP2017121910 2017-06-22
PCT/JP2018/015515 WO2018235409A1 (ja) 2017-06-22 2018-04-13 危険情報収集装置

Publications (2)

Publication Number Publication Date
JP6448880B1 true JP6448880B1 (ja) 2019-01-09
JPWO2018235409A1 JPWO2018235409A1 (ja) 2019-06-27

Family

ID=64735599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018544375A Active JP6448880B1 (ja) 2017-06-22 2018-04-13 危険情報収集装置

Country Status (5)

Country Link
US (1) US10964137B2 (ja)
JP (1) JP6448880B1 (ja)
CN (1) CN110741424B (ja)
DE (1) DE112018003180T5 (ja)
WO (1) WO2018235409A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082128A (zh) * 2019-05-16 2019-08-02 中国汽车工程研究院股份有限公司 一种面向自然驾驶数据的危险片段采集系统及其方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418189B2 (ja) * 2019-11-21 2024-01-19 日産自動車株式会社 表示画像生成装置及び表示画像生成方法
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11494865B2 (en) * 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
JP7375683B2 (ja) * 2020-06-16 2023-11-08 トヨタ自動車株式会社 情報処理装置、プログラム、及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021177A (ja) * 2006-07-13 2008-01-31 Toyota Central Res & Dev Lab Inc 危険状況判断装置及び危険状況記録装置
JP2011113244A (ja) * 2009-11-26 2011-06-09 Suzuki Motor Corp 運転支援装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3273523D1 (en) * 1982-05-19 1986-11-06 Nissan Motor Speech recognition system for an automotive vehicle
US8140358B1 (en) * 1996-01-29 2012-03-20 Progressive Casualty Insurance Company Vehicle monitoring system
US6639512B1 (en) * 1998-07-15 2003-10-28 Kyu-Woong Lee Environmental warning system
JP3848554B2 (ja) 2001-10-11 2006-11-22 株式会社日立製作所 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
JP4270010B2 (ja) 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置
JP4396597B2 (ja) 2005-08-08 2010-01-13 株式会社デンソー 危険反応地点記録システム及び運転支援システム
US8406457B2 (en) * 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
JP4458072B2 (ja) * 2006-06-28 2010-04-28 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
US8085140B2 (en) * 2006-09-04 2011-12-27 Panasonic Corporation Travel information providing device
DE102009020328A1 (de) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung
US8571786B2 (en) * 2009-06-02 2013-10-29 Toyota Jidosha Kabushiki Kaisha Vehicular peripheral surveillance device
BR112012012635A2 (pt) * 2009-12-18 2016-07-12 Honda Motor Co Ltd sistema e método para fornecer alerta de aviso de acidente em veículo
JP5278461B2 (ja) * 2011-02-03 2013-09-04 株式会社デンソー 視線検出装置および視線検出方法
DE102011076112A1 (de) * 2011-05-19 2012-11-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen eines möglichenKollisionsobjektes
DE102011078615B4 (de) * 2011-07-04 2022-07-14 Toyota Jidosha Kabushiki Kaisha Objekterfassungsvorrichtung und objekterfassungsprogramm
US9852632B2 (en) * 2012-02-10 2017-12-26 Mitsubishi Electric Corporation Driving assistance device and driving assistance method
JP2013191072A (ja) * 2012-03-14 2013-09-26 Hitachi Automotive Systems Ltd 物体検出装置
JP2014089557A (ja) * 2012-10-30 2014-05-15 Micware Co Ltd 車載装置、危険予測方法、およびプログラム
US8954340B2 (en) * 2013-03-15 2015-02-10 State Farm Mutual Automobile Insurance Company Risk evaluation based on vehicle operator behavior
DE102013021797A1 (de) * 2013-12-23 2015-06-25 Hella Kgaa Hueck & Co. Verfahren zur Abgabe eines Warnhinweises auf einen gefährlichen Fahrbahnzustand und Vorrichtung
JP6055865B2 (ja) * 2014-08-04 2016-12-27 富士重工業株式会社 走行環境危険度判定装置および走行環境危険度報知装置
WO2016030934A1 (ja) 2014-08-25 2016-03-03 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
TWI596580B (zh) * 2014-11-26 2017-08-21 Metal Ind Res And Dev Centre Obstacle warning system and its operation method
CN104474715B (zh) * 2014-11-27 2016-07-06 江苏罡阳转向系统有限公司 一种基于语音识别的过山车安全监控方法
DE102015206200A1 (de) * 2015-04-08 2016-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers
US10373500B1 (en) * 2017-09-22 2019-08-06 State Farm Mutual Automobile Insurance Company Technology for using image data to assess vehicular risks and communicate notifications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021177A (ja) * 2006-07-13 2008-01-31 Toyota Central Res & Dev Lab Inc 危険状況判断装置及び危険状況記録装置
JP2011113244A (ja) * 2009-11-26 2011-06-09 Suzuki Motor Corp 運転支援装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082128A (zh) * 2019-05-16 2019-08-02 中国汽车工程研究院股份有限公司 一种面向自然驾驶数据的危险片段采集系统及其方法
CN110082128B (zh) * 2019-05-16 2020-03-31 中国汽车工程研究院股份有限公司 一种面向自然驾驶数据的危险片段采集系统及其方法

Also Published As

Publication number Publication date
CN110741424A (zh) 2020-01-31
US10964137B2 (en) 2021-03-30
US20200118360A1 (en) 2020-04-16
CN110741424B (zh) 2022-02-18
JPWO2018235409A1 (ja) 2019-06-27
WO2018235409A1 (ja) 2018-12-27
DE112018003180T5 (de) 2020-03-12

Similar Documents

Publication Publication Date Title
JP6448880B1 (ja) 危険情報収集装置
US11375338B2 (en) Method for smartphone-based accident detection
US11735037B2 (en) Method and system for determining traffic-related characteristics
US11281944B2 (en) System and method for contextualized vehicle operation determination
US11055544B2 (en) Electronic device and control method thereof
CN111033512B (zh) 用于基于简单的二维平面摄像装置与自主行驶车辆通信的动作控制装置
US9786192B2 (en) Assessing driver readiness for transition between operational modes of an autonomous vehicle
CN102712317B (zh) 使驾驶员与环境感测结合的车辆安全性系统
US10336252B2 (en) Long term driving danger prediction system
JP2021093162A (ja) 走行関連案内サービスを提供する車両用端末装置、サービス提供サーバ、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US20170109947A1 (en) Vehicle operational data acquisition responsive to vehicle occupant voice inputs
KR20210034096A (ko) 자율주행 차량들을 위한 행렬들의 검출 및 그에 대한 대응
CN115195777A (zh) 交通工具数据关联设备及其方法
KR20220036870A (ko) 운전자 보조 시스템(das) 및 고도 자율 주행 기능(had)을 위한 안전 필수 교통 시나리오를 결정하기 위한 방법, 시스템 및 컴퓨터 프로그램 제품
Lin et al. Innovative Framework for Distracted-Driving Alert System Based on Deep Learning
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
US20240046612A1 (en) Fusion-based sensing intelligence and reporting
KR102669237B1 (ko) 네비게이션 시스템과 연동된 후방 디스플레이 장치
JP2023104122A (ja) 情報処理装置、情報処理方法、および、情報処理装置用プログラム
JP2023074407A (ja) 運転診断装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180822

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180822

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R150 Certificate of patent or registration of utility model

Ref document number: 6448880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250