JP2021026554A - 走行支援方法、道路撮影画像収集方法、および路側装置 - Google Patents

走行支援方法、道路撮影画像収集方法、および路側装置 Download PDF

Info

Publication number
JP2021026554A
JP2021026554A JP2019144711A JP2019144711A JP2021026554A JP 2021026554 A JP2021026554 A JP 2021026554A JP 2019144711 A JP2019144711 A JP 2019144711A JP 2019144711 A JP2019144711 A JP 2019144711A JP 2021026554 A JP2021026554 A JP 2021026554A
Authority
JP
Japan
Prior art keywords
vehicle
event
interest
information
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019144711A
Other languages
English (en)
Other versions
JP7445882B2 (ja
Inventor
剛 上野
Takeshi Ueno
剛 上野
慎太郎 村松
Shintaro Muramatsu
慎太郎 村松
中川 洋一
Yoichi Nakagawa
洋一 中川
相原 弘一
Koichi Aihara
弘一 相原
安木 慎
Shin Yasuki
慎 安木
須藤 浩章
Hiroaki Sudo
浩章 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019144711A priority Critical patent/JP7445882B2/ja
Priority to PCT/JP2020/028268 priority patent/WO2021024798A1/ja
Priority to CN202080055211.9A priority patent/CN114175123B/zh
Priority to US17/633,168 priority patent/US20220301427A1/en
Publication of JP2021026554A publication Critical patent/JP2021026554A/ja
Application granted granted Critical
Publication of JP7445882B2 publication Critical patent/JP7445882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】ITS通信の負荷を著しく増大させることなく、注目事象を検知して危険回避動作を行う制御の負荷を軽減して、自動運転車両の走行制御を適切に支援できるようにする。【解決手段】道路の対象区間の通行を終了した車両1に搭載された情報提供元の車載端末4が、対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、対象区間の終点に位置する終点側の路側機6に送信し、終点側の路側機6が、注目事象に関する撮影画像および付加情報を、対象区間の始点に位置する始点側の路側機6に送信し、始点側の路側機6が、注目事象に関する撮影画像および付加情報を、対象区間の通行を開始する車両に搭載された情報提供先の車載端末に送信し、情報提供先の車載端末が、注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う。【選択図】図2

Description

本発明は、車両の走行制御を支援する走行支援方法、道路の撮影画像を収集する道路撮影画像収集方法、および車両の走行制御を支援し、または道路の撮影画像を収集する路側装置に関するものである。
近年、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムが実用化されている。また、近年、自動運転車の走行を支援する自動走行システムの実用化に向けた検討が進められており、特に自動走行システムにITS通信を適用するための検討も行われている。このような自動走行システムにITS通信を適用し、車両同士の通信(車車間通信)や、道路に設置された路側機と車両との間の通信(路車間通信)を利用して、道路状況などの様々な情報を交換することで、自動運転車両の走行制御を支援することができる。
このような道路状況などの情報の交換により自動運転車両の走行制御を支援することに関連するものとして、ユーザが場所を指定すると、その場所を走行している車両に搭載されたカメラ(ドライブレコーダ)による撮影画像を収集して、その撮影画像をユーザに提示する技術が知られている(特許文献1参照)。また、車両に搭載されたカメラによる撮影画像に基づいて走行関連情報、すなわち、車両の周囲の交通状況や異常事象(落石など)を検出して、その走行関連情報を車車間通信で他車両に送信する技術が知られている(特許文献2参照)。
特開2017−182757号公報 特開2001−283381号公報
さて、道路に発生した注目事象、例えば、道路上の障害物や交通事故の発生状況などに関する情報を、先に通行した車両で取得して、その情報を、後から通行する別の車両に提供することが考えられる。このようにすると、その車両では注目事象を予測しながら走行することができることから、危険回避動作を行う制御の負荷を軽減することができ、特に自動運転車両の走行制御を適切に支援することができる。この場合、注目事象に関する情報とし、特許文献1に開示された技術のように、車両に搭載されたカメラの撮影画像を送信することが考えられる。
しかしながら、ITS通信(車車間通信)は、多数の端末間の情報交換を行うものであり、データ量が少ない情報の送受信を前提としている。このため、特許文献2に開示された技術のように、小容量の文字情報からなる走行関連情報を送信するには、ITS通信を利用することができる。一方、特許文献1に開示された技術のように、走行中の車両からデータ量が多い撮影画像を送信する場合、ITS通信の負荷が著しく増大するために望ましくないという問題があった。
そこで、本発明は、ITS通信の負荷を著しく増大させることなく、事前に注目事象を検知して危険回避動作を行う制御の負荷を軽減して、自動運転車両の走行制御を適切に支援することができる走行支援方法、道路撮影画像収集方法、および路側装置を提供することを主な目的とする。
本発明の走行支援方法は、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、前記情報提供先の車載装置が、前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う構成とする。
また、本発明の道路撮影画像収集方法は、道路の対象区間の通行を終了した車両に搭載された車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、前記サーバ装置が、前記注目事象に関する撮影画像および付加情報を蓄積し、ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示する構成とする。
また、本発明の路側装置は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信する構成とする。
また、本発明の路側装置は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信する構成とする。
本発明によれば、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、路側装置を経由して、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、ITS通信の負荷を著しく増大させることなく、事前に危険事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の安全走行を適切に支援することができる。
第1実施形態に係る走行支援システムの全体構成図 第1実施形態に係る走行支援システムの概要を示す説明図 第1実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第1実施形態に係る車両1で行われる注目地点接近判定処理の概要を示す説明図 第1実施形態に係る車両1および路側機6の概略構成を示すブロック図 第1実施形態に係る車両1および路側機6で行われる処理の手順を示すシーケンス図 第2実施形態に係る走行支援システムの概要を示す説明図 第2実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第2実施形態に係る路側機6で行われる反対車線画像合成処理の概要を示す説明図 第2実施形態に係る車両1および路側機6の概略構成を示すブロック図 第2実施形態に係る車両および路側機6で行われる処理の手順を示すシーケンス図 第3実施形態に係る走行支援システムの概要を示す説明図 第3実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第3実施形態に係る車両1および路側機6の概略構成を示すブロック図 第3実施形態に係る車両および路側機6で行われる処理の手順を示すシーケンス図 第4実施形態に係る走行支援システムの概要を示す説明図 第4実施形態に係る車両1、路側機6、およびサーバ8の概略構成を示すブロック図 第4実施形態に係る車両1、路側機6、およびサーバ8で行われる処理の手順を示すシーケンス図
前記課題を解決するためになされた第1の発明は、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、前記情報提供先の車載装置が、前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う構成とする。
これによると、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、路側装置を経由して、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、ITS通信の負荷を著しく増大させることなく、事前に注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる。
また、第2の発明は、前記付加情報は、車両が現在位置する区間の区間情報、車両の進行方向に関する情報、注目事象の内容に関する情報、注目事象検知時の車両の地図上における位置情報、注目事象が発生した地点の撮影画像上における位置情報、および注目事象検知時の時間情報を含む構成とする。
これによると、注目事象の発生状況を適切に把握することができる。
また、第3の発明は、前記情報提供先の車載装置が、前記注目事象に関する撮影画像と現時点の撮影画像との類似性に基づいて、自車両が前記注目事象の発生地点に接近していることを判定する構成とする。
これによると、衛星電波の状態が悪いために衛星測位で取得する位置情報の精度が低い場合でも、自車両が注目地点に接近していることを精度よく判定することができる。この場合、撮影画像から移動物を除去した背景画像の類似性に基づいて判定を行うと、より一層精度を高めることができる。
また、第4の発明は、前記情報提供先の車載装置が、自車両が前記注目事象の発生地点に接近していると判定した場合に、危険回避動作指示を走行制御装置に出力する構成とする。
これによると、危険回避動作を走行制御装置に適切に行わせることができる。
また、第5の発明は、前記情報提供元の車載装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の終点に位置する終点側の路側装置に送信し、前記終点側の路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の始点に位置する始点側の路側装置に送信し、前記始点側の路側装置が、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信する構成とする。
これによると、2つの路側装置の間を対象区間として、今まで対象区間を通行した車両の車載装置から、対象区間内で発生した注目事象に関する撮影画像および付加情報を確実に取得することができ、また、これから対象区間に進入する車両の車載装置に、注目事象に関する撮影画像および付加情報を確実に提供することができる。
また、第6の発明は、前記情報提供元の車載装置は、前記対象区間を第1方向に通行する車両に搭載されたものであり、前記情報提供先の車載装置は、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載されたものであり、前記路側装置が、前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信する構成とする。
これによると、遮蔽物(例えば停車車両)に遮られて見通し外となった移動物(例えば歩行者)が仮想的に見える状態の合成画像が車載装置に提供されるため、移動物の状況に基づいて、移動物との衝突事故を回避する適切な走行制御を行うことができる。
また、第7の発明は、前記注目事象は、交通事故であり、前記路側装置が、前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置に蓄積し、最新の前記注目事象に関する撮影画像および付加情報の他に、それ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信する構成とする。
これによると、交通事故が頻繁に発生する地点において、過去の交通事故の状況に基づいて、交通事故を回避する適切な走行制御を行うことができる。
また、第8の発明は、道路の対象区間の通行を終了した車両に搭載された車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、前記サーバ装置が、前記注目事象に関する撮影画像および付加情報を蓄積し、ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示する構成とする。
これによると、各地点の撮影画像を、定点カメラがある場合と同様に収集することができる。また、ユーザが地点を指定することで、その地点の撮影画像がユーザに提示されるため、所要の地点の過去の状況を確認することができる。
また、第9の発明は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信する構成とする。
これによると、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる。
また、第10の発明は、前記路車間通信部は、自装置が前記対象区間の終点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供元の車載装置から受信し、自装置が前記対象区間の始点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信する構成とする。
これによると、2つの路側装置の間を対象区間として、今まで対象区間を通行した車両の車載装置から、対象区間内で発生した注目事象に関する撮影画像および付加情報を確実に取得することができ、また、これから対象区間に進入する車両の車載装置に、注目事象に関する撮影画像および付加情報を確実に提供することができる。
また、第11の発明は、前記路車間通信部は、前記対象区間を第1方向に通行する車両に搭載された前記情報提供元の車載装置から、前記注目事象に関する撮影画像および付加情報を受信し、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載された前記情報提供先の車載装置に、前記注目事象に関する撮影画像および付加情報を送信し、前記プロセッサは、前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信する構成とする。
これによると、遮蔽物(例えば停車車両)に遮られて見通し外となった移動物(例えば歩行者)が仮想的に見える状態の合成画像が車載装置に提供されるため、移動物の状況に基づいて、移動物との衝突事故を回避する適切な走行制御を行うことができる。
また、第12の発明は、前記注目事象は、交通事故であり、前記プロセッサは、前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置の記憶手段に蓄積し、最新の前記注目事象に関する撮影画像および付加情報の他に、前記記憶手段に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信する構成とする。
これによると、交通事故が頻繁に発生する地点において、過去の交通事故の状況に基づいて、交通事故を回避する適切な走行制御を行うことができる。
また、第13の発明は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信する構成とする。
これによると、各地点の撮影画像を、定点カメラがある場合と同様に収集することができる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
図1は、第1実施形態に係る走行支援システムの全体構成図である。
この走行支援システムは、車両1(自動運転車両)の走行を支援するものであり、車両1に搭載されるカメラ2、センサ3、車載端末4(車載装置)、および自動運転ECU5(移動制御装置、走行制御装置)と、道路に設置される路側機6(路側装置)と、を備えている。
カメラ2は、車両1の前方を撮影する。センサ3は、レーダー、ライダー、加速度センサ、ジャイロセンサ、舵角センサ、速度センサなどである。自動運転ECU5は、センサ3の出力に基づいて、車両1の周囲の障害物を検知し、また、車両1の状態を検出して、自車両1の走行を制御する。
車載端末4および路側機6の間ではITS通信が行われる。このITS通信は、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムで採用されている周波数帯(例えば700MHz帯や5.8GHz帯)を利用した無線通信である。このITS通信では、車両1の位置情報などの所要の情報を含むメッセージを送受信する。
なお、このITS通信のうち、車載端末4同士の間で行われるものを車車間通信、路側機6と車載端末4との間で行われるものを路車間通信とそれぞれ呼称する。また、車載端末4および路側機6は、歩行者端末(図示せず)との間でITS通信(歩車間通信、路歩間通信)を行うことができる。
車載端末4は、ITS通信(車車間通信)により他の車載端末4との間で、位置情報などを含むメッセージを送受信して、車両1同士の衝突の危険性を判定し、衝突の危険性がある場合には、運転者に対する注意喚起動作を行う。なお、注意喚起動作は、車載端末4と接続されたカーナビゲーション装置(図示せず)を用いて行うとよい。また、車載端末4は、ITS通信(歩車間通信)により歩行者端末との間でメッセージを送受信して、歩行者と車両1との衝突の危険性を判定する。
路側機6は、ITS通信(路車間通信、路歩間通信)により、自装置の周辺に位置する車両1や歩行者の存在を、車載端末4や歩行者端末に通知する。これにより、見通し外の交差点における右左折の際の衝突を防止することができる。なお、路側機6では、この他に、交通情報を車載端末4や歩行者端末に配信する。
また、路側機6と車載端末4との間では、WiFi(登録商標)などの無線LAN通信が行われる。また、路側機6同士の間では、専用の路側ネットワーク(有線または無線)やセルラー通信などによるネットワークを介して通信(路路間通信)が行われる。
次に、第1実施形態に係る走行支援システムの概要について説明する。図2は、走行支援システムの概要を示す説明図である。図3は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。図4は、車両1で行われる注目地点接近判定処理の概要を示す説明図である。
図2に示すように、路側機6は、道路の適所、例えば交差点に設置される。本実施形態では、2台の路側機6の間の道路を対象区間とする。図2に示す例では、2台の路側機6が道路に設置されているが、3台以上の路側機6が道路に設置される場合、2台の路側機6の間の対象区間を連続して複数設定することができる。この場合、終点側の路側機6は、次の対象区間の始点に位置する始点側の路側機6となる。
対象区間を通行する車両1では、カメラ2が車両1の前方を撮影し、車載端末4が、カメラ2の撮影画像に基づいて、車両1の前方の道路上に発生した注目事象を検知する(注目事象検知処理)。ここで、注目事象とは、車両1の安全な通行の支障となる可能性がある物体や状態であり、例えば、道路上に存在する障害物(例えば、タイヤ、シートなどの車両落下物)や、路面に形成された車両によるスリップの痕跡や、路面に発生した陥没などである。また、車両1の左側を通行する自転車や自動二輪なども、例えば車両1の左折時に事故の原因となる可能性があるため、注目事象に含めてもよい。さらに、右折する車両、速度が所定値以上の車両、走行位置が不安定な車両なども、車両1との事故の原因となる可能性があるため、注目事象に含めてもよい。
このとき、車載端末4は、撮影画像に基づいて、その注目事象の内容も判別する。例えば、車載端末4は、注目物体(落下物など)を検知した場合には、その注目物体の種類を判別する。また、車載端末4は、注目事象を検知すると、注目地点、すなわち、注目事象が発生した地点、例えば、事故が発生した地点や、障害物(車両の落下物など)が存在する地点の撮影画像上の位置情報(画像座標系における座標値)を取得する。
また、車載端末4は、注目事象を検知すると、注目事象情報を生成する。この注目事象情報は、注目事象検知時点の撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納される。この注目事象情報には、自車両1が現在位置する区間の区間情報、自車両1の進行方向に関する情報、注目事象の内容(障害物の種類など)に関する情報、注目事象検知時の車両1の位置情報(緯度,経度)、注目地点(注目事象が発生した地点)の撮影画像上の位置情報、および注目事象検知時の時間情報が含まれる。なお、区間情報は、車両1が対象区間を通行する際に、対象区間の始点に位置する始点側の路側機6から取得すればよい。
図3に示す例は、注目事象として、道路上に落下物(タイヤ)が存在する場合であり、図3(A)に示す時点では、車両1の前方の道路上に障害物がない状況が撮影されているが、図3(B)に示す時点では、道路上に落下物が存在する状況が撮影され、図3(C)に示す時点では、注目地点を通り過ぎて、車両1の前方の道路上に障害物がない状況が撮影されている。
また、図2に示すように、対象区間を通行した車両1では、自車両1が対象区間の終点の近傍に到達すると、車載端末4が、注目事象検知時点の撮影画像および注目事象情報を、対象区間の終点に位置する終点側の路側機6に送信する。
終点側の路側機6は、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。
始点側の路側機6は、終点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間を通行しようとする車両1の車載端末4に送信する。
対象区間を通行しようとする車両1では、車載端末4は、始点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報に基づいて危険回避動作を指示し、自動運転ECU5は、車載端末4からの危険回避動作の指示に応じて走行制御を行う。
このとき、図4に示すように、車載端末4は、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目事象検知時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
この判定処理では、現時点の撮影画像から背景画像が抽出される。また、車載端末4は、注目事象検知時点の撮影画像から背景画像を抽出する(背景画像抽出処理)。そして、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両1が注目地点の近くに到達したか否かが判定される(画像マッチング処理)。なお、自車両1が注目地点に近づくのに応じて、画像の類似度が徐々に高くなり、類似度が所定値より高くなった時点で、自車両1が注目地点の近くに到達したものと判定される。
このように本実施形態では、車両1や歩行者などの移動物を除去した背景画像の類似度で同一地点の撮影画像を判別するため、衛星電波の状態が悪いために測位部で取得する位置情報の精度が低い場合でも、自車両1が注目地点の近くに到達したことを精度よく判定することができる。
車載端末4は、自車両1が注目地点の近くに到達すると、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。これにより、車両1に搭載されたセンサ3の検出結果や、カメラ2の撮影画像に対する画像認識結果に基づくリアルタイムな障害物検知に先だって、車両1の前方に注目地点がある、すなわち、車両の落下物や事故車両などの障害物が存在することを予測しながら走行制御を行うことができる。例えば、早期に障害物を迂回するように車両1の走行を制御するため、障害物との衝突の回避を安全に確実に円滑に行うことができる。
なお、背景画像抽出処理では、センサ3の出力に基づく障害物の検知結果や、カメラ2の撮影画像に対する動体検知の検知結果に基づいて、撮影画像における障害物や移動物の領域を検出して、その障害物や移動物の領域を除去した背景画像が生成される。画像マッチング処理では、例えば、テンプレートマッチングなどの公知の方法を採用すればよい。
また、注目地点接近判定処理では、注目事象検知時の車両1の位置情報(緯度,経度)を参考にするとよい。
また、本実施形態では、注目事象検知時点の撮影画像から背景画像を抽出する処理(背景画像抽出処理)を車載端末4が行うようにしたが、この注目事象検知時点の撮影画像は、路側機6から車載端末4に提供されるものであるため、事前に、注目事象検知時点の撮影画像に対する背景画像抽出処理を路側機6が行うようにしてもよい。これにより、車載端末4の処理負荷を軽減することができる。
次に、第1実施形態に係る車両1および路側機6の概略構成について説明する。図5は、車両1および路側機6の概略構成を示すブロック図である。
車載端末4は、ITS通信部11(車車間通信部、第1の路車間通信部)と、無線LAN通信部12(第2の路車間通信部)と、測位部13と、メモリ14と、プロセッサ15と、を備えている。
ITS通信部11は、ITS通信(車車間通信)により、メッセージをブロードキャストで他の車載端末4に送信し、また、他の車載端末4から送信されるメッセージを受信する。また、ITS通信部11は、ITS通信(路車間通信)により、メッセージを路側機6に送信し、また、路側機6から送信されるメッセージを受信する。特に本実施形態では、ITS通信部11は、衝突危険性判定に関係する情報を送受信する。
無線LAN通信部12は、WiGig(登録商標)やWiFi(登録商標)などの無線LAN通信により、メッセージを路側機6に送信し、また、路側機6から送信されるメッセージを受信する。特に本実施形態では、無線LAN通信部12は、撮影画像およびその付加情報を送受信する。
測位部13は、GPS(Global Positioning System)、QZSS(Quasi-Zenith Satellite System)などの衛星測位システムにより自装置の位置を測定して、自装置の位置情報(緯度、経度)を取得する。
メモリ14は、地図情報や、プロセッサ15で実行されるプログラムなどを記憶する。
プロセッサ15は、メモリ14に記憶されたプログラムを実行することで走行支援に係る各種の処理を行う。本実施形態では、プロセッサ15が、ドライブレコーダ処理、注目事象検知処理、および注目地点接近判定処理を行う。
ドライブレコーダ処理では、プロセッサ15が、カメラ2の撮影画像をメモリ14に格納する録画を行う。
注目事象検知処理では、プロセッサ15が、カメラ2による撮影画像に基づいて、車両1の前方の道路上に発生した注目事象を検知して、注目事象情報を生成する。
注目地点接近判定処理では、プロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目事象検知時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する。本実施形態では、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両1が注目地点の近くに到達したか否かが判定される。
自動運転ECU5は、操舵ECU31、駆動ECU32、および制動ECU33と接続され、センサ3の検出結果に基づいて、操舵ECU31、駆動ECU32、および制動ECU33を制御して、車両1の自動運転(自律走行)を実現する。
ここで、操舵ECU31は、自車両1の操舵機構を制御するものであり、駆動ECU32は、自車両1の駆動機構(エンジンや電動モータなど)を制御するものであり、制動ECU33は、自車両1の制動機構を制御するものである。
なお、自動運転には、運転者を必要としない自律走行と、運転者の運転を支援する運転支援とがあり、自律走行と運転支援との2つのモードを切り替えることができるようにしてもよい。運転支援の場合、衝突の危険性がある場合に、運転者に対する注意喚起が必要であり、例えば、カーナビゲーションにおいて、車載端末4の制御に基づいて、音声出力および画像表示の機能を用いて、運転者に対する注意喚起動作を実施する。
路側機6は、ITS通信部21(第1の路車間通信部)と、無線LAN通信部22(第2の路車間通信部)と、路路間通信部23(第3の通信部)と、メモリ24と、プロセッサ25と、を備えている。
ITS通信部21は、ITS通信(路車間通信)により、メッセージをブロードキャストで車載端末4に送信し、また、車載端末4から送信されるメッセージを受信する。特に本実施形態では、ITS通信部21は、衝突危険性判定に関係する情報を送受信する。
無線LAN通信部22は、WiFi(登録商標)などの無線LAN通信により、車載端末4から送信されるメッセージを受信し、また、受信したメッセージを車載端末4に送信する。特に本実施形態では、無線LAN通信部22は、撮影画像およびその付加情報を送受信する。
路路間通信部23は、専用の路側ネットワーク(有線または無線)、またはセルラー通信などによるネットワークを介して、隣り合う路側機6と通信を行う。
メモリ24は、プロセッサ25で実行されるプログラムなどを記憶する。
プロセッサ25は、メモリ24に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ25が、情報転送処理、および情報配信処理を行う。
情報転送処理では、プロセッサ25が、車載端末4から送信されたメッセージに含まれる注目事象情報、特に区間情報に基づいて、転送先として、対象区間の始点に位置する始点側の路側機6を選択し、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、路路間通信部23から始点側の路側機6に送信する制御を行う。
情報配信処理では、プロセッサ25が、終点側の路側機6から送信されるメッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に格納し、その注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、路路間通信部23から周辺を通過する車載端末4に送信する制御を行う。
次に、第1実施形態に係る車両1および路側機6で行われる処理の手順について説明する。図6は、車両1および路側機6で行われる処理の手順を示すシーケンス図である。
対象区間を先に通行した車両1では、カメラ2が自車両1の前方を撮影する。そして、車載端末4のプロセッサ15が、注目事象として、前方の道路上にある障害物(落下物)を検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両1が対象区間の終点に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、転送先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。
始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に格納する。そして、無線LAN通信部22が、注目地点の注目事象発生時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。
後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目事象検知時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する(危険回避動作選択処理)。
次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
そして、自車両1が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて、障害物を回避するように走行制御を行う。
(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図7は、第2実施形態に係る走行支援システムの概要を示す説明図である。図8は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。図9は、路側機6で行われる反対車線画像合成処理の概要を示す説明図である。
図7に示すように、道路に停車中の車両の陰から歩行者が飛び出すと、車両1は歩行者をよける余裕がないため、車両1が歩行者に衝突する事故が起きる。一方、道路に停車中の車両の陰に隠れて見えない歩行者も、反対車線を走行する対向車両からは見え、その対向車両のカメラ2では、停車車両の手前側に歩行者が写る撮影画像を得ることができる。
図8に示す例は、反対車線に停車中の車両の手前に歩行者がいる場合である。この場合、反対車線を走行する対向車両からは歩行者が停車中の車両の陰に隠れて見えないため、停車中の車両の陰から歩行者が急に現れることで、その歩行者が反対車線を走行する車両と衝突する危険性がある。
そこで、本実施形態では、対象区間の端に位置する路側機6が、静止した遮蔽物(停車車両など)の陰に隠れて見えない移動物(歩行者など)が存在するという見通し外情報を、反対車線を第1方向(図7参照)に通行した対向車両から取得して、その見通し外情報を、対象区間を第1方向とは逆の第2方向(図7参照)に通行しようとする車両の車載端末4に提供する。情報提供先の車両では、自動運転ECU5により、飛び出す歩行者を避けるように走行制御が行われる。
図9に示すように、路側機6は、対象区間を通行した車両から取得した注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する(反対車線画像合成処理)。
具体的には、まず、メッセージに含まれる注目事象検知時点の撮影画像から、移動物(歩行者など)と、反対車線から見た場合に移動物を遮蔽する位置関係にある遮蔽物とを検知する。ここで、移動物は歩行者、自転車、および動物などである。また、遮蔽物は停車車両などである。
また、メッセージに含まれる注目事象情報、特に注目事象検知時点の車両の位置情報に基づいて、自装置に蓄積された対象区間の撮影画像の中から、反対車線から注目地点を撮影した撮影画像を逆方向撮影画像として選択する。このとき、撮影時刻が最も新しい撮影画像、すなわち、直前に通行した車両で撮影された撮影画像で、かつ、遮蔽物が写っている撮影画像を選択する。
そして、メッセージに含まれる注目事象情報、特に注目事象検知時点の撮影画像上の障害物の位置情報に基づいて、注目事象検知時点の撮影画像から障害物、特に移動物の領域を切り出して移動物画像を取得する。次に、移動物の向きが実際の向きになるように、移動物画像を左右反転して反転移動物画像を生成する。なお、本実施形態では、移動物画像を左右反転する画像処理を行うようにしたが、移動物画像に対する画像処理は反転に限られない。また、反転などの画像処理を移動物画像に施さないようにしてもよい。また、反転に加えて他の画像処理(例えば回転など)を移動物画像に施すようにしてもよい。
次に、注目事象検知時点の撮影画像上の障害物の位置情報に基づいて、逆方向撮影画像に反転移動物画像を重畳した合成画像を生成する。このとき、逆方向撮影画像上の移動物の位置を算出し、算出された位置に基づいて反転移動物画像を逆方向撮影画像に重畳する。これにより、逆方向撮影画像内の遮蔽物に重なり合うように反転移動物画像が重畳される。なお、逆方向撮影画像に反転移動物画像を重畳する際に、反転移動物画像が遮蔽物の大きさと整合するように、反転移動物画像を拡大縮小するようにしてもよい。
また、車載端末4は、カメラ2から出力されてドライブレコーダを構成するメモに14に蓄積された現時点の撮影画像と、注目地点(注目事象が発生した地点)の注目事象検知時点の撮影画像とに基づいて、自車両が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。このとき、車載端末4は注目事象検知時点の撮影画像として、路側機6において生成した合成画像に基づいて、注目地点接近判定処理を行う。
次に、第2実施形態に係る車両および路側機6の概略構成について説明する。図10は、車両1および路側機6の概略構成を示すブロック図である。
車両1の構成は、第1実施形態(図5)と同様である。
路側機6は、前記の実施形態と概ね同様であるが、プロセッサ25が、情報転送処理および情報配信処理の他に、反対車線画像合成処理を行う。この処理では、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する。
次に、第2実施形態に係る車両および路側機6で行われる処理の手順について説明する。図11は、車両および路側機6で行われる処理の手順を示すシーケンス図である。
対象区間を第1方向に走行する車両1では、カメラ2が自車両の前方を撮影する。そして、車載端末4のプロセッサ15が、注目事象として、自車両の前方に障害物があることを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する(反対車線画像合成処理)。
次に、無線LAN通信部22が、合成画像および注目事象情報を含むメッセージを、周辺の車載端末4に送信する。
対象区間を第2方向に通行する車両1では、車載端末4の無線LAN通信部12が、路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目地点の事故時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目地点の事故時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する。
次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、自車両が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
そして、自車両が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。
(第3実施形態)
次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図12は、第3実施形態に係る走行支援システムの概要を示す説明図である。図13は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。
図12に示すように、車両1では、カメラ2が車両の前方を撮影し、車載端末4が、カメラ2による撮影画像に基づいて、車両の前方の道路上に発生した注目事象を検知して、注目事象情報を生成する(注目事象検知処理)。本実施形態では、注目事象として、自車両が事故を起こしたことを検知する。また、注目事象として、自車両が事故寸前の状態、例えば、車道に飛び出した歩行者と衝突しそうな状態になったことを検知する。
図13に示す例は、注目事象として、歩行者の飛び出しによる衝突事故が発生した場合であり、図13(A)に示す時点では、車両の前方の道路上に障害物がない状況が撮影されているが、図13(B)に示す時点では、撮影画像に、歩行者が車道に飛び出す状況が撮影され、図13(C)に示す時点では、撮影画像に、歩行者に自車両が衝突して歩行者が転倒した状況が撮影されている。この場合、注目事象検知時点の撮影画像として、図13(B),(C)に示す時点の撮影画像が、終点側の路側機6にアップロードされる。
また、図12に示すように、終点側の路側機6は、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。
始点側の路側機6は、終点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報を、自装置に蓄積する。そして、注目事象検知時点の撮影画像および注目事象情報を、対象区間を通行しようとする車両の車載端末4に送信する。
対象区間を通行しようとする車両では、車載端末4は、始点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報に基づいて危険回避動作(減速や迂回など)を指示し、自動運転ECU5は、車載端末4からの危険回避動作の指示に応じて走行制御を行う。
なお、本実施形態では、注目事象検知時点(事故発生時点)の撮影画像を、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援するようにしたが、注目事象検知時点の撮影画像を路側機6からサーバにアップロードして、自動運転車両の走行制御に用いられるAI(人工知能)の強化学習用データとして利用するようにしてもよい。また、サーバに蓄積された注目事象検知時点の撮影画像をユーザ端末に配信するようにしてもよい。
次に、第3実施形態に係る車両1および路側機6の概略構成について説明する。図14は、車両1および路側機6の概略構成を示すブロック図である。
車両1は、第1実施形態(図5参照)と概ね同様であるが、特に本実施形態では、車載端末4のプロセッサ15が、注目事象検知処理として、センサ3(加速度センサなど)の出力に基づいて自車両が事故を起こしたことを検知する。また、プロセッサ15が、カメラ2の撮影画像やセンサ3の出力に基づいて自車両が事故寸前の状態を検知する。そして、注目事象検知時点の撮影画像がメモリ14に格納される。
路側機6は、第1実施形態(図5参照)と概ね同様であるが、特に本実施形態では、プロセッサ25が、自装置が始端側となる対象区間の終端側の別の路側機6から取得した注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に蓄積する(撮影画像蓄積処理)。なお、蓄積された撮影画像および注目事象情報は所定期間保持される。また、撮影画像を大量に蓄積するために大容量の記憶デバイスを設けるようにしてもよい。
次に、第3実施形態に係る車両および路側機6で行われる処理の手順について説明する。図15は、車両および路側機6で行われる処理の手順を示すシーケンス図である。
対象区間を先に通行した車両1では、カメラ2が自車両1の前方を撮影する。そして、車載端末4のプロセッサ15が、自車両に注目事象(事故や事故寸前の状態)が発生したことを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点の近傍に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、通知先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。
始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に蓄積する。そして、無線LAN通信部22が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。このとき、過去の所定期間内における注目事象検知時点の撮影画像および注目事象情報がメモリ24に蓄積されており、最新の注目事象検知時点の撮影画像および注目事象情報の他に、それ以前の注目事象検知時点の撮影画像および注目事象情報も車載端末4に送信される。
後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目地点の事故時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目地点の事故時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する。
次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、注目地点接近判定処理を行う。この処理では、現時点の撮影画像から背景画像を抽出する(背景抽出処理)。次に、その背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両が注目地点の近くに到達したか否かを判定する。
そして、自車両が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。
(第4実施形態)
次に、第4実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図16は、第4実施形態に係る走行支援システムの概要を示す説明図である。
本実施形態では、前記の実施形態と同様に、対象区間を通行する車両において、カメラ2が車両の前方を撮影し、車載端末4が、カメラ2による撮影画像に基づいて、車両の前方の道路上に発生した注目事象を検知する。例えば、車載端末4は、停車車両の陰から飛び出した歩行者が自車両と衝突する事故が発生したことを検知する。そして、車載端末4は、注目事象検知時点の撮影画像および注目事象情報を、対象区間の終点に位置する終点側の路側機6に送信する。
また、本実施形態では、前記の実施形態と同様に、終点側の路側機6において、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。次に、始点側の路側機6が、対象区間を通行しようとする車両の車載端末4に、注目事象検知時点の撮影画像および注目事象情報を送信する。そして、車両において、注目事象検知時点の撮影画像に基づいて自車両が注目地点の近くに到達したことを判定して、自動運転ECU5に早期に危険回避動作を開始させる。
一方、本実施形態では、前記の実施形態と異なり、対象区間の終点に位置する終点側の路側機6は、まず、注目事象を検知した車両から、注目事象検知時点の撮影画像および注目事象状態を取得し、その後、対象区間を別の車両が通行する度に、その車両から、注目地点の撮影画像を取得する。
サーバ8(サーバ装置)は、対象区間の終点に位置する終点側の路側機6から、まず、注目事象検知時点の撮影画像および注目事象状態を取得し、その後、注目地点の撮影画像を取得する。これにより、サーバ8は、注目事象が発生している最中の撮影画像を始めとして、撮影時刻が少しずつずれた注目地点の撮影画像を収集することができる。このため、定点カメラ(固定カメラ)がない地点でも、注目事象(事故など)が発生した現場の状況を監視者が確認することができる。
また、サーバ8は、管理者が操作するユーザ端末9(ユーザ装置)からのアクセス(閲覧要求)に応じて、管理者が指定した地点の撮影画像をユーザ端末9に配信する。このとき、ユーザ端末9では、地図上に、過去に事故が発生した地点を表すアイコンが表示される。管理者がアイコンを操作することで地点を指定すると、指定された地点の撮影画像が表示される。
なお、本実施形態では、車載端末4が、自車両が注目地点の近くに到達したか否かを判定して、自車両が注目地点の近くに到達した際に撮影された撮影画像、すなわち、注目地点の現時点の撮影画像を、路側機6にアップロードするようにしたが、車載端末4が、注目地点に限らず対象区間内の全ての撮影画像を路側機6にアップロードして、路側機6が、位置情報や画像マッチングなどにより、対象区間内の注目地点の撮影画像を抽出するようにしてもよい。
また、注目地点に限らず対象区間内の全ての撮影画像を収集するようにしてもよい。これにより、地図で道路上の任意の地点を指定することで、その地点の最近の撮影画像を表示させることで、道路上の任意の地点の最近の状況を確認することができる。例えば、認知症の高齢者や迷子などの人物を捜索する用途に利用することができる。また、例えば、防犯や防災などの用途にも利用することができる。さらに、特定の時間帯にのみ対象区間内の全ての撮影画像が収集されるようにしてもよい。例えば、児童の登下校時間帯にのみ対象区間内の全ての撮影画像が収集されることにより、登下校時の児童の見守りの用途に利用することができる。
また、対象区間内の全ての撮影画像を収集するようにすると、画像マッチングおよび位置情報に基づいて、注目事象(事故など)が発生する以前の注目地点の撮影画像を取得することができる。これにより、注目事象が発生する前後の現場の状況を監視者が確認することができる。
次に、第4実施形態に係る車両1、路側機6、およびサーバ8の概略構成について説明する。図17は、車両1、路側機6、およびサーバ8の概略構成を示すブロック図である。
車両1の構成は、第1実施形態(図5参照)と同様である。
路側機6は、前記の実施形態と概ね同様であるが、ITS通信部21、無線LAN通信部22および路路間通信部23の他に、ネットワーク通信部26を備えている。このネットワーク通信部26は、ネットワークを介してサーバ8との間で通信を行う。
サーバ8は、ネットワーク通信部41と、メモリ42と、プロセッサ43と、を備えている。
ネットワーク通信部41は、ネットワークを介して路側機6と通信を行う。また、ネットワーク通信部41は、監視者が操作するユーザ端末9とネットワークを介して通信を行う。
メモリ42は、路側機6から収集した各地点の撮影画像を蓄積する。また、メモリ42は、プロセッサ43で実行されるプログラムなどを記憶する。なお、撮影画像を大量に蓄積するために大容量の記憶デバイスを設けるようにしてもよい。
プロセッサ43は、メモリ42に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ43が、地点画像合成処理、監視地図生成処理および撮影画像表示処理を行う。
地点画像合成処理では、プロセッサ43が、路側機6から収集した各地点の撮影画像を、地点ごとに撮影時刻順に並べて合成する。
監視地図生成処理では、プロセッサ43が、注目地点の位置情報に基づいて、注目地点を表すアイコンを地図上に重畳した画面情報を生成する。この画面情報は、通信部からユーザ端末9に送信されて、ユーザ端末9において、各地点を表すアイコンを地図上に重畳した画面が表示される。監視者は、アイコンを操作することで地点を指定することができる。
撮影画像表示処理では、プロセッサ43が、監視者が指定した地点の撮影画像をメモリ42から取得して、指定地点の現在の撮影画像を表示(再生)する画面情報を生成する。この画面情報は、ネットワーク通信部41からユーザ端末9に送信されて、ユーザ端末9において、撮影画像を表示する画面が表示される。
なお、本実施形態では、地点ごとの撮影画像を合成するようにしたが、地点ごとの撮影画像を合成せずに、監視者が指定した地点の撮影画像を撮影時刻にしたがって順次再生するようにしてもよい。
また、本実施形態では、監視者が指定した地点の撮影画像を再生するようにしたが、同一地点で形態(歩行者事故、自転車事故など)が異なる複数の注目事象(事故および事故寸前の状態)が発生している場合には、事故の形態ごとに撮影画像を分類して、監視者が指定した形態の撮影画像を再生するようにしてもよい。
次に、第4実施形態に係る車両1、路側機6、およびサーバ8で行われる処理の手順について説明する。図18は、車両1、路側機6、およびサーバ8で行われる処理の手順を示すシーケンス図である。
対象区間を先に通行した車両1では、車載端末4のプロセッサ15が、自車両に注目事象(事故や事故寸前の状態)が発生したことを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点の近傍に到達したことを検知すると、ドライブレコーダを構成するメモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、通知先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。また、ネットワーク通信部26が、注目事象検知時点の撮影画像および注目事象情報を含む注目地点報告をサーバ8に送信する。
始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得する。そして、無線LAN通信部22が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。
後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目事象検知時点の撮影画像から背景画像を抽出する(背景抽出処理)。また、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像から背景画像を抽出する(背景抽出処理)。
次に、車載端末4のプロセッサ15が、注目地点接近判定処理を開始する。この処理では、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定する。そして、現時点の撮影画像の中から該当する撮影画像、すなわち、注目地点の現時点の撮影画像が見つかると、プロセッサ15が、その撮影画像の付加情報として注目事象情報を、ドライブレコーダを構成するメモリ14に格納する。
次に、車載端末4のプロセッサ15が、測位部13の測位結果に基づいて、自車両が対象区間の終点に到達したことを検知すると、注目地点の撮影画像をメモリ14から取得する。そして、無線LAN通信部12が、注目地点の撮影画像を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
なお、本実施形態では、車載端末4において注目地点画像探索処理を行うようにしたが、対象区間の全ての撮影画像を路側機6に提供して、路側機6において注目地点画像探索処理を行うようにしてもよい。
終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得する。そして、ネットワーク通信部26が、注目事象検知時点の撮影画像および注目事象情報を含む注目地点報告のメッセージをサーバ8に送信する。
サーバ8では、ネットワーク通信部41が、路側機6から送信される注目地点通行報告のメッセージを受信すると、プロセッサ43が、注目地点通行報告のメッセージに含まれる注目地点の撮影画像および注目事象情報をメモリ42に蓄積する。このとき、プロセッサ43が、地点ごとに撮影画像を撮影時刻順に並べて合成してメモリ42に格納する(画像合成処理)。次に、注目地点の位置情報に基づいて、注目地点を表すアイコンを地図上に重畳する(監視地図生成処理)。監視者が、サーバ8に接続されたユーザ端末9において、画面表示された地図上のアイコンを操作して注目地点を指定すると、プロセッサ43が、指定された注目地点の撮影画像をメモリ42から取得して、現在の注目地点の撮影画像を再生する画面を生成してユーザ端末9に表示する(画像再生処理)。
ところで、前記の実施形態では、ある車両から別の車両に情報を提供する場合に、路車間の間接通信により路側機6を介したある車両から別の車両に情報を送信するようにしたが、車車間の直接通信(ITS通信)と路車間の間接通信(無線LAN通信)とを切り替えるようにしてもよい。所定の条件の場合に、直接通信を選択し、それ以外の場合は間接通信を選択するようにしてもよい。例えば、過去に危険行動(飛び出しなど)をとった人物(危険人物)に関する歩行者情報は、緊急性が高いため、車車間の直接通信で周辺の車載端末4に送信する。一方、工事や渋滞などに関する道路情報などは、緊急性が低いため、路車間の間接通信で周辺の車載端末4に路側機6を介して送信する。
また、車車間の直接通信(ITS通信)と路車間の間接通信(無線LAN通信)とを同時に利用するようにしてもよい。これは、特に緊急性が高い場合、例えば緊急車両(救急車など)の場合に、通信の安定性を高めることができる。
また、前記の実施形態では、対象区間を通行した車両で取得した撮影画像および注目事象情報を、その後に対象区間を通行する車両に提供するようにしたが、路側機6のカメラ2で周辺(例えば交差点)を撮影することで取得した撮影画像および注目事象情報を車両に提供するようにしてもよい。この場合、車両の進行方向の先にある路側機6が収集した注目事象情報を、車両の進行方向の手前側にある路側機6を経由して車両に提供すればよい。これにより、進行方向の先の道路(例えば交差点)の状況を事前に把握することができる。
また、ドライブレコーダおよび画像配信の機能を搭載した車両が長時間通行しない場合、道路の状況を長時間収集できなくなる。そこで、ドライブレコーダ機能を搭載した車両が通行しない状態が所定時間継続すると、路側機6の情報処理を開始するようにする。
この場合、車両がドライブレコーダおよび画像配信の機能を搭載していることを表す情報を路側機6に通知するようにするとよい。これにより、ドライブレコーダおよび画像配信の機能を搭載した車両を路側機6が検知することができる。路側機6では、この情報を受信したら、注目事象の検知および注目事象情報(撮影画像を含む)の送信の処理を停止すればよい。
あるいは、ドライブレコーダおよび画像配信の機能を搭載したドローンなどの飛行型ロボット、または歩行型ロボットなどを路側機6の周辺に配置し、当該飛行型ロボットまたは歩行型ロボットが上記情報の収集および配信などを行ってもよい。さらに、車両に搭載したドライブレコーダでは撮影が困難である場合(例えば、自車両の直ぐ左側後方に自転車や自動二輪が走行しており、自車両の後方にドライブレコーダおよび画像配信の機能を搭載した車両が存在しない場合など)においては、路側機6あるいは飛行型ロボット、歩行型ロボットなどが上記情報の収集および配信を行ってもよい。
また、収集した注目事象情報を、例えばサーバなどに集約して分析を行い、該当箇所付近にいる車両などに事前に通知することも可能である。これにより、事故が発生しやすい場所については、事故件数が多いことだけでなく、例えば事故の種類または発生原因に関する情報についても事前に通知することが可能となる。
また、危険と思われる行動に結びつく注目事象情報を検知した場合、例えば、所定値以上の車両の速度、所定値以下の車間距離などを検知した場合には、すぐに警察などに通知されるようにしてもよい。これにより、例えば、飲酒運転や煽り運転などの危険な行動の抑制が可能となる。
以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
本発明に係る走行支援方法、道路撮影画像収集方法、および路側装置は、注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる効果を有し、車両の走行制御を支援する走行支援方法、道路の撮影画像を収集する道路撮影画像収集方法、および車両の走行制御を支援し、または道路の撮影画像を収集する路側装置などとして有用である。
1 車両
2 カメラ
3 センサ
4 車載端末(車載装置)
5 自動運転ECU(走行制御装置)
6 路側機(路側装置)
8 サーバ(サーバ装置)
9 ユーザ端末(ユーザ装置)
11 ITS通信部
12 無線LAN通信部
13 測位部
14 メモリ
15 プロセッサ
21 ITS通信部
22 無線LAN通信部
23 路路間通信部
24 メモリ
25 プロセッサ
26 ネットワーク通信部
31 操舵ECU
32 駆動ECU
33 制動ECU
41 ネットワーク通信部
42 メモリ
43 プロセッサ

Claims (13)

  1. 道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、
    前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、
    前記路側装置が、
    前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、
    前記情報提供先の車載装置が、
    前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行うことを特徴とする走行支援方法。
  2. 前記付加情報は、
    車両が現在位置する区間の区間情報、車両の進行方向に関する情報、注目事象の内容に関する情報、注目事象検知時の車両の地図上における位置情報、注目事象が発生した地点の撮影画像上における位置情報、および注目事象検知時の時間情報を含むことを特徴とする請求項1に記載の走行支援方法。
  3. 前記情報提供先の車載装置が、
    前記注目事象に関する撮影画像と現時点の撮影画像との類似性に基づいて、自車両が前記注目事象の発生地点に接近していることを判定することを特徴とする請求項1に記載の走行支援方法。
  4. 前記情報提供先の車載装置が、
    自車両が前記注目事象の発生地点に接近していると判定した場合に、危険回避動作指示を走行制御装置に出力することを特徴とする請求項3に記載の走行支援方法。
  5. 前記情報提供元の車載装置が、
    前記注目事象に関する撮影画像および付加情報を、前記対象区間の終点に位置する終点側の路側装置に送信し、
    前記終点側の路側装置が、
    前記注目事象に関する撮影画像および付加情報を、前記対象区間の始点に位置する始点側の路側装置に送信し、
    前記始点側の路側装置が、
    前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  6. 前記情報提供元の車載装置は、前記対象区間を第1方向に通行する車両に搭載されたものであり、
    前記情報提供先の車載装置は、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載されたものであり、
    前記路側装置が、
    前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、
    前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  7. 前記注目事象は、交通事故であり、
    前記路側装置が、
    前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置に蓄積し、
    最新の前記注目事象に関する撮影画像および付加情報の他に、前記自装置に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  8. 道路の対象区間の通行を終了した車両に搭載された車載装置が、
    前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、
    前記路側装置が、
    前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、
    前記サーバ装置が、
    前記注目事象に関する撮影画像および付加情報を蓄積し、
    ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示することを特徴とする道路撮影画像収集方法。
  9. 車載装置と通信を行う路車間通信部と、
    プロセッサと、
    を備え、
    前記プロセッサは、
    道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、
    前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信することを特徴とする路側装置。
  10. 前記路車間通信部は、
    自装置が前記対象区間の終点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供元の車載装置から受信し、
    自装置が前記対象区間の始点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  11. 前記路車間通信部は、
    前記対象区間を第1方向に通行する車両に搭載された前記情報提供元の車載装置から、前記注目事象に関する撮影画像および付加情報を受信し、
    前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載された前記情報提供先の車載装置に、前記注目事象に関する撮影画像および付加情報を送信し、
    前記プロセッサは、
    前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、
    前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  12. 前記注目事象は、交通事故であり、
    前記プロセッサは、
    前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置の記憶手段に蓄積し、
    最新の前記注目事象に関する撮影画像および付加情報の他に、前記記憶手段に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  13. 車載装置と通信を行う路車間通信部と、
    プロセッサと、
    を備え、
    前記プロセッサは、
    道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、
    前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信することを特徴とする路側装置。
JP2019144711A 2019-08-06 2019-08-06 走行支援方法、道路撮影画像収集方法、および路側装置 Active JP7445882B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019144711A JP7445882B2 (ja) 2019-08-06 2019-08-06 走行支援方法、道路撮影画像収集方法、および路側装置
PCT/JP2020/028268 WO2021024798A1 (ja) 2019-08-06 2020-07-21 走行支援方法、道路撮影画像収集方法、および路側装置
CN202080055211.9A CN114175123B (zh) 2019-08-06 2020-07-21 行驶辅助方法、道路摄影图像收集方法以及路侧装置
US17/633,168 US20220301427A1 (en) 2019-08-06 2020-07-21 Travel assistance method, road captured image collection method, and roadside device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019144711A JP7445882B2 (ja) 2019-08-06 2019-08-06 走行支援方法、道路撮影画像収集方法、および路側装置

Publications (2)

Publication Number Publication Date
JP2021026554A true JP2021026554A (ja) 2021-02-22
JP7445882B2 JP7445882B2 (ja) 2024-03-08

Family

ID=74503821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144711A Active JP7445882B2 (ja) 2019-08-06 2019-08-06 走行支援方法、道路撮影画像収集方法、および路側装置

Country Status (4)

Country Link
US (1) US20220301427A1 (ja)
JP (1) JP7445882B2 (ja)
CN (1) CN114175123B (ja)
WO (1) WO2021024798A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11260866B2 (en) * 2019-09-09 2022-03-01 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
WO2023175660A1 (ja) * 2022-03-14 2023-09-21 日本電気株式会社 移動体、管理サーバ、データの送信方法及び記録媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726640B2 (en) * 2016-11-15 2020-07-28 At&T Mobility Ii Llc Facilitation of smart communications hub to support driverless vehicles in 5G networks or other next generation networks
JP7141480B2 (ja) * 2021-02-25 2022-09-22 本田技研工業株式会社 地図生成装置
JP2023109072A (ja) * 2022-01-26 2023-08-07 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08124069A (ja) * 1994-10-25 1996-05-17 Toyota Motor Corp 車両事故情報伝達装置
JP2000306194A (ja) * 1999-04-21 2000-11-02 Toshiba Corp 自動走行支援システム
JP2001283381A (ja) * 2000-03-30 2001-10-12 Toshiba Corp 車車間通信システム
JP2007051973A (ja) * 2005-08-19 2007-03-01 Denso Corp 危険箇所情報表示装置
JP2012098826A (ja) * 2010-10-29 2012-05-24 Sumitomo Electric Ind Ltd 車両位置情報出力装置及びこの装置を備えた路側装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム
JP2017151148A (ja) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
JP2018147055A (ja) * 2017-03-01 2018-09-20 ソフトバンク株式会社 情報報知装置、移動体及び情報報知システム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180299284A1 (en) * 2014-12-02 2018-10-18 Kevin Sunlin Wang Method and System For Avoidance of Accidents
US10510249B2 (en) * 2016-04-28 2019-12-17 Sumitomo Electric Industries, Ltd. Safety driving assistant system, vehicle, and program
US10137890B2 (en) * 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
US10169999B2 (en) * 2016-11-10 2019-01-01 Allstate Solutions Private Limited Identifying roadway obstacles based on vehicular data
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
US10474164B2 (en) * 2016-12-30 2019-11-12 DeepMap Inc. Representing navigable surface boundaries of lanes in high definition maps for autonomous vehicles
US10234864B2 (en) * 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10095234B2 (en) * 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10281920B2 (en) * 2017-03-07 2019-05-07 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10850734B2 (en) * 2017-04-03 2020-12-01 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US10384690B2 (en) * 2017-04-03 2019-08-20 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
US11377108B2 (en) * 2017-04-03 2022-07-05 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US20180281795A1 (en) * 2017-04-03 2018-10-04 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
US11198436B2 (en) * 2017-04-03 2021-12-14 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US20180284772A1 (en) * 2017-04-03 2018-10-04 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
US11397441B2 (en) * 2017-05-22 2022-07-26 Arnold Chase Bi-directional beacon information system
US10740988B2 (en) * 2017-06-16 2020-08-11 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10627810B2 (en) * 2017-06-16 2020-04-21 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US11112789B2 (en) * 2017-06-16 2021-09-07 Motional Ad Llc Intervention in operation of a vehicle having autonomous driving capabilities
US10317899B2 (en) * 2017-06-16 2019-06-11 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10599141B2 (en) * 2017-06-16 2020-03-24 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10595175B2 (en) * 2017-06-23 2020-03-17 Veniam, Inc. Methods and systems for detecting anomalies and forecasting optimizations to improve smart city or region infrastructure management using networks of autonomous vehicles
US10386836B2 (en) * 2017-07-07 2019-08-20 Zoox, Inc. Interactions between vehicle and teleoperations system
US10606259B2 (en) * 2017-07-07 2020-03-31 Zoox, Inc. Interactions between vehicle and teleoperations system
US10922903B2 (en) * 2017-07-11 2021-02-16 Waymo Llc Methods and systems for providing remote assistance to a stopped vehicle
US11009868B2 (en) * 2017-07-20 2021-05-18 Nuro, Inc. Fleet of autonomous vehicles with lane positioning and platooning behaviors
WO2019018695A1 (en) * 2017-07-20 2019-01-24 Nuro, Inc. REPOSITIONING AN AUTONOMOUS VEHICLE
US10518729B2 (en) * 2017-08-02 2019-12-31 Allstate Insurance Company Event-based connected vehicle control and response systems
US10902720B2 (en) * 2018-02-09 2021-01-26 Here Global B.V. Traffic light signal adjustment notification improvement
CN109559558A (zh) * 2018-12-14 2019-04-02 深圳市元征科技股份有限公司 事故提醒方法、智能警示牌、路侧单元及事故提醒系统
WO2020139392A1 (en) * 2018-12-28 2020-07-02 Didi Research America, Llc Vehicle-based road obstacle identification system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08124069A (ja) * 1994-10-25 1996-05-17 Toyota Motor Corp 車両事故情報伝達装置
JP2000306194A (ja) * 1999-04-21 2000-11-02 Toshiba Corp 自動走行支援システム
JP2001283381A (ja) * 2000-03-30 2001-10-12 Toshiba Corp 車車間通信システム
JP2007051973A (ja) * 2005-08-19 2007-03-01 Denso Corp 危険箇所情報表示装置
JP2012098826A (ja) * 2010-10-29 2012-05-24 Sumitomo Electric Ind Ltd 車両位置情報出力装置及びこの装置を備えた路側装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム
JP2017151148A (ja) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
JP2018147055A (ja) * 2017-03-01 2018-09-20 ソフトバンク株式会社 情報報知装置、移動体及び情報報知システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11260866B2 (en) * 2019-09-09 2022-03-01 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
WO2023175660A1 (ja) * 2022-03-14 2023-09-21 日本電気株式会社 移動体、管理サーバ、データの送信方法及び記録媒体

Also Published As

Publication number Publication date
WO2021024798A1 (ja) 2021-02-11
CN114175123B (zh) 2024-01-12
US20220301427A1 (en) 2022-09-22
CN114175123A (zh) 2022-03-11
JP7445882B2 (ja) 2024-03-08

Similar Documents

Publication Publication Date Title
WO2021024798A1 (ja) 走行支援方法、道路撮影画像収集方法、および路側装置
US10166934B2 (en) Capturing driving risk based on vehicle state and automatic detection of a state of a location
WO2016186039A1 (ja) 自動車周辺情報表示システム
JP5070809B2 (ja) 運転支援装置、運転支援方法、及び、プログラム
JP6459220B2 (ja) 事故防止システム、事故防止装置、事故防止方法
JP4990421B2 (ja) 路車協調型安全運転支援装置
JP4752836B2 (ja) 道路環境情報通知装置及び道路環境情報通知プログラム
JP4258485B2 (ja) 車両の追い越し支援装置
JP5585194B2 (ja) 事故状況記録システム
CN110920521B (zh) 显示系统、显示方法及存储介质
JP2006221537A (ja) 交通情報提供システム、交通情報提供センタ、車載用情報収集装置
JP2008250503A (ja) 運転支援装置
JP2008059082A (ja) 交差点情報提供システム及び運転支援システム
CN107406072B (zh) 车辆辅助系统
JP2004171159A (ja) 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP2009031196A (ja) 情報通知システム及びプログラム
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
JP2015219736A (ja) 運転支援装置
CN113696893A (zh) 跟车方法、车辆及计算机可读存储介质
JP2017111498A (ja) 運転支援装置
JP2019109795A (ja) 運転支援装置および運転支援システム
CN111645705A (zh) 一种下发驾驶路线调整的方法和一种服务器
JP2014044458A (ja) 車載機器、及び、危険報知方法
JP6927787B2 (ja) 車載器および運転支援装置
JP6974059B2 (ja) 車載器および運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R151 Written notification of patent or utility model registration

Ref document number: 7445882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151