JP6687169B2 - 情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム - Google Patents

情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム Download PDF

Info

Publication number
JP6687169B2
JP6687169B2 JP2019559853A JP2019559853A JP6687169B2 JP 6687169 B2 JP6687169 B2 JP 6687169B2 JP 2019559853 A JP2019559853 A JP 2019559853A JP 2019559853 A JP2019559853 A JP 2019559853A JP 6687169 B2 JP6687169 B2 JP 6687169B2
Authority
JP
Japan
Prior art keywords
sensors
information
sensor
display information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019559853A
Other languages
English (en)
Other versions
JPWO2019159494A1 (ja
Inventor
良明 林
良明 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Application granted granted Critical
Publication of JP6687169B2 publication Critical patent/JP6687169B2/ja
Publication of JPWO2019159494A1 publication Critical patent/JPWO2019159494A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/20Arrangements in telecontrol or telemetry systems using a distributed architecture
    • H04Q2209/25Arrangements in telecontrol or telemetry systems using a distributed architecture using a mesh network, e.g. a public urban network such as public lighting, bus stops or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Description

本技術は、情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置に関する。
本出願は、2018年2月13日出願の日本出願第2018−022896号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
従来、複数のセンサから受信したセンサ情報を表示機器に表示する表示制御システムが提案されている(例えば、特許文献1参照)。
この表示制御システムでは、複数のセンサから受信した情報を複数の表示機器に表示する際に、表示機器のそれぞれに合った表示情報を生成して、表示機器に表示させる。
特開2009−206750号公報
(1)上記目的を達成するために、本発明の一実施態様に係る情報生成装置は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部とを備える。
(20)本発明の他の実施態様に係る情報生成方法は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するステップと、取得された前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断するステップと、前記判断するステップにおける判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成するステップとを含む。
(21)本発明の他の実施態様に係るコンピュータプログラムは、コンピュータを、互いに共通する検出対象エリアを持つ複数のセンサの各々から、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部、及び前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部として機能させる。
(22)本発明の他の実施態様に係る車載装置は、上述の情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部とを備える。
本発明の実施形態に係る無線通信システムの全体構成図である。 サーバの構成の一例を示すブロック図である。 センサ情報取得部が取得するセンサ情報の一例を示す図である。 第1表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明するための図である。 車載装置の構成の一例を示すブロック図である。 路側センサの構成の一例を示すブロック図である。 車載装置、車載カメラ、車載ミリ波レーダ、路側カメラ、路側ミリ波レーダ、およびサーバの協働により実行される、表示情報の配信処理の一例を示すシーケンス図である。 表示情報生成処理(図8のステップS9)の詳細を示すフローチャートである 対象物を判断対象とするか否かの判断基準を示すための図である。
[本開示が解決しようとする課題]
複数のセンサ情報を情報源として、自動車等の車両の運転支援制御に役立つ情報を生成することが望まれている。
しかしながら、従来の表示制御システムでは、表示機器に対応した表示方法に着目されており、複数のセンサが検出した対象物をどのように表示するかについては考慮されていない。各センサの精度は様々であり、センサが高精度であったとしても、センサと対象物との間の遮蔽物の存在等によっては、当該センサによって、適切に対象物が検出できない場合がある。
例えば、複数のセンサの重なり合う計測対象エリアにおいてそれぞれのセンサが対象物を検出した場合に、センサごとの検出精度の違い等により、同一の対象物が別個の対象物と誤検出されてしまう場合がある。このような場合に、同一の対象物を別個の対象物とする表示情報が生成されるため、適切な運転支援制御を行うことが困難になる場合がある。
本開示は、このような事情に鑑みてなされたものであり、複数のセンサ情報から、適切な表示情報を生成することのできる情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置を提供することを目的とする。
[本開示の効果]
本開示によると、複数のセンサ情報から、適切な表示情報を生成することができる。
[本願発明の実施形態の概要]
最初に本発明の実施形態の概要を列記して説明する。
(1)本発明の一実施形態に係る情報生成装置は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部とを備える。
この構成によると、複数のセンサの各々が所定エリアに存在する対象物を検出している場合に、所定条件を満たす場合と満たさない場合とで、対象物の表示態様を変化させることができる。例えば、複数の対象物が異なる対象物である場合に複数の対象物を別個に表示させ、複数の対象物が同一の対象物である場合に、上記表示とは異なる表示態様で複数の対象物を表示させることができる。これにより、複数の対象物が異なる対象物と判断されたのか、同一の対象物と判断されたのかの別をユーザは知ることができる。これにより、複数のセンサ情報から、適切な表示情報を生成することができる。
(2)好ましくは、前記複数のセンサの一つから得られたセンサ情報に基づく対象物の位置から所定距離内のエリアを前記所定エリアとする。
この構成によると、所定エリアに含まれる対象物が単数となるように、所定エリアを設定しやすい。
(3)さらに好ましくは、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物のうち、いずれか1つの前記対象物を表示するための情報を含む。
この構成によると、例えば、所定エリアに存在する複数の対象物が同一の対象物である場合に、1つの対象物しか表示されないようにすることができる。これにより、実際の対象物と同じ数の対象物を表示させることができる。
(4)また、前記表示情報生成部は、前記複数のセンサの種別に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する。
この構成によると、検出精度の高いセンサにより選択された対象物を選択して表示させることができる。これにより、対象物を高精度で表示させることができる。
(5)また、前記表示情報生成部は、前記複数のセンサの設置対象に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成してもよい。
この構成によると、例えば、路側等に設置された路側センサの検出結果を、車載センサの検出結果よりも優先させて対象物を選択させることができる。路側センサは固定されているため、センサが移動する車載センサよりもセンサ自体の位置精度が高く、これにより、対象物の検出精度も高くなる。このため、対象物を高精度で表示させることができる。
(6)また、前記表示情報生成部は、前記各センサから当該各センサが検出した前記対象物までの距離に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成してもよい。
この構成によると、例えば、対象物までの距離が近いセンサを優先させて、センサが検出した対象物を選択することができる。センサに近い位置では遠い位置に比べて、対象物を高精度に検出することができる。これにより、対象物を高精度で表示させることができる。
(7)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を統合した対象物を表示するための情報を含んでもよい。
この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、複数の対象物を1つに統合して表示することができる。これにより、実際の対象物と同じ数の対象物を表示させることができる。
(8)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を点滅させて表示するための情報を含んでもよい。
この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、複数の対象物を点滅させて表示することができる。これにより、複数の対象物が同一の対象物であることをユーザに知らせることができる。
(9)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物の平均の位置に1つの対象物を表示するための情報を含んでもよい。
この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、1つの対象物しか表示されないようにすることができる。また、対象物の表示位置は、複数の対象物の平均の位置である。位置を平均することにより、対象物の位置を正確な位置に近づけることができる。これにより、実際の対象物と同じ数の対象物を正確な位置に表示させることができる。
(10)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の位置に基づく条件を含んでもよい。
この構成によると、所定エリアに存在する複数の対象物の位置に基づいて、複数の対象物が同一の対象物か否かを判定することができる。
(11)また、前記所定の条件は、前記複数のセンサが過去の所定時刻において検出した前記対象物間の距離が所定の距離閾値以下であることを含んでもよい。
複数の対象物が同一の場合には、過去の所定時刻において複数の対象物は同じ位置に存在する。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(12)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の方向の差が所定の角度閾値以下であることを含んでもよい。
複数の対象物が同一の場合には、複数の対象物は同じ方向を向いている。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(13)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の速度の差が所定の速度閾値以下であることを含んでもよい。
複数の対象物が同一の場合には、複数の対象物の速度は同じである。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(14)また、前記各閾値は、前記複数のセンサの種別に基づいて定められてもよい。
センサの種別によって、センサの検出精度は異なる。このため、高精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、低精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(15)また、前記各閾値は、前記複数のセンサの設置対象に基づいて定められてもよい。
例えば、路側等に設置された路側センサは、車載センサよりも検出精度が高い。このため、複数の路側センサの各々が対象物を検出した場合には閾値を小さな値に設定し、複数の車載センサの各々が対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(16)また、前記各閾値は、前記複数のセンサの検出精度に基づいて定められてもよい。
この構成によると、高精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、低精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(17)また、前記各閾値は、前記複数のセンサの位置精度に基づいて定められてもよい。
対象物の位置は、センサの位置と、センサから対象物までの距離に基づいて定められるため、センサの位置精度は対象物の位置精度に影響を与える。このため、位置精度が高い複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、位置精度が低い複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(18)また、前記所定の条件は、前記複数のセンサが検出した前記対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含んでもよい。
同一車線を走行する車両同士または隣接する車線を並走する車両同士は、近い位置を同一の方向に同一の速度で走行する場合がある。このような場合には、これらの車両同士が同一の対象物か否かを判断するのが困難な場合がある。このような場合に、対象物のサイズ、色および形状のうちの少なくとも1つに基づいた条件の判断処理を行うことで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(19)また、前記判断部は、前記各センサと当該各センサが検出した前記対象物との位置関係に基づいて、検出した当該対象物を判断対象とするか否かを決定してもよい。
この構成によると、例えば、センサの検出範囲内に対象物が存在しており、対象物までの距離が近い場合にのみ、所定エリアに存在する複数の対象物が同一の対象物か否かを判定することができる。これにより、センサから遠方に位置する検出精度の低い対象物に対しては判定処理を行わずに、検出精度の高い対象物に対してのみ判定処理を行うようにすることができる。これにより、判定処理の信頼性を高めることができ、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
(20)本発明の他の実施形態に係る情報生成方法は、上述の情報生成装置が実行する処理を含む。
このため、上述の情報生成装置と同様の作用および効果を奏することができる。
(21)本発明の他の実施形態に係るコンピュータプログラムは、コンピュータを、上述の情報生成装置として機能させる。
このため、上述の情報生成装置と同様の作用および効果を奏することができる。
(22)本発明の他の実施形態に係る車載装置は、上述の情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部とを備える。
この構成によると、上述の情報生成装置で作成された第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を画面に表示することができる。このため、複数のセンサ情報から生成された適切な表示情報を画面に表示することができる。
[本願発明の実施形態の詳細]
以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下で説明する実施形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲によって特定される。よって、以下の実施形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
[無線通信システムの全体構成]
図1は、本発明の実施形態に係る無線通信システムの全体構成図である。
図1に示すように、本実施形態の無線通信システムは、車両制御システムとして機能し、無線通信が可能な複数の路側センサ1および車両2と、路側センサ1および車両2と無線通信する1または複数の基地局4と、基地局4とネットワークを介して有線または無線で通信するサーバ5とを備える。
基地局4は、マクロセル基地局、マイクロセル基地局、およびピコセル基地局のうちの少なくとも1つよりなる。
本実施形態の無線通信システムにおいて、サーバ5は、例えば、SDN(Software-Defined Networking)が可能な汎用サーバよりなる。また、基地局4および図示しないリピータなどの中継装置は、SDNが可能なトランスポート機器によりなる。
上記のSDNに代表されるネットワーク仮想化技術は、現時点で規格化が進行中の「第5世代移動通信システム」(以下、「5G」(5th Generation)と略記する。)の基本コンセプトである。したがって、本実施形態の無線通信システムは、例えば5Gよりなる。
路側センサ1は、無線通信機能を有し、道路に設置された画像式車両感知器またはLiDAR、屋外または屋内に設置された防犯カメラなどの各種センサを含んで構成される。
車両2は、無線通信機能を有する車載装置3を含む。車載装置3は、カメラ、ミリ波レーダなどの各種センサ(以下、「車載センサ」という。)を含んで構成される。
車両2には、通常の乗用車だけでなく、路線バスや緊急車両などの公共車両も含まれる。また、車両2は、四輪車だけでなく、二輪車(バイク)であってもよい。
車両2の駆動方式は、エンジン駆動、電気モータ駆動、およびハイブリッド方式のいずれでもよい。車両2の運転方式は、搭乗者が加減速やハンドル操舵などの操作を行う通常運転、およびその操作をソフトウェアが実行する自動運転のいずれでもよい。
[サーバの構成]
図2は、サーバ5の構成の一例を示すブロック図である。
図2に示すように、サーバ5は、情報生成装置として機能し、CPU(Central Processing Unit)などを含む制御部51と、ROM(Read Only Memory)55と、RAM(Random Access Memory)56と、記憶部57と、通信部58とを備える。
制御部51は、ROM55に予め記憶された1または複数のプログラムをRAM56に読み出して実行することにより、各ハードウェアの動作を制御し、コンピュータ装置を基地局4と通信可能なサーバ5として機能させる。つまり、制御部51は、プログラムを実行することにより実現される機能な処理部として、センサ情報取得部52と、判断部53と、表示情報生成部54とを備える。
RAM56は、SRAM(Static RAM)またはDRAM(Dynamic RAM)などの揮発性のメモリ素子で構成され、制御部51が実行するプログラムおよびその実行に必要なデータを一時的に記憶する。
記憶部57は、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、または、ハードディスクなどの磁気記憶装置などにより構成されている。
通信部58は、5G対応の通信処理を実行する通信装置よりなり、ネットワークを介して基地局4と通信する。通信部58は、制御部51から与えられた情報を、ネットワークを介して外部装置に送信するとともに、ネットワークを介して受信した情報を制御部51に与える。
制御部51のセンサ情報取得部52は、所定の周期ごとに、サーバ5のサービスエリア内で車両2や路側センサ1などが計測した各種のセンサ情報を、車両2や路側センサ1などから取得する。つまり、センサ情報取得部52は、各センサから、当該センサの検出対象エリアの計測結果を示すセンサ情報を取得する。
図3は、センサ情報取得部52が取得するセンサ情報の一例を示す図である。
例えば、路側には、路側センサ1としてミリ波レーダ(以下、「路側ミリ波レーダ」という。)1Mと、カメラ(以下、「路側カメラ」という。)1Cとが設置されているものとする。路側ミリ波レーダ1Mは、検出対象エリア7Mを監視し、検出対象エリア7M内で車両2Iを検出したものとする。一方、路側カメラ1Cは、検出対象エリア7Cを監視し、検出対象エリア7C内で車両2Jを検出したものとする。これにより、センサ情報取得部52は、路側ミリ波レーダ1Mから車両2Iの位置情報を含むセンサ情報を取得し、路側カメラ1Cから車両2Jの位置情報を含むセンサ情報を取得する。なお、図3には、路側センサ1を示しているが、車載センサであってもよい。また、路側センサ1として、LiDARや超音波センサなどを用いてもよい。
制御部51の判断部53は、センサ情報取得部52が取得したセンサ情報に基づいて、複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する。
図3に示した例で車両2Iから所定距離以内のエリア8を所定エリアとした場合には、エリア8内に車両2Iおよび2Jが検出されている。このため、判断部53による上記の判断結果は肯定的である。なお、この所定エリアに含まれる車両は基本的に1台となるように、車両の大きさを考慮してこの所定距離を定めるとし、所定エリアに含まれる車両が複数か否かは判断部53によって判断している。
制御部51の表示情報生成部54は、判断部53の判断結果が肯定的であり、かつ所定の条件を満たさない場合に、複数のセンサの各々が検出した対象物を別個に表示するための第1表示情報を生成する。ここで、所定の条件とは、上記の所定エリア(エリア8)に存在する複数の対象物が同一の対象物であると判断するための条件である。所定の条件の詳細については後述する。つまり、表示情報生成部54は、所定エリア内に複数の対象物が検出され、当該複数の対象物が異なる対象物である場合に、それら複数の対象物を別々に表示するための第1表示情報を生成する。
図4Aは、第1表示情報の一例を示す図である。第1表示情報においては、車両2Iと車両2Jとが別々に表示される。なお、第1表示情報および後述する第2表示情報において、各車両は、例えば、車両のアイコンで表示される。
一方、表示情報生成部54は、判断部53の判断結果が肯定的であり、かつ上記所定の条件を満たす場合に、第1表示情報の表示態様とは異なる表示態様で複数のセンサの各々が検出した対象物を表示するための第2表示情報を生成する。つまり、表示情報生成部54は、所定エリア内に複数の対象物が検出され、当該複数の対象物が同一の対象物である場合に、それら複数の対象物を、第1表示情報の表示態様とは異なる表示態様で表示するための第2表示情報を生成する。
図4B〜図4Fの各々は、第2表示情報の一例を示す図である。
図4Bに示す第2表示情報においては、複数のセンサの各々が検出した対象物のうち、いずれか1つの対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jのうち、車両2Jが選択されて表示される。なお、車両2Iが選択されて表示されてもよい。表示対象の対象物はランダムに選択されてもよいし、以下に説明する基準に従い選択されてもよい。
例えば、表示情報生成部54は、複数のセンサの種別に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。カメラやLiDARは高精度であるが、ミリ波レーダはそれらに比べて低精度である。このため、精度の高い順にセンサの優先順位を決めておき、表示情報生成部54は、優先順位が最も高いセンサが検出した対象物を選択するようにしてもよい。これにより、対象物を高精度で表示させることができる。ここで、サーバ5は、センサ種別とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサ種別を判断してもよい。なお、センサ情報にセンサの検出精度情報が付加されていてもよい。これにより、表示情報生成部54は、検出精度情報に基づいて、高い検出精度のセンサ情報を優先して、当該センサ情報に対応する対象物を選択することができる。
また、表示情報生成部54は、複数のセンサの設置対象に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。路側等に設置された路側センサ1は、車両2に設置された車載センサよりも検出精度が高い場合が多い。このため、表示情報生成部54は、路側センサ1が検出した対象物を、車載センサが検出した対象物よりも優先して選択する。これにより、対象物を高精度で表示させることができる。ここで、サーバ5は、センサの設置対象とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの設置対象を判断してもよい。
また、表示情報生成部54は、各センサから当該センサが検出した対象物までの距離に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。対象物までの距離が近いほどセンサの検出精度は高い。このため、表示情報生成部54は、対象物までの距離が最も近いセンサが検出した対象物を選択する。これにより、対象物を高精度で表示させることができる。
図4Cに示す第2表示情報においては、複数のセンサの各々が検出した対象物の平均の位置に1つの対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jの平均の位置に、車両2Lが表示される。位置を平均することにより、対象物の位置を正確な位置に近づけることができる。これにより、実際の対象物と同じ数の対象物を正確な位置に表示させることができる。
図4Dに示す第2表示情報においては、複数のセンサの各々が検出した対象物を統合した対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jの位置に、車両2Iおよび車両2Jをカバーするサイズの車両2Nが表示される。
図4Eに示す第2表示情報においては、複数のセンサの各々が検出した対象物が点滅しながら表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jが点滅しながら表示される。これにより、車両2Iおよび車両2Jが同一の車両2であることをユーザに知らせることができる。
図4Fに示す第2表示情報においては、複数のセンサの各々が検出した対象物が、第1表示情報で示された対象物と異なる色で表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jが、それらとは異なる色で表示される。
表示情報生成部54は、例えば、図4B〜図4Fに示した少なくとも1つの表示態様の第2表示情報を作成する。なお、表示情報生成部54は、これらの表示態様を組み合わせた第2表示情報を作成することもできる。
表示情報生成部54は、車両2の車載装置3や、ユーザが所持する通信端末から、表示情報の要求メッセージを受信すると、生成した表示情報を要求メッセージの送信元の車載装置3または通信端末に配信する。
次に、所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明する。
図5は、所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明するための図である。
所定の条件は、複数のセンサが検出した対象物の位置に基づく条件を含む。例えば、複数の対象物が同一の対象物である場合には、現在および過去のいずれにおいても、複数の対象物の位置は一致していると考えられる。一方、複数の対象物が異なる対象物である場合には、複数の対象物の現在の位置が一致していたとしても、過去において両者の位置は異なると考えられる。このため、表示情報生成部54は、現在時刻よりk秒前(kは正の値)の時刻において複数の対象物の位置が一致していれば、それらは同一の対象物であると判断し、一致していなければ、それらが別の対象物であると判断する。なお、厳密に対象物の位置が一致してなくても、対象物間の距離が所定の距離閾値以下である場合に両者の位置は一致しているとすることができる。なお、距離閾値は正の値である。
図5に示すように、車両2Iは北向きに走行し、車両2Kは東向きに走行しているものとする。この場合、現在時刻tにおいて両者の位置は一致しているが、現在時刻tよりもk秒前の時刻(t−k)においては両者の位置は異なる。このため、表示情報生成部54は、車両2Kおよび車両2Jは別の車両であると判断する。
所定の条件は、複数のセンサが検出した対象物の方向の差が所定の角度閾値以下であることを含んでいてもよい。つまり、表示情報生成部54は、方向の差が所定の角度閾値以下の場合に複数の対象物が同一であると判定し、方向の差が所定の角度閾値よりも大きい場合に複数の対象物が異なると判定する。なお、角度閾値は正の値である。図5に示す例では、車両2Iは、その位置変化から北向きに走行していると判断することができ、車両2Kは、その位置変化から東向きに走行していると判断することができる。このため、両者の方向の差は、およそ90°である。例えば角度閾値を5°とした場合には、表示情報生成部54は、車両2Kおよび車両2Jは別の車両であると判断する。
所定の条件は、複数のセンサが検出した対象物の速度の差が所定の速度閾値以下であることを含んでいてもよい。対象物の速度は、対象物の2地点間の距離および時間に基づいて算出される。速度閾値は正の値である。図5に示す例では、車両2Iおよび車両2Kの速度が、それぞれv1およびv2と算出されたものとする。表示情報生成部54は、速度v1およびv2の差の絶対値が所定の速度閾値以下の場合に、車両2Iおよび2Kが同一であると判断し、速度の差の絶対値が所定の速度閾値よりも大きい場合に、車両2Iおよび2Kが異なると判断する。
所定の条件は、複数のセンサが検出した対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含んでいてもよい。例えば、センサがカメラの場合には、対象物のサイズ、色および形状を検知することができる。
このため、所定の条件は、複数のセンサが検出した対象物のサイズの差が、所定のサイズ閾値以下であることを含んでいてもよい。例えば、対象物のサイズを画像中で対象物が占める領域の画素数とした場合には、対象物に対応する領域の画素数の差が所定のサイズ閾値以下である場合に、所定の条件を満たすとしてもよい。
また、所定の条件は、複数のセンサが検出した対象物の色の差が所定の色閾値以下であることを含んでいてもよい。例えば、対象物のR,GおよびBの各色の輝度の平均値の差が色閾値以下の場合に、所定の条件を満たすとしてもよい。
さらに、所定の条件は、複数のセンサが検出した対象物の形状が類似することを含んでいてもよい。例えば、画像中の対象物の形状を矩形近似した場合に、対象物の形状を対象物に対応する矩形の長辺と短辺の比で示す。複数のセンサが検出した対象物に対応する上記比の差が所定の比閾値以下である場合に、所定の条件を満たすとしてもよい。
対象物のサイズ、色または形状を用いて所定の条件を判断することにより、同一車線を走行する複数の車両または隣接する車線を並走する複数の車両を誤って1台の車両と判断することを防ぐことができる。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
なお、上述した各種の所定の条件を判断する際に用いられる速度閾値、角度閾値等の各種閾値は、複数のセンサの種別に基づいて定められてもよい。例えば、カメラやLiDARは高精度であるが、ミリ波レーダはそれらに比べて低精度である。このため、対象物を検出した複数のセンサの全てが高精度なセンサ(カメラまたはLiDAR)の場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に低精度なセンサ(例えば、ミリ波レーダ)が含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。このように、センサの精度に応じて閾値を設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサ種別とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサ種別を判断してもよい。
また、上記の各種閾値は、複数のセンサの設置対象に基づいて定められてもよい。路側等に設置された路側センサ1は、車両2に設置された車載センサよりも検出精度が高い場合が多い。このため、複数の路側センサ1の各々が対象物を検出した場合には閾値を小さな値(第1閾値)に設定し、複数の車載センサの各々が対象物を検出した場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定する。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの設置対象とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの設置対象を判断してもよい。
また、上記の各種閾値は、複数のセンサの検出精度に基づいて定められてもよい。対象物を検出した複数のセンサの全てが高精度なセンサの場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に低精度なセンサが含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの検出精度とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの検出精度を判断してもよい。
また、上記の各種閾値は、複数のセンサの位置精度に基づいて定められてもよい。路側等に設置された路側センサ1は固定されているため、車両2に設置された車載センサよりもセンサの位置精度が高い。対象物の絶対位置は、センサの絶対位置と、センサから対象物までの相対位置で規定することができる。このため、センサの絶対位置の検出精度が低い場合には、対象物の絶対位置の検出精度までも低くなる。つまり、センサの位置精度が高いほど、対象物の絶対位置の検出精度も高くなる。よって、対象物を検出した複数のセンサの全ての位置精度が高い場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に位置精度が低いセンサが含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの位置精度とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの位置精度を判断してもよい。また、後述するように、センサ情報にセンサの位置精度情報が含まれていてもよい。
[車載装置の構成]
図6は、車載装置3の構成の一例を示すブロック図である。
図6に示すように、車両2の車載装置3は、制御部(ECU:Electronic Control Unit)31と、GPS(Global Positioning System)受信機32と、車速センサ33と、ジャイロセンサ34と、記憶部35と、ディスプレイ36と、スピーカ37と、入力デバイス38と、カメラ39と、ミリ波レーダ40と、通信部41とを備える。
通信部41は、例えば5G対応の通信処理が可能な無線通信機よりなる。なお、通信部41は、車両2に既設の無線通信機であってもよいし、搭乗者が車両2に持ち込んだ携帯端末であってもよい。
搭乗者の携帯端末は、車両2の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。
制御部31は、車両2の経路探索および他の電子機器32〜41の制御などを行うコンピュータ装置よりなる。制御部31は、GPS受信機32が定期的に取得するGPS信号により自車両の車両位置を求める。なお、制御部31は、図示しない準天頂衛星から送信される信号を受信する受信機が受信したGPS補完信号またはGPS補強信号を合わせて用いることで、GPS信号を補完したり、自車両の車両位置を補正したりしてもよい。
制御部31は、車速センサ33およびジャイロセンサ34の入力信号に基づいて、車両位置および方位を補完し、車両2の正確な現在位置および方位を把握する。
GPS受信機32、車速センサ33およびジャイロセンサ34は、車両2の現在位置、速度および向きを計測するセンサ類である。
記憶部35は、地図データベースを備える。地図データベースは、制御部31に道路地図データを提供する。道路地図データは、リンクデータやノードデータを含み、DVD、CD−ROM、メモリカード、またはHDDなどの記録媒体に格納されている。記憶部35は、記録媒体から必要な道路地図データを読み出して制御部31に提供する。
ディスプレイ36とスピーカ37は、制御部31が生成した各種情報を車両2の搭乗者であるユーザに通知するための出力装置である。
具体的には、ディスプレイ36は、経路探索の際の入力画面、自車周辺の地図画像および目的地までの経路情報などを表示する。スピーカ37は、車両2を目的地に誘導するためのアナウンスなどを音声出力する。これらの出力装置は、通信部41が受信した提供情報を搭乗者に通知することもできる。
入力デバイス38は、車両2の搭乗者が各種の入力操作を行うためのデバイスである。入力デバイス38は、ハンドルに設けた操作スイッチ、ジョイスティック、およびディスプレイ36に設けたタッチパネルなどの組み合わせよりなる。
搭乗者の音声認識によって入力を受け付ける音声認識装置を、入力デバイス38とすることもできる。入力デバイス38が生成した入力信号は、制御部31に送信される。
カメラ39は、車両2の前方の映像を取り込む画像センサよりなる。カメラ39は、単眼または複眼のいずれでもよい。ミリ波レーダ40は、車両2の前方や周囲に存在する対象物を検出するセンサよりなる。なお、ミリ波レーダ40の代わりに、または、ミリ波レーダ40とともに、LiDARや、レーザレーダ、超音波レーダなどの各種センサを用いることができる。
制御部31は、カメラ39およびミリ波レーダ40による計測データや、サーバ5から取得したセンサ情報に基づいて、運転中の搭乗者に対する注意喚起をディスプレイ36に出力させたり、強制的なブレーキ介入を行ったりする運転支援制御を実行することができる。
制御部31は、記憶部35に格納された各種の制御プログラムを実行する、マイクロコンピュータなどの演算処理装置により構成されている。
制御部31は、上記制御プログラムを実行することにより、車両2の安全運転を支援する機能、ディスプレイ36に地図画像を表示させる機能、出発地から目的地までの経路(中継地がある場合はその位置を含む。)を算出する機能、算出した経路に従って車両2を目的地まで誘導する機能など、各種のナビゲーション機能を実行可能である。
制御部31は、カメラ39およびミリ波レーダ40のうちの少なくとも1つの計測データに基づいて、自車両の前方または周囲の対象物を認識する認識処理と、認識した対象物までの距離を算出する測距処理が可能である。
制御部31は、測距処理により算出した距離と、自車両のセンサ位置とから、認識処理によって認識した対象物の位置情報を算出することができる。
制御部31は、表示情報取得部31Aおよび表示制御部31Bを有し、サーバ5との通信において、以下の各処理を実行可能である。
1)要求メッセージの送信処理
2)表示情報の受信処理
3)通信パケットの送信処理
要求メッセージの送信処理とは、表示情報取得部31Aが、サーバ5が生成する表示情報の配信を要求する制御パケットを、サーバ5に送信する処理のことである。制御パケットには、自車両の車両IDが含まれる。
サーバ5は、所定の車両IDを含む要求メッセージを受信すると、送信元の車両IDを有する車両2の通信部41宛てに、表示情報を所定の配信周期で配信する。
表示情報の受信処理とは、表示情報取得部31Aが、自装置に宛ててサーバ5が配信した表示情報を受信する処理のことである。
表示制御部31Bは、受信した表示情報をディスプレイ36に表示させるための処理を実行する。
例えば、表示制御部31Bは、受信した表示情報を地図画像に重畳し、ディスプレイ36に表示させる。
車両2における通信パケットの送信処理とは、カメラ39またはミリ波レーダ40による対象物の検出結果を示すセンサ情報を含む通信パケットを、サーバ5宛に送信する処理のことである。通信パケットの送信処理は、サーバ5による表示情報の配信周期内に行われる。
センサ情報には、対象物の位置情報(対象物の緯度情報および経度情報)の他、車両2(カメラ39またはミリ波レーダ40)から対象物までの距離情報、車両2の位置情報(車両2の緯度情報よび経度情報)、車両2の速度情報、車両2の方位情報、センサの位置精度情報などが含まれる。センサの位置精度情報とは、つまり、車両2の位置精度を示す情報のことである。センサの位置精度情報は、例えば、以下に示す(a)〜(g)などにより定められる。
(a)DR(自律航法、ジャイロセンサ34や車速センサ33などの車速パルスやバック信号による位置の補正)の有無
(b)マップマッチングによる補正の有無
(c)記憶部35に記憶されている道路地図データの精度
(d)車両2の位置を求める際に用いたGPS衛星の数
(e)GPS受信機32のC/N0(搬送波雑音電力密度比)
(f)GPSクオリティ
(g)PDOP(位置精度低下率)
制御部31は、通信パケットに自車両の車両IDを含めて、サーバ5宛に送信する。
[路側センサの構成]
図7は、路側センサ1の構成の一例を示すブロック図である。
図7に示すように、路側センサ1は、制御部11と、記憶部12と、カメラ13と、ミリ波レーダ14と、通信部15とを備える。
通信部15は、例えば5G対応の通信処理が可能な無線通信機よりなる。
したがって、路側センサ1は、サーバ5と通信することができる。
制御部11は、CPU、ROM及びRAMなどを含む。制御部11は、記憶部12に記憶されたプログラムを読み出して実行し、路側センサ1の全体の動作を制御する。
記憶部12は、ハードディスクや不揮発性のメモリなどより構成され、各種のコンピュータプログラムやデータを記憶する。記憶部12は、路側センサ1の識別情報であるセンサIDを記憶している。センサIDは、例えば、路側センサ1の所有者固有のユーザIDやMACアドレスなどよりなる。
カメラ13は、所定の撮影エリアの映像を取り込む画像センサよりなる。カメラ13は、単眼又は複眼のいずれでもよい。ミリ波レーダ14は、ミリ波レーダ14の前方や周囲に存在する対象物を検出するセンサよりなる。なお、ミリ波レーダ14の代わりに、または、ミリ波レーダ14とともに、LiDARや、レーザレーダ、超音波レーダなどの各種センサを用いることができる。
また、路側センサ1には、カメラ13およびミリ波レーダ14のいずれか1つのみが備えられていてもよい。
制御部11は、カメラ13及びミリ波レーダ14のうちの少なくとも1つの計測データに基づいて、撮影エリア内の対象物を認識する認識処理と、認識した対象物までの距離を算出する測距処理が可能である。
制御部11は、測距処理により算出した距離と、自車両のセンサ位置とから、認識処理によって認識した対象物の位置情報を算出することができる。
制御部11は、サーバ5との通信において、通信パケットの送信処理を実行可能である。
路側センサ1による通信パケットの送信処理とは、カメラ13またはミリ波レーダ14による対象物の検出結果を示すセンサ情報を含む通信パケットを、サーバ5宛に送信する処理のことである。通信パケットの送信処理は、サーバ5による表示情報の配信周期内に行われる。
センサ情報には、対象物の位置情報(対象物の緯度情報および経度情報)や、路側センサ1から対象物までの距離情報などが含まれる。
制御部11は、通信パケットにセンサIDを含めて、サーバ5宛に送信する。
[表示情報の配信処理]
図8は、車載装置3、車載カメラ2C、車載ミリ波レーダ2M、路側カメラ1C、路側ミリ波レーダ1M、およびサーバ5の協働により実行される、表示情報の配信処理の一例を示すシーケンス図である。図8に示されるシーケンスを所定間隔(例えば、100msec間隔)で繰り返すことにより、所定間隔で安全運転支援のための機能が選択され、配信される。
ここで、車載装置3は、表示情報の提供を受ける車両2に設置された車載装置を示す。車載カメラ2Cは、カメラ39を備える車載装置3を示す。車載ミリ波レーダ2Mは、ミリ波レーダ40を備える車載装置3を示す。路側カメラ1Cは、カメラ13を備える路側センサ1を示す。路側ミリ波レーダ1Mは、ミリ波レーダ14を備える路側センサ1を示す。ただし、これらのセンサは、一例であり、いずれかのセンサが含まれていなくてもよいし、これ以外のセンサが含まれていてもよい。
以下では、各センサが検出する対象物は移動物体であるとして説明を行うが、検出対象物は静止物体であってもよい。
車載カメラ2Cは、カメラ39が撮像した映像データに基づいて、車載カメラ2Cを備える車両2の前方または周囲を走行する車両2または歩行者6などの移動物体を検出する(S1)。
車載ミリ波レーダ2Mは、ミリ波レーダ40の計測データに基づいて、ミリ波レーダ40を備える車両2の前方または周囲を走行する車両2または歩行者6などの移動物体を検出する(S2)。
路側カメラ1Cは、カメラ13が撮像した映像データに基づいて、路側カメラ1Cの前方または周囲を走行する他の車両2または歩行者6などの移動物体を検出する(S3)。
路側ミリ波レーダ1Mは、ミリ波レーダ14の計測データに基づいて、路側ミリ波レーダ1Mの前方または周囲を走行する他の車両2または歩行者6などの移動物体を検出する(S4)。
車載カメラ2Cは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S5)。サーバ5は、車載カメラ2Cから送信された通信パケットを受信する。
車載ミリ波レーダ2Mは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S6)。サーバ5は、車載ミリ波レーダ2Mから送信された通信パケットを受信する。
路側カメラ1Cは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S7)。サーバ5は、路側カメラ1Cから送信された通信パケットを受信する。
路側ミリ波レーダ1Mは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S8)。サーバ5は、路側ミリ波レーダ1Mから送信された通信パケットを受信する。
サーバ5は、車載カメラ2C、車載ミリ波レーダ2M、路側カメラ1Cおよび路側ミリ波レーダ1Mからそれぞれ受信した通信パケットに含まれるセンサ情報に基づいて、各センサが検出した移動物体を示した表示情報を生成する(S9)。表示情報(後述の第1表示情報、第2表示情報または第3表示情報)の生成処理(ステップS9)については後述する。
車載装置3は、表示情報の配信を要求する制御パケットを要求メッセージとしてサーバ5に送信する(S10)。
サーバ5は、車載装置3から要求メッセージを受け取り、要求メッセージの送信元である車載装置3に対して、表示情報生成処理(ステップS9)で生成された表示情報を送信する(S11)。車両2の車載装置3は、当該表示情報を受信し、受信した表示情報をディスプレイ36に表示させるための処理を実行する。
[表示情報生成処理(図8のステップS9)]
表示情報生成処理(図8のステップS9)の詳細について、説明する。
図9は、表示情報生成処理(図8のステップS9)の詳細を示すフローチャートである。
図9を参照して、サーバ5の判断部53は、センサ情報取得部52が取得したセンサ情報に基づいて、あるセンサが検出した移動物体(以下、「第1物体」という。)から所定距離範囲内に他のセンサが検出した移動物体(以下、「第2物体」という。)が存在するか否かを判断する(S21)。図3を参照して、第1物体を車両2Iとし、所定距離範囲をエリア8とした場合、第1物体から所定距離範囲内に第2物体である車両2Jが存在することとなる。
ステップS21の判断結果が肯定的である場合には(S21でYES)、表示情報生成部54は、現在時刻よりk秒前(kは正の値)の時刻において第1物体および第2物体の位置が一致しているか否かを判断する(S22)。つまり、表示情報生成部54は、現在時刻よりもk秒前の第1物体および第2物体間の距離が所定の距離閾値以下である場合に両者の位置が一致していると判断し、当該距離が距離閾値よりも大きい場合に両者の位置が一致していないと判断する。図5は、k秒前の位置が一致していない車両2Kおよび車両2Iを示している。
第1物体および第2物体のk秒前の位置が一致している場合には(S22でYES)、表示情報生成部54は、第1物体および第2物体の進行方向が一致しているか否かを判断する(S23)。つまり、表示情報生成部54は、第1物体および第2物体の方向の差が所定の角度閾値以下である場合に進行方向が一致していると判断し、当該方向の差が角度閾値よりも大きい場合に進行方向が一致していないと判断する。図5は、進行方向が一致していない車両2Kおよび車両2Iを示している。
第1物体および第2物体の進行方向が一致している場合には(S23でYES)、表示情報生成部54は、第1物体および第2物体の速度が一致しているか否かを判断する(S24)。つまり、表示情報生成部54は、第1物体および第2物体の速度の差の絶対値が所定の速度閾値以下の場合に、両者の速度が一致していると判断し、速度の差の絶対値が速度閾値よりも大きい場合に、両者の速度が異なると判断する(S24)。
第1物体および第2物体の速度が一致している場合には(S24でYES)、表示情報生成部54は、第1物体および第2物体が同一の移動物体であると判断し、第1物体および第2物体を統合して表示するための第2表示情報を生成する(S25)。第2表示情報の例は、図4B〜図4Dに示した通りである。なお、第2表示情報は、図4Eまたは図4Fに示したような第1物体および第2物体を統合せずに表示するための表示情報であってもよい。
ステップS22〜24のいずれかの判断結果が否定的である場合には(S22でNO、S23でNOまたはS24でNO)、表示情報生成部54は、第1物体および第2物体が異なる移動物体であると判断し、第1物体および第2物体をそれぞれ表示する第1表示情報を生成する(S26)。第1表示情報の例は、図4Aに示した通りである。
第1物体から所定距離範囲内に第2物体が存在しない場合には(S21でNO)、表示情報生成部54は、第1表示物体を表示するための第3表示情報を生成する(S27)。
[実施形態の効果]
以上説明したように、本発明の実施形態によると、複数のセンサの各々が所定エリアに存在する対象物を検出している場合に、所定条件を満たす場合と満たさない場合とで、対象物の表示態様を変化させることができる。例えば、複数の対象物が異なる対象物である場合に複数の対象物を別個に表示させ、複数の対象物が同一の対象物である場合に、上記表示とは異なる表示態様で複数の対象物を表示させることができる。これにより、複数の対象物が異なる対象物と判断されたのか、同一の対象物と判断されたのかの別をユーザは知ることができる。これにより、複数のセンサ情報から、適切な表示情報を生成することができる。
(変形例)
なお、上述した実施形態では、センサが検出した対象物の位置に制限を設けていなかったが、対象物の位置に制限を設けるようにしてもよい。
つまり、サーバ5の判断部53は、各センサと、各センサが検出した対象物との位置関係に基づいて、検出した対象物を判断対象とするか否かを決定してもよい。
図10は、対象物を判断対象とするか否かの判断基準を示すための図である。
図10に示す車載カメラの検出範囲、車載ミリ波レーダの検出範囲および車載LiDARの検出範囲は、各センサによる対象物の検出精度が高い範囲を示している。つまり、各センサは、検出範囲外の対象物も検出可能ではあるが、検出範囲外では対象物の検出精度が低い。なお、図10に示す検出範囲は一例であり、各センサの検出精度により変化する。たとえば、4Kの車載カメラに比べ8Kの車載カメラの方が検出範囲は広くなることが想定される。
図10を参照して、判断部53は、車載ミリ波レーダが検出した対象物が車載ミリ波レーダの前方に設定された車載ミリ波レーダの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
また、判断部53は、車載カメラが検出した対象物が車載カメラの前方もしくは周囲に設定された車載カメラの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
さらに、判断部53は、車載LiDARが検出した対象物が車載LiDARの前方もしくは周囲に設定された車載LiDARの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
これにより、判断部53は、検出精度が高い対象物のみを判断対象として、判断対象とされた対象物から所定距離以内に他の対象物が存在する場合に、両対象物が同一か否かの判断を行う。
本変形例によると、対象物までの距離が近い場合にのみ、所定エリアに存在する複数の対象物が同一の対象物か否かを判定することができる。これにより、センサから遠方に位置する検出精度の低い対象物に対しては判定処理を行わずに、検出精度の高い対象物に対してのみ判定処理を行うようにすることができる。これにより、判定処理の信頼性を高めることができ、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
なお、図10では、車載センサの検出範囲を示したが、路側センサの検出範囲も同様に設定されており、判断部53は、車載センサの場合と同様の処理により路側センサが検出した対象物を判断対象とするか否かを判断することができる。
以上、本発明の実施形態に係る無線通信システムについて説明したが、本発明は、この実施形態に限定されるものではない。
例えば、上記した無線通信システムは、以下の付記1に示す情報生成装置として実現することもできる。
[付記1]
各センサから、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、
上記センサ情報取得部が取得した上記センサ情報に基づいて、複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、
上記判断部の判断結果が肯定的であり、かつ上記複数のセンサが検出した上記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、上記複数のセンサの各々が検出した上記対象物を別個に表示するための第1表示情報を生成し、上記判断結果が肯定的であり、かつ上記所定の条件を満たす場合に、上記第1表示情報の表示態様とは異なる表示態様で上記複数のセンサの各々が検出した上記対象物を表示するための第2表示情報を生成する表示情報生成部と、を備え、
上記第2表示情報は、上記複数のセンサの各々が検出した上記対象物を上記第1表示情報で示された対象物と異なる色で表示するための情報を含む、情報生成装置。
また、上述の実施形態では、表示情報生成部54が、所定の条件を満たすか否かを判断することにより、所定エリアに存在する複数の対象物が同一の対象物であるか否かを判断していた。ただし、表示情報生成部54ではなく、判断部53が、所定の条件を満たすか否かを判断してもよい。
また、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
また、本発明は、上記に示す方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよい。
さらに、本発明は、上記コンピュータプログラムをコンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD−ROM、半導体メモリなどに記録したものとしてもよい。
また、本発明は、上記コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせるとしてもよい。
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 路側センサ
1C 路側カメラ
1M 路側ミリ波レーダ
2 車両
2C 車載カメラ
2I 車両
2J 車両
2K 車両
2L 車両
2M 車載ミリ波レーダ
2N 車両
3 車載装置
4 基地局
5 サーバ
6 歩行者
7C 検出対象エリア
7M 検出対象エリア
8 エリア
11 制御部
12 記憶部
13 カメラ
14 ミリ波レーダ
15 通信部
31 制御部
31A 表示情報取得部
31B 表示制御部
32 GPS受信機
33 車速センサ
34 ジャイロセンサ
35 記憶部
36 ディスプレイ
37 スピーカ
38 入力デバイス
39 カメラ
40 ミリ波レーダ
41 通信部
51 制御部
52 センサ情報取得部
53 判断部
54 表示情報生成部
55 ROM
56 RAM
57 記憶部
58 通信部

Claims (22)

  1. 互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、
    前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、
    前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部と
    を備える情報生成装置。
  2. 前記複数のセンサの一つから得られたセンサ情報に基づく対象物の位置から所定距離内のエリアを前記所定エリアとする
    請求項1に記載の情報生成装置。
  3. 前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物のうち、いずれか1つの前記対象物を表示するための情報を含む
    請求項1又は請求項2に記載の情報生成装置。
  4. 前記表示情報生成部は、前記複数のセンサの種別に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
    請求項3に記載の情報生成装置。
  5. 前記表示情報生成部は、前記複数のセンサの設置対象に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
    請求項3に記載の情報生成装置。
  6. 前記表示情報生成部は、前記各センサから当該各センサが検出した前記対象物までの距離に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
    請求項3に記載の情報生成装置。
  7. 前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を統合した対象物を表示するための情報を含む
    請求項1又は請求項2に記載の情報生成装置。
  8. 前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を点滅させて表示するための情報を含む
    請求項1又は請求項2に記載の情報生成装置。
  9. 前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物の平均の位置に1つの対象物を表示するための情報を含む
    請求項1又は請求項2に記載の情報生成装置。
  10. 前記所定の条件は、前記複数のセンサが検出した前記対象物の位置に基づく条件を含む
    請求項1〜請求項9のいずれか1項に記載の情報生成装置。
  11. 前記所定の条件は、前記複数のセンサが過去の所定時刻において検出した前記対象物間の距離が所定の距離閾値以下であることを含む
    請求項10に記載の情報生成装置。
  12. 前記所定の条件は、前記複数のセンサが検出した前記対象物の方向の差が所定の角度閾値以下であることを含む
    請求項1〜請求項11のいずれか1項に記載の情報生成装置。
  13. 前記所定の条件は、前記複数のセンサが検出した前記対象物の速度の差が所定の速度閾値以下であることを含む
    請求項1〜請求項12のいずれか1項に記載の情報生成装置。
  14. 前記各閾値は、前記複数のセンサの種別に基づいて定められる
    請求項11〜請求項13のいずれか1項に記載の情報生成装置。
  15. 前記各閾値は、前記複数のセンサの設置対象に基づいて定められる
    請求項11〜請求項13のいずれか1項に記載の情報生成装置。
  16. 前記各閾値は、前記複数のセンサの検出精度に基づいて定められる
    請求項11〜請求項13のいずれか1項に記載の情報生成装置。
  17. 前記各閾値は、前記複数のセンサの位置精度に基づいて定められる
    請求項11〜請求項13のいずれか1項に記載の情報生成装置。
  18. 前記所定の条件は、前記複数のセンサが検出した前記対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含む
    請求項1〜請求項17のいずれか1項に記載の情報生成装置。
  19. 前記判断部は、前記各センサと当該各センサが検出した前記対象物との位置関係に基づいて、検出した当該対象物を判断対象とするか否かを決定する
    請求項1〜請求項18のいずれか1項に記載の情報生成装置。
  20. 互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するステップと、
    取得された前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断するステップと、
    前記判断するステップにおける判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成するステップと
    を含む情報生成方法。
  21. コンピュータを、
    互いに共通する検出対象エリアを持つ複数のセンサの各々から、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部、
    前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部、及び
    前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部
    として機能させるためのコンピュータプログラム。
  22. 請求項1〜請求項19のいずれか1項に記載の情報生成装置と、
    前記情報生成装置とネットワークを介して接続される車載装置とを備え、
    前記車載装置は、
    前記情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、
    前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部とを含む、
    無線通信システム。
JP2019559853A 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム Active JP6687169B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018022896 2018-02-13
JP2018022896 2018-02-13
PCT/JP2018/044111 WO2019159494A1 (ja) 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置

Publications (2)

Publication Number Publication Date
JP6687169B2 true JP6687169B2 (ja) 2020-04-22
JPWO2019159494A1 JPWO2019159494A1 (ja) 2020-05-28

Family

ID=67619888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559853A Active JP6687169B2 (ja) 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム

Country Status (5)

Country Link
US (1) US11010612B2 (ja)
JP (1) JP6687169B2 (ja)
CN (1) CN111699523B (ja)
DE (1) DE112018007073T5 (ja)
WO (1) WO2019159494A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111971579A (zh) * 2018-03-30 2020-11-20 三菱电机株式会社 物体辨识装置
JP7044000B2 (ja) * 2018-07-20 2022-03-30 株式会社デンソー 車両制御装置および車両制御方法
US11808843B2 (en) * 2019-08-29 2023-11-07 Qualcomm Incorporated Radar repeaters for non-line-of-sight target detection
US11067638B2 (en) 2019-12-12 2021-07-20 Sma Solar Technology Ag Method of and system for detecting a serial arc fault in a power circuit
JP7342753B2 (ja) * 2020-03-18 2023-09-12 株式会社デンソー 車両用位置特定装置及び車両用位置特定方法
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
CN114338585A (zh) * 2021-11-30 2022-04-12 青岛海尔科技有限公司 消息推送方法、装置、存储介质及电子装置
JP7214024B1 (ja) 2022-03-09 2023-01-27 三菱電機株式会社 物体位置検出装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3923200B2 (ja) 1998-10-23 2007-05-30 本田技研工業株式会社 車両の障害物検知方法
JP4534846B2 (ja) 2005-04-13 2010-09-01 トヨタ自動車株式会社 物体検出装置
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
EP2216764A4 (en) * 2007-12-05 2012-07-25 Bosch Corp VEHICLE INFORMATION DISPLAY DEVICE
JP4881898B2 (ja) 2008-02-27 2012-02-22 日本電信電話株式会社 センサ情報の表示制御装置およびその方法、プログラム、記録媒体
US8305444B2 (en) * 2008-11-14 2012-11-06 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated visual display system
JP5669767B2 (ja) * 2011-12-13 2015-02-18 トヨタ自動車株式会社 情報提供装置
EP2746137B1 (en) * 2012-12-19 2019-02-20 Volvo Car Corporation Method and system for assisting a driver
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
US10037469B2 (en) * 2013-12-10 2018-07-31 Google Llc Image location through large object detection
JP6330160B2 (ja) * 2014-05-09 2018-05-30 本田技研工業株式会社 物体認識装置
JP6028766B2 (ja) * 2014-05-20 2016-11-16 株式会社デンソー 運転支援表示装置
DE102015108759A1 (de) * 2015-06-03 2016-12-08 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren eines länglich ausgedehnten stationären Objektes in einem seitlichen Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3330742A4 (en) * 2015-07-27 2018-08-08 Nissan Motor Co., Ltd. Object detecting method and object detecting device
KR20170058188A (ko) * 2015-11-18 2017-05-26 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
JP6493365B2 (ja) * 2016-05-19 2019-04-03 株式会社デンソー 車両制御装置、車両制御方法
JP6625932B2 (ja) * 2016-05-31 2019-12-25 株式会社東芝 監視装置及び監視システム
JP2017083477A (ja) * 2017-02-07 2017-05-18 パイオニア株式会社 表示制御方法、プログラムおよび表示装置

Also Published As

Publication number Publication date
CN111699523A (zh) 2020-09-22
CN111699523B (zh) 2022-07-05
US11010612B2 (en) 2021-05-18
JPWO2019159494A1 (ja) 2020-05-28
DE112018007073T5 (de) 2020-11-12
US20200143167A1 (en) 2020-05-07
WO2019159494A1 (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
JP6687169B2 (ja) 情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム
US11308807B2 (en) Roadside device, communication system, and danger detection method
US11039384B2 (en) Wireless communication system, information acquiring terminal, computer program, method for determining whether to adopt provided information
US20200005644A1 (en) Information providing system, server, mobile terminal, and computer program
US10531254B2 (en) Millimeter wave vehicle-to-vehicle communication system for data sharing
US11683684B2 (en) Obtaining a credential for V2X transmission on behalf of a vehicle
WO2017145650A1 (ja) 車載機及び道路異常警告システム
US11682300B2 (en) Techniques for utilizing a mobile device as a proxy for a vehicle
US20210014643A1 (en) Communication control device, communication control method, and computer program
US11511767B2 (en) Techniques for utilizing CV2X registration data
JP2006279859A (ja) 移動体移動実態情報提供システム、位置情報収集装置、カーナビ装置および移動体移動実態情報提供方法
JP6375772B2 (ja) 通報システム、情報処理システム、サーバ装置、端末装置、及びプログラム
WO2019131075A1 (ja) 送信装置、点群データ収集システムおよびコンピュータプログラム
JP2019203823A (ja) 走行計画生成装置、走行計画生成方法、及び制御プログラム
JP2020027645A (ja) サーバ、無線通信方法、コンピュータプログラム、及び車載装置
JP6903598B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、および移動体
KR101850254B1 (ko) 커넥티드 카 환경을 지원하기 위한 차량간 통신 시스템
JP2019079453A (ja) 情報生成システム、情報生成装置、情報生成方法およびコンピュータプログラム
JP2020091614A (ja) 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
JP2019079454A (ja) 車両制御システム、機能通知装置、機能通知方法およびコンピュータプログラム
WO2014002485A1 (ja) 無線装置
JP6536445B2 (ja) 車両用通信制御装置
JP2020091612A (ja) 情報提供システム、サーバ、及びコンピュータプログラム
WO2023176587A1 (ja) 交通通信システム、第1の端末、プログラム、及び通信方法
JP2020098532A (ja) 動的情報生成装置、車載装置、動的情報生成方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200121

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6687169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250