JP2019185366A - Information processing device, system, method, and computer program - Google Patents

Information processing device, system, method, and computer program Download PDF

Info

Publication number
JP2019185366A
JP2019185366A JP2018075101A JP2018075101A JP2019185366A JP 2019185366 A JP2019185366 A JP 2019185366A JP 2018075101 A JP2018075101 A JP 2018075101A JP 2018075101 A JP2018075101 A JP 2018075101A JP 2019185366 A JP2019185366 A JP 2019185366A
Authority
JP
Japan
Prior art keywords
information
sensor data
time
unit
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018075101A
Other languages
Japanese (ja)
Other versions
JP7187806B2 (en
Inventor
伸介 黒田
Shinsuke Kuroda
伸介 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2018075101A priority Critical patent/JP7187806B2/en
Publication of JP2019185366A publication Critical patent/JP2019185366A/en
Application granted granted Critical
Publication of JP7187806B2 publication Critical patent/JP7187806B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing device capable of using differently delayed sensor data items to support safety with a real time characteristic ensured.SOLUTION: An information processing device includes a receiving unit that receives sensor data items sent from plural sensors respectively, a determination unit that determines on the basis of pieces of delay information concerning communication delays of the respective sensor data items whether predictive analysis processing of predicting a future state should be performed on each of the sensor data items received by the receiving unit, a predictive analysis processing unit that performs the predictive analysis processing on sensor data, for which a result of determination by the determination unit is positive, so as to produce prediction information, a real-time analysis processing unit that performs real-time analysis processing on sensor data, for which the result of determination by the determination unit is negative, so as to produce real-time information, and an information output unit that outputs the prediction information, which is produced by the predictive analysis processing unit, and the real-time information, which is produced by the real-time analysis processing unit, to outside the information processing device.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置、システム、方法、及びコンピュータプログラムに関する。   The present invention relates to an information processing apparatus, system, method, and computer program.

自動車及び自動二輪車等(以下「車両」と呼ぶ)の運転に関して運転者を支援する運転支援システムが提案されている。こうした運転支援システムは、種々の情報を処理するための情報処理装置(サーバ)を含む。情報処理装置は、道路及びその周辺に設置された検知装置(カメラ、レーダ装置等)から情報を収集する。例えば、交差点等にカメラが設置されている場合、当該カメラで撮影された映像データ(センサデータ)は通信回線を介して情報処理装置に送信される。情報処理装置は、送信されたセンサデータを受信して解析し、当該解析によって得られた交通に関する情報を運転支援情報として車両に提供する。   There has been proposed a driving support system that supports a driver regarding driving of an automobile, a motorcycle, and the like (hereinafter referred to as “vehicle”). Such a driving support system includes an information processing device (server) for processing various information. The information processing device collects information from roads and detection devices (cameras, radar devices, etc.) installed around the road. For example, when a camera is installed at an intersection or the like, video data (sensor data) captured by the camera is transmitted to the information processing apparatus via a communication line. The information processing apparatus receives and analyzes the transmitted sensor data, and provides the vehicle with information related to traffic obtained by the analysis as driving support information.

道路等に複数の検知装置が設置されている場合、情報処理装置には各検知装置から送信されるセンサデータが入力される。後掲の特許文献1には、こうした構成が開示されている。具体的には、特許文献1には、複数の街頭カメラで捉えた各所の映像を同じ通信回線を介して受信局に伝送するシステムが開示されている。各映像データは通信経路上に位置する複数の中継器を介して伝送される。中継器間のリンクのスループットは時間的に一定ではなく常に変動しているため、このスループットの変動によってサービス全体の品質が低下する。これを避けるために、通信経路のスループット変動を逐次検出して、経路状態に応じた伝送レート制御が行なわれている。特許文献1では、経路上の中継器を監視することにより、通信経路のスループット変動の検出を行なう。その際、中継器におけるデータの遅延時間に応じて中継器毎の監視の重要度を決定し、その重要度に応じて監視対象の中継器を決定する。   When a plurality of detection devices are installed on a road or the like, sensor data transmitted from each detection device is input to the information processing device. Patent Document 1 described later discloses such a configuration. Specifically, Patent Document 1 discloses a system that transmits videos of various places captured by a plurality of street cameras to a receiving station via the same communication line. Each video data is transmitted via a plurality of repeaters located on the communication path. Since the throughput of the link between the repeaters is not constant in time and constantly fluctuates, the quality of the entire service is deteriorated due to the fluctuation of the throughput. In order to avoid this, transmission rate control according to the path state is performed by sequentially detecting the throughput fluctuation of the communication path. In Patent Document 1, a change in throughput of a communication path is detected by monitoring a repeater on the path. At that time, the monitoring importance for each relay is determined according to the data delay time in the relay, and the monitoring target relay is determined according to the importance.

WO2009/150849号公報WO2009 / 150849

各検知装置が検出した各情報(センサデータ)は同じ通信回線を介して送信されるとは限らない。検知装置によっては、他の検知装置とは異なる通信回線を介して情報処理装置にセンサデータが送信されることがある。通信回線が異なると、通信速度も変わり得る。さらに、運転支援のための情報を提供する検知装置は種々のものがあり、ハードウェア側での処理時間が異なることもある。そのため、複数の検知装置からのセンサデータを運転支援に用いる場合、情報処理装置が受信するセンサデータ毎に遅延時間のばらつきが生じる。その場合、リアルタイム性を確保した安全支援を行なうことが困難になるという問題がある。   Each information (sensor data) detected by each detection device is not necessarily transmitted via the same communication line. Depending on the detection device, sensor data may be transmitted to the information processing device via a communication line different from other detection devices. Different communication lines can change the communication speed. Furthermore, there are various detection devices that provide information for driving support, and the processing time on the hardware side may be different. Therefore, when using sensor data from a plurality of detection devices for driving support, variation in delay time occurs for each sensor data received by the information processing device. In that case, there is a problem that it is difficult to provide safety support with real-time property.

特許文献1に開示の技術は、通信経路の品質低下を抑制するために、当該通信経路を監視するものである。特許文献1には、遅延時間を算出する記載があるものの、算出された遅延時間は監視対象の中継器を決定するために用いられる。そのため、特許文献1に開示の技術ではこうした問題は解決できない。   The technique disclosed in Patent Document 1 monitors a communication path in order to suppress a deterioration in the quality of the communication path. Although Patent Document 1 has a description of calculating a delay time, the calculated delay time is used to determine a relay device to be monitored. Therefore, the technique disclosed in Patent Document 1 cannot solve such a problem.

本発明は、上記のような課題を解決するためになされたものであり、本発明の1つの目的は、異なる遅延のセンサデータを活用して、リアルタイム性を確保した安全支援を行なうことが可能な情報処理装置、システム、方法、及びコンピュータプログラムを提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to provide safety support that ensures real-time performance by utilizing sensor data with different delays. An information processing apparatus, system, method, and computer program are provided.

本発明の第1の局面に係る情報処理装置は、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を情報処理装置の外部に出力する情報出力部とを含む。   An information processing apparatus according to a first aspect of the present invention includes: a receiving unit that receives sensor data transmitted from each of a plurality of detection devices; and a sensor received by the receiving unit based on delay information related to communication delay of the sensor data. A determination unit that determines whether or not to execute a prediction analysis process that predicts a future state for each of the data, and a prediction analysis process that is performed on sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit that generates prediction information, a real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and a prediction analysis processing unit An information output unit that outputs the generated prediction information and the real-time information generated by the real-time analysis processing unit to the outside of the information processing apparatus.

本発明の第2の局面に係るシステムは、互いに通信可能に接続された複数の情報処理装置を含み、外部への情報提供処理を複数の情報処理装置にて分散処理するシステムである。複数の情報処理装置は第1の情報処理装置及び第2の情報処理装置を含む。このシステムは、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を情報処理装置の外部に出力する情報出力部とを含む。第1の情報処理装置は、予測解析処理部による処理を実行し、第2の情報処理装置は、リアルタイム解析処理部による処理を実行する。   A system according to a second aspect of the present invention is a system that includes a plurality of information processing apparatuses that are communicably connected to each other, and performs distributed processing of information providing processing to the outside by the plurality of information processing apparatuses. The plurality of information processing apparatuses include a first information processing apparatus and a second information processing apparatus. This system has a receiving unit that receives sensor data respectively transmitted from a plurality of detection devices, and a future state for each of the sensor data received by the receiving unit based on delay information related to communication delay of the sensor data. A determination unit that determines whether or not to perform a prediction analysis process that predicts a prediction analysis process unit that generates prediction information by performing a prediction analysis process on sensor data for which the determination result of the determination unit is positive; A real-time analysis processing unit that generates real-time information by performing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and prediction information and real-time analysis processing unit generated by the prediction analysis processing unit And an information output unit that outputs the generated real-time information to the outside of the information processing apparatus. The first information processing device executes processing by the prediction analysis processing unit, and the second information processing device executes processing by the real-time analysis processing unit.

本発明の第3の局面に係るシステムは、受信したセンサデータを解析処理してその解析結果を配信する情報処理装置と、車両に搭載され、情報処理装置から配信される解析結果を受信する通信端末とを含むシステムである。このシステムにおいて、情報処理装置は、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を統合する統合部と、統合部によって統合された、予測情報及びリアルタイム情報を通信端末に配信する情報配信部とを含む。通信端末は、情報配信部が配信した統合情報を受信して、受信した統合情報を当該通信端末が搭載される車両の搭乗者に通知する情報通知部を含む。   A system according to a third aspect of the present invention includes an information processing device that analyzes received sensor data and distributes the analysis result, and a communication that is mounted on the vehicle and receives the analysis result distributed from the information processing device. A system including a terminal. In this system, the information processing device is configured to receive each of the sensor data received by the receiving unit based on the receiving unit that receives the sensor data transmitted from each of the plurality of detecting devices and the delay information regarding the communication delay of the sensor data. A determination unit that determines whether or not to execute a prediction analysis process that predicts a future state, and generates prediction information by executing the prediction analysis process on sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit; a real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative; and prediction information generated by the prediction analysis processing unit; An integration unit that integrates real-time information generated by the real-time analysis processing unit, and prediction information and real-time information integrated by the integration unit And a data distribution unit for distributing to the communication terminal. The communication terminal includes an information notification unit that receives the integrated information distributed by the information distribution unit and notifies the passenger of the vehicle on which the communication terminal is mounted with the received integrated information.

本発明の第4の局面に係る方法は、複数の検知装置からそれぞれ送信されるセンサデータを受信するステップと、センサデータの通信遅延に関する遅延情報に基づいて、受信するステップにおいて受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定するステップと、判定するステップにおける判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成するステップと、判定するステップにおける判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するステップと、予測情報を生成するステップにおいて生成された予測情報及びリアルタイム情報を生成するステップにおいて生成されたリアルタイム情報を外部に出力するステップとを含む。   According to a fourth aspect of the present invention, there is provided a method for receiving sensor data transmitted from a plurality of detection devices, and for receiving sensor data received in a receiving step based on delay information related to communication delay of the sensor data. For each, a step of determining whether or not to perform a prediction analysis process for predicting a future state, and a prediction information by performing a prediction analysis process on sensor data whose determination result in the determination step is affirmative Prediction information generated in the step of generating prediction information, the step of generating real-time information by executing real-time analysis processing on the sensor data for which the determination result in the determination step is negative, and the step of generating prediction information And real-time information generated in the step of generating real-time information to the outside And a step of force.

本発明の第5の局面に係るコンピュータプログラムは、コンピュータを、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部、及び、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を上記コンピュータの外部に出力する情報出力部として機能させる。   According to a fifth aspect of the present invention, there is provided a computer program received by a receiver based on delay information relating to a communication delay of sensor data, a receiver that receives sensor data respectively transmitted from a plurality of detection devices. A determination unit that determines whether or not to execute a prediction analysis process that predicts a future state for each sensor data, and performs a prediction analysis process on sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit that generates prediction information, a real-time analysis processing unit that generates real-time information by performing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and a prediction analysis processing unit An information output unit that outputs the generated prediction information and the real-time information generated by the real-time analysis processing unit to the outside of the computer. To function.

本発明によれば、異なる遅延のセンサデータを活用して、リアルタイム性を確保した安全支援を行なうことが可能な情報処理装置、システム、方法、及びコンピュータプログラムを得ることができる。   According to the present invention, it is possible to obtain an information processing apparatus, system, method, and computer program capable of performing safety support that secures real-time performance by utilizing sensor data of different delays.

図1は、第1の実施の形態に係る運転支援システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of the driving support system according to the first embodiment. 図2は、運転支援システムを説明するための図である。FIG. 2 is a diagram for explaining the driving support system. 図3は、運転支援システムを説明するための図である。FIG. 3 is a diagram for explaining the driving support system. 図4は、図1に示すエッジサーバのハードウェア構成を示す制御ブロック図である。FIG. 4 is a control block diagram showing a hardware configuration of the edge server shown in FIG. 図5は、エッジサーバと通信するコアサーバのハードウェア構成を示す制御ブロック図である。FIG. 5 is a control block diagram illustrating a hardware configuration of the core server that communicates with the edge server. 図6は、エッジサーバと通信する車載装置及び通信端末のハードウェア構成を示す制御ブロック図である。FIG. 6 is a control block diagram illustrating a hardware configuration of the in-vehicle device and the communication terminal that communicate with the edge server. 図7は、エッジサーバに対してセンサデータを送信する路側センサのハードウェア構成を示す制御ブロック図である。FIG. 7 is a control block diagram illustrating a hardware configuration of a roadside sensor that transmits sensor data to the edge server. 図8は、図1に示すエッジサーバの機能的構成を示すブロック図である。FIG. 8 is a block diagram showing a functional configuration of the edge server shown in FIG. 図9は、図1に示すエッジサーバで実行されるプログラムの制御構造を示すフローチャートである。FIG. 9 is a flowchart showing a control structure of a program executed by the edge server shown in FIG. 図10は、図9のステップS1100の詳細なフローである。FIG. 10 is a detailed flow of step S1100 of FIG. 図11は、図9のステップS1200の詳細なフローである。FIG. 11 is a detailed flow of step S1200 of FIG. 図12は、図1に示すエッジサーバで実行されるプログラムの制御構造を示すフローチャートである。FIG. 12 is a flowchart showing a control structure of a program executed by the edge server shown in FIG. 図13は、図12のステップS2200の詳細なフローである。FIG. 13 is a detailed flow of step S2200 of FIG. 図14は、図12のステップS2400の詳細なフローである。FIG. 14 is a detailed flow of step S2400 of FIG. 図15は、車載装置で実行されるプログラムの制御構造を示すフローチャートである。FIG. 15 is a flowchart showing a control structure of a program executed by the in-vehicle device. 図16は、図1に示す運転支援システムの動作を説明するための図である。FIG. 16 is a diagram for explaining the operation of the driving support system shown in FIG. 1. 図17は、図1に示す運転支援システムの動作を説明するための図である。FIG. 17 is a diagram for explaining the operation of the driving support system shown in FIG. 1. 図18は、図1に示す運転支援システムの動作を説明するための図である。FIG. 18 is a diagram for explaining the operation of the driving support system shown in FIG. 図19は、第2の実施の形態に係る運転支援システムの構成を示す図である。FIG. 19 is a diagram illustrating a configuration of the driving support system according to the second embodiment. 図20は、第3の実施の形態に係るエッジサーバが保持するテーブルの一例を示す図である。FIG. 20 is a diagram illustrating an example of a table held by the edge server according to the third embodiment. 図21は、第5の実施の形態に係る運転支援システムの構成を示す図である。FIG. 21 is a diagram illustrating a configuration of a driving support system according to the fifth embodiment.

[本発明の実施形態の説明]
最初に、本発明の実施の形態の内容を列記して説明する。以下に記載する実施形態の少なくとも一部を任意に組合せてもよい。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. You may combine arbitrarily at least one part of embodiment described below.

(1)本発明の第1の局面に係る情報処理装置は、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を情報処理装置の外部に出力する情報出力部とを含む。   (1) An information processing apparatus according to a first aspect of the present invention includes: a receiving unit that receives sensor data transmitted from each of a plurality of detection devices; and a receiving unit based on delay information related to communication delay of sensor data. For each received sensor data, a determination unit that determines whether or not to perform a prediction analysis process for predicting a future state, and a prediction analysis process for sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit that generates prediction information by executing, a real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and prediction analysis An information output unit that outputs the prediction information generated by the processing unit and the real-time information generated by the real-time analysis processing unit to the outside of the information processing apparatus.

異なる遅延のセンサデータをデータ受信部が受信すると、判定部が、受信した各センサデータの遅延情報に基づいて予測解析処理を実行するか否かを判定する。判定結果が肯定であるセンサデータについては、予測解析処理部によって予測解析処理が行なわれる。この予測解析処理によって、リアルタイム性が高められた予測情報が生成される。一方、判定結果が否定であるセンサデータはリアルタイム解析処理部によってリアルタイムでの解析処理が実行される。この解析処理によってリアルタイム情報が生成される。したがって、受信するセンサデータ毎に遅延時間のばらつきが生じる場合であっても、センサデータのいずれに対してもリアルタイム性の高い情報を生成できる。このような情報を、情報出力部が自装置の外部に出力することによって、リアルタイム性を確保した安全支援を行なうことができる。   When the data reception unit receives sensor data with different delays, the determination unit determines whether to perform the prediction analysis process based on the received delay information of each sensor data. For sensor data for which the determination result is affirmative, prediction analysis processing is performed by the prediction analysis processing unit. By this prediction analysis process, prediction information with improved real-time properties is generated. On the other hand, sensor data with a negative determination result is subjected to real-time analysis processing by the real-time analysis processing unit. Real-time information is generated by this analysis processing. Therefore, even when the delay time varies for each sensor data to be received, information with high real-time property can be generated for any of the sensor data. When such information is output to the outside of the device by the information output unit, it is possible to provide safety support that ensures real-time performance.

(2)好ましくは、遅延情報は、通信に関する遅延時間を含み、予測解析処理部は、処理対象のセンサデータの遅延時間に応じた時間だけ先の将来の状態を予測して予測情報を生成する。これにより、よりリアルタイム性の高い予測情報を生成できる。   (2) Preferably, the delay information includes a delay time related to communication, and the prediction analysis processing unit generates prediction information by predicting a future state ahead by a time corresponding to the delay time of the sensor data to be processed. . Thereby, prediction information with higher real-time property can be generated.

(3)より好ましくは、遅延情報は、通信に関する遅延時間を含み、予測解析処理部は、処理対象のセンサデータ毎に、各センサデータの遅延時間だけ先の将来の状態を予測して予測情報を生成する。これにより、予測解析処理が実行されたセンサデータ毎に、生成される予測情報のリアルタイム性を高めることができる。   (3) More preferably, the delay information includes a delay time related to communication, and the prediction analysis processing unit predicts the future state ahead by the delay time of each sensor data for each sensor data to be processed. Is generated. Thereby, the real time property of the prediction information produced | generated can be improved for every sensor data by which the prediction analysis process was performed.

(4)さらに好ましくは、判定部は、センサデータの遅延時間が所定のしきい値以上か否かに基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定する。これにより、予測解析処理を実行するか否かの判定を容易かつ正確に行なうことができる。   (4) More preferably, the determination unit determines whether or not to perform a prediction analysis process on each of the sensor data based on whether or not the delay time of the sensor data is equal to or greater than a predetermined threshold value. As a result, it is possible to easily and accurately determine whether to execute the prediction analysis process.

(5)さらに好ましくは、遅延情報は、センサデータが送信される通信回線の種類を識別するための識別情報を含み、判定部は、識別情報に基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定する。このような構成でも、予測解析処理を実行するか否かの判定を容易に行なうことができる。   (5) More preferably, the delay information includes identification information for identifying a type of communication line to which the sensor data is transmitted, and the determination unit predicts and analyzes each of the sensor data based on the identification information. It is determined whether or not to execute the process. Even with such a configuration, it is possible to easily determine whether or not to execute the prediction analysis processing.

(6)さらに好ましくは、遅延時間を所定のしきい値と比較することにより、受信部が受信したセンサデータを、遅延時間がしきい値未満である第1のグループ及び遅延時間がしきい値以上である第2のグループに分類する分類部をさらに含み、判定部は、分類部の分類結果に基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定し、リアルタイム解析処理部は、第1のグループに属するセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム情報生成部を含み、予測解析処理部は、第2のグループに属するセンサデータに対して予測解析処理を実行して予測情報を生成する予測情報生成部を含み、情報出力部は、予測情報生成部が生成した予測情報にリアルタイム情報生成部が生成したリアルタイム情報を外部に出力する。これにより、受信したセンサデータを、遅延の小さいグループと、遅延の大きいグループに分類できる。このように分類することで、受信したセンサデータに対して、予測解析処理、及びリアルタイム解析処理を容易に行なうことができる。   (6) More preferably, by comparing the delay time with a predetermined threshold value, the sensor data received by the receiving unit is converted into a first group whose delay time is less than the threshold value and the delay time threshold value. A classification unit that classifies the second group as described above is further included, and the determination unit determines whether to perform the predictive analysis process on each of the sensor data based on the classification result of the classification unit, and performs real-time processing. The analysis processing unit includes a real-time information generation unit that generates real-time information by executing real-time analysis processing on the sensor data belonging to the first group, and the prediction analysis processing unit includes the sensors belonging to the second group. Including a prediction information generation unit that performs prediction analysis processing on the data to generate prediction information, and the information output unit includes real-time information on the prediction information generated by the prediction information generation unit And it outputs the real-time information generating unit has generated to the outside. Thereby, the received sensor data can be classified into a group with a small delay and a group with a large delay. By classifying in this way, it is possible to easily perform prediction analysis processing and real-time analysis processing on the received sensor data.

(7)さらに好ましくは、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を統合する統合処理部をさらに含み、情報出力部は、統合処理部によって統合された、予測情報及びリアルタイム情報を外部に出力する。これにより、より高度な安全支援を実現できる。   (7) More preferably, it further includes an integration processing unit that integrates the prediction information generated by the prediction analysis processing unit and the real time information generated by the real time analysis processing unit, and the information output unit is a prediction integrated by the integration processing unit. Outputs information and real-time information to the outside. As a result, more advanced safety support can be realized.

(8)さらに好ましくは、移動体から送信される、当該移動体の移動予定ルートを受信するルート情報受信部をさらに含み、情報出力部は、ルート情報受信部が受信した移動予定ルートに基づいて、当該移動予定ルートを送信した移動体に対して、予測情報とリアルタイム情報とを統合して配信する情報配信部を含む。ルート情報受信部が受信した移動予定ルートに基づいて、移動予定のないエリア、又は移動体が近づくまでに時間を要するエリア等を認識できる。したがって、そのようなエリアから送信されるセンサデータに対して、予測解析処理又はリアルタイム解析処理の実行を停止できる。これにより、処理負荷を低減しながら、安全支援を行なうことができる。   (8) More preferably, the information processing unit further includes a route information receiving unit that receives a planned movement route of the moving body, which is transmitted from the moving body, and the information output unit is based on the planned movement route received by the route information receiving unit. An information distribution unit that integrates and distributes prediction information and real-time information to a mobile body that has transmitted the planned movement route is included. Based on the planned travel route received by the route information receiving unit, it is possible to recognize an area that is not scheduled to travel or an area that requires time until the moving body approaches. Therefore, the execution of the prediction analysis process or the real-time analysis process can be stopped for the sensor data transmitted from such an area. Thereby, safety support can be performed while reducing the processing load.

(9)さらに好ましくは、複数の検知装置の少なくとも1つは、移動体に搭載された当該移動体の周囲の状況情報をセンサデータとして送信する移動体検知装置であり、受信部は、移動体検知装置から送信されたセンサデータを受信する機能を持つ。これにより、移動体から送信されるセンサデータをも安全支援に活用できるので、より一層高度な安全支援を実現できる。   (9) More preferably, at least one of the plurality of detection devices is a mobile body detection device that transmits status information around the mobile body mounted on the mobile body as sensor data, and the reception unit is a mobile body. It has a function of receiving sensor data transmitted from the detection device. Thereby, the sensor data transmitted from the mobile body can also be used for safety support, so that even higher level of safety support can be realized.

(10)さらに好ましくは、情報処理装置は移動体に搭載される。このような構成によっても、異なる遅延のセンサデータを活用して、リアルタイム性を確保した安全支援を行なうことができる。   (10) More preferably, the information processing apparatus is mounted on the moving body. Even with such a configuration, it is possible to provide safety support that secures real-time performance by utilizing sensor data of different delays.

(11)本発明の第2の局面に係るシステムは、互いに通信可能に接続された複数の情報処理装置を含み、外部への情報提供処理を複数の情報処理装置にて分散処理するシステムである。複数の情報処理装置は第1の情報処理装置及び第2の情報処理装置を含む。このシステムは、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を情報処理装置の外部に出力する情報出力部とを含む。第1の情報処理装置は、予測解析処理部による処理を実行し、第2の情報処理装置は、リアルタイム解析処理部による処理を実行する。このように、リアルタイム性を確保した安全支援を行なうための処理を複数の情報処理装置で分散して実行することもできる。これにより、情報処理装置の処理負荷を分散できる。   (11) A system according to a second aspect of the present invention is a system that includes a plurality of information processing apparatuses connected to be communicable with each other and performs distributed information processing on the plurality of information processing apparatuses. . The plurality of information processing apparatuses include a first information processing apparatus and a second information processing apparatus. This system has a receiving unit that receives sensor data respectively transmitted from a plurality of detection devices, and a future state for each of the sensor data received by the receiving unit based on delay information related to communication delay of the sensor data. A determination unit that determines whether or not to perform a prediction analysis process that predicts a prediction analysis process unit that generates prediction information by performing a prediction analysis process on sensor data for which the determination result of the determination unit is positive; A real-time analysis processing unit that generates real-time information by performing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and prediction information and real-time analysis processing unit generated by the prediction analysis processing unit And an information output unit that outputs the generated real-time information to the outside of the information processing apparatus. The first information processing device executes processing by the prediction analysis processing unit, and the second information processing device executes processing by the real-time analysis processing unit. In this way, it is possible to distribute and execute processing for performing safety support that secures real-time performance by a plurality of information processing apparatuses. Thereby, the processing load of the information processing apparatus can be distributed.

(12)本発明の第3の局面に係るシステムは、受信したセンサデータを解析処理してその解析結果を配信する情報処理装置と、車両に搭載され、情報処理装置から配信される解析結果を受信する通信端末とを含むシステムである。このシステムにおいて、情報処理装置は、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部と、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を統合する統合部と、統合部によって統合された、予測情報及びリアルタイム情報を通信端末に配信する情報配信部とを含む。通信端末は、情報配信部が配信した統合情報を受信して、受信した統合情報を当該通信端末が搭載される車両の搭乗者に通知する情報通知部を含む。これにより、車両の搭乗者に対して、高度な安全支援を容易に行なうことができる。   (12) A system according to a third aspect of the present invention includes an information processing device that analyzes received sensor data and distributes the analysis result, and an analysis result that is mounted on the vehicle and distributed from the information processing device. And a communication terminal for receiving. In this system, the information processing device is configured to receive each of the sensor data received by the receiving unit based on the receiving unit that receives the sensor data transmitted from each of the plurality of detecting devices and the delay information related to the communication delay of the sensor data. A determination unit that determines whether or not to execute a prediction analysis process that predicts a future state, and generates prediction information by executing the prediction analysis process on sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit; a real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative; and prediction information generated by the prediction analysis processing unit; An integration unit that integrates real-time information generated by the real-time analysis processing unit, and prediction information and real-time information integrated by the integration unit And a data distribution unit for distributing to the communication terminal. The communication terminal includes an information notification unit that receives the integrated information distributed by the information distribution unit and notifies the passenger of the vehicle on which the communication terminal is mounted with the received integrated information. As a result, it is possible to easily provide a high level of safety support for the vehicle occupant.

(13)本発明の第4の局面に係る方法は、複数の検知装置からそれぞれ送信されるセンサデータを受信するステップと、センサデータの通信遅延に関する遅延情報に基づいて、受信するステップにおいて受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定するステップと、判定するステップにおける判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成するステップと、判定するステップにおける判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するステップと、予測情報を生成するステップにおいて生成された予測情報及びリアルタイム情報を生成するステップにおいて生成されたリアルタイム情報を外部に出力するステップとを含む。   (13) The method according to the fourth aspect of the present invention is received in the step of receiving sensor data respectively transmitted from a plurality of detection devices and the step of receiving based on delay information relating to communication delay of the sensor data. A step of determining whether or not to execute a predictive analysis process for predicting a future state for each of the sensor data, and a predictive analysis process for the sensor data for which the determination result in the determining step is affirmative Generated in the step of generating prediction information, the step of generating real-time information by performing analysis processing in real time on sensor data for which the determination result in the determining step is negative, and the step of generating prediction information Real-time information generated in the step of generating predicted information and real-time information And outputting to the outside.

(14)本発明の第5の局面に係るコンピュータプログラムは、コンピュータを、複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部、センサデータの通信遅延に関する遅延情報に基づいて、受信部が受信したセンサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部、判定部の判定結果が肯定であるセンサデータに対して予測解析処理を実行して予測情報を生成する予測解析処理部、判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部、及び、予測解析処理部が生成した予測情報及びリアルタイム解析処理部が生成したリアルタイム情報を上記コンピュータの外部に出力する情報出力部として機能させる。   (14) A computer program according to a fifth aspect of the present invention provides a computer based on delay information relating to a communication delay of sensor data, a receiver that receives sensor data respectively transmitted from a plurality of detection devices. For each of the received sensor data, a determination unit for determining whether or not to execute a prediction analysis process for predicting a future state, and a prediction analysis process for sensor data for which the determination result of the determination unit is affirmative A prediction analysis processing unit that executes and generates prediction information, a real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and prediction analysis Information output for outputting the prediction information generated by the processing unit and the real-time information generated by the real-time analysis processing unit to the outside of the computer. To function as a part.

[本発明の実施形態の詳細]
以下の実施の形態では、同一の部品には同一の参照番号を付してある。それらの機能及び名称も同一である。したがって、それらについての詳細な説明は繰返さない。
[Details of the embodiment of the present invention]
In the following embodiments, the same parts are denoted by the same reference numerals. Their functions and names are also the same. Therefore, detailed description thereof will not be repeated.

(第1の実施の形態)
[全体構成]
図1を参照して、本実施の形態に係る運転支援システム50は、運転支援を行なうサーバ装置100と、サーバ装置100から運転支援を受ける車両60aに搭載される通信端末200とを含む。サーバ装置100は、通信端末200に対して運転に役立つ情報(以下「運転支援情報」と呼ぶ)を提供し、それぞれの運転者を支援する。
(First embodiment)
[overall structure]
Referring to FIG. 1, a driving support system 50 according to the present embodiment includes a server device 100 that performs driving support, and a communication terminal 200 that is mounted on a vehicle 60 a that receives driving support from server device 100. The server device 100 provides the communication terminal 200 with information useful for driving (hereinafter referred to as “driving support information”), and supports each driver.

サーバ装置100は、1又は複数の検知装置と通信可能であり、検知装置から送信されるセンサデータを受信する。検知装置は道路及びその周辺の状況等に関する情報(以下「道路情報」と呼ぶことがある。)等を検知してその情報を収集するセンサ機器である。各検知装置は通信機能を有しており、収集した情報をセンサデータとしてサーバ装置100に送信する。   The server device 100 can communicate with one or more detection devices, and receives sensor data transmitted from the detection device. The detection device is a sensor device that detects information on a road and its surroundings (hereinafter sometimes referred to as “road information”) and collects the information. Each detection device has a communication function, and transmits collected information to the server device 100 as sensor data.

図2を参照して、本実施の形態に係るサーバ装置100はエッジサーバである。運転支援システム50は、サーバ装置100として、1又は複数のエッジサーバ100A、100Bを含む。以下では、サーバ装置100をエッジサーバ100と記す。エッジサーバ100A及び100Bを総称する場合も「エッジサーバ100」と記す。なお、運転支援システム50が複数のエッジサーバ100を含む場合、エッジサーバの台数は2台に限定されず、3台以上であってもよい。   Referring to FIG. 2, server device 100 according to the present embodiment is an edge server. The driving support system 50 includes one or a plurality of edge servers 100 </ b> A and 100 </ b> B as the server device 100. Hereinafter, the server device 100 is referred to as an edge server 100. The edge servers 100A and 100B are also collectively referred to as “edge server 100”. When the driving support system 50 includes a plurality of edge servers 100, the number of edge servers is not limited to two, and may be three or more.

エッジサーバ100は、コアサーバ300と有線又は無線にて通信する。コアサーバ300も、1又は複数の検知装置と通信可能であり、検知装置から送信されるセンサデータを受信する。検知装置は、エッジサーバ100のサービスエリアに設置された路側インフラ設備としての第1の路側センサ400A、及び第2の路側センサ400B、並びに、当該サービスエリア内を走行する車両60bに搭載された車載装置500を含む。後述するように、車載装置500は通信端末200を含む。   The edge server 100 communicates with the core server 300 in a wired or wireless manner. The core server 300 is also communicable with one or a plurality of detection devices, and receives sensor data transmitted from the detection devices. The detection apparatus includes a first roadside sensor 400A and a second roadside sensor 400B as roadside infrastructure equipment installed in the service area of the edge server 100, and an in-vehicle mounted on a vehicle 60b that travels in the service area. A device 500 is included. As will be described later, the in-vehicle device 500 includes a communication terminal 200.

第1の路側センサ400Aは汎用デジタルカメラであり、第2の路側センサ400Bは汎用デジタルカメラに比べて内部での処理速度が速い高性能デジタルカメラである。なお、第1の路側センサ400A及び第2の路側センサ400Bを総称する場合は「路側センサ400」と記す。また、車両60a及び車両60b等を代表して「車両60」と記すことがある。   The first roadside sensor 400A is a general-purpose digital camera, and the second roadside sensor 400B is a high-performance digital camera having a higher internal processing speed than the general-purpose digital camera. The first roadside sensor 400A and the second roadside sensor 400B are collectively referred to as “roadside sensor 400”. In addition, the vehicle 60a, the vehicle 60b, and the like may be referred to as “vehicle 60”.

車載装置500は、車両60に搭載されている公知のセンサである車載センサを含む。ここでは、車載センサは、車両60に搭載されている種々のセンサのうち運転支援情報の生成に供するものを意味する。車載センサは、例えば、車載カメラ、レーダ(ミリ波レーダ、レーザレーダ)センサを含む。車載センサは、対象を検知して所定の検出信号(アナログ信号又はデジタルデータ)を出力する。車載装置500は、車載センサが出力した検出信号に基づいてセンサデータを生成し、生成したセンサデータを公知の移動通信回線によりエッジサーバ100又はコアサーバ300に送信する。   The in-vehicle device 500 includes an in-vehicle sensor that is a known sensor mounted on the vehicle 60. Here, the vehicle-mounted sensor means a sensor that is used for generating driving support information among various sensors mounted on the vehicle 60. The in-vehicle sensor includes, for example, an in-vehicle camera and a radar (millimeter wave radar, laser radar) sensor. The in-vehicle sensor detects a target and outputs a predetermined detection signal (analog signal or digital data). The in-vehicle device 500 generates sensor data based on the detection signal output from the in-vehicle sensor, and transmits the generated sensor data to the edge server 100 or the core server 300 through a known mobile communication line.

路側センサ400及び車載装置500は、歩行者30、車両60等の動的情報、及び、信号機、建造物等の静的情報を撮影対象又は検知対象として検知する。   The roadside sensor 400 and the vehicle-mounted device 500 detect dynamic information such as a pedestrian 30 and a vehicle 60 and static information such as a traffic light and a building as an imaging target or a detection target.

図3を参照して、エッジサーバ100は、メトロネットワーク62の分散データセンタ(DC)に設置される。メトロネットワーク62は、例えば都市毎に構築された通信ネットワークである。エッジサーバ100は基地局66とも有線又は無線にて通信する。基地局66は、メトロネットワーク62に含まれる分散DCのいずれかのエッジサーバ100に通信可能に接続される。コアサーバ300は、コアネットワーク64のコアデータセンタ(DC)に設置され、コアネットワーク64及びメトロネットワーク62を介して、各地のメトロネットワーク62に属するエッジサーバ100及び基地局66と通信可能である。   With reference to FIG. 3, the edge server 100 is installed in a distributed data center (DC) of the metro network 62. The metro network 62 is a communication network constructed for each city, for example. The edge server 100 communicates with the base station 66 in a wired or wireless manner. The base station 66 is communicably connected to one of the edge servers 100 of the distributed DC included in the metro network 62. The core server 300 is installed in a core data center (DC) of the core network 64, and can communicate with the edge server 100 and the base station 66 belonging to each metro network 62 via the core network 64 and the metro network 62.

後述するように、コアサーバ300が受信したセンサデータは、エッジサーバ100に送信される。エッジサーバ100は、コアサーバ300を介して、又はコアサーバ300を介さずに受信した各センサデータに対して所定の解析処理(例えば、運転支援情報を得るための解析処理)を実行し、解析処理によって生成された動的情報(運転支援情報)を支援対象の車両60aに対して配信する。   As will be described later, the sensor data received by the core server 300 is transmitted to the edge server 100. The edge server 100 performs a predetermined analysis process (for example, an analysis process for obtaining driving support information) on each sensor data received via the core server 300 or not via the core server 300, and performs analysis. The dynamic information (driving support information) generated by the processing is distributed to the support target vehicle 60a.

車載装置500又は路側センサ400からセンサデータをエッジサーバ100に送信し、エッジサーバ100で解析を行なう場合、これら機器の反応速度、使用する回線(5G、LTE等)の通信速度等により、センサデータがエッジサーバ100に遅延して届く。こうした場合、エッジサーバ100がほぼ同じ時刻にセンサデータを受信したとしても、センサによる検出時刻(センサデータが生成された時刻)が異なるセンサデータが混在することになり得る。このような異なる遅延のセンサデータをまとめて解析対象とすることは適切でない。   When sensor data is transmitted from the in-vehicle device 500 or the roadside sensor 400 to the edge server 100 and analyzed by the edge server 100, the sensor data depends on the response speed of these devices, the communication speed of the line (5G, LTE, etc.) used, Arrives at the edge server 100 with a delay. In such a case, even if the edge server 100 receives the sensor data at substantially the same time, sensor data having different detection times (time when the sensor data is generated) by the sensors may be mixed. It is not appropriate to combine sensor data with different delays as analysis targets.

そこで、本実施の形態に係るエッジサーバ100は、遅延が大きいセンサデータについては、遅延が小さいセンサデータとは別に、将来の状態を予測する予測解析処理を実行する。これにより、遅延の大きいセンサデータに対してリアルタイム性を高めている。このように、本運転支援システム50は、異なる遅延のセンサデータを受信した場合でも、リアルタイム性を確保した安全支援を実行する。   Therefore, the edge server 100 according to the present embodiment executes prediction analysis processing for predicting a future state for sensor data having a large delay, separately from the sensor data having a small delay. As a result, real-time performance is enhanced for sensor data having a large delay. In this way, the driving support system 50 executes safety support that ensures real-time performance even when sensor data with different delays are received.

[ハードウェア構成]
《エッジサーバ100》
図4を参照して、エッジサーバ100は、制御部110、記憶装置120、及び通信部130を含む。制御部110は、実質的にコンピュータであって、CPU(Central Processing Unit)112、GPU(Graphics Processing Unit)114、ROM(Read−Only Memory)116、及び、RAM(Random Access Memory)118を含む。CPU112はエッジサーバ100全体を制御する。GPU114は、画像の演算処理等を実行する。ROM116は不揮発性の記憶装置である。ROM116にはCPU112がエッジサーバ100を制御するためのプログラム及びデータが記憶されている。RAM118は揮発性の記憶装置である。
[Hardware configuration]
<< Edge Server 100 >>
With reference to FIG. 4, the edge server 100 includes a control unit 110, a storage device 120, and a communication unit 130. The control unit 110 is substantially a computer, and includes a CPU (Central Processing Unit) 112, a GPU (Graphics Processing Unit) 114, a ROM (Read-Only Memory) 116, and a RAM (Random Access Memory) 118. The CPU 112 controls the entire edge server 100. The GPU 114 executes image calculation processing and the like. The ROM 116 is a nonvolatile storage device. The ROM 116 stores a program and data for the CPU 112 to control the edge server 100. The RAM 118 is a volatile storage device.

CPU112、GPU114、ROM116、RAM118、記憶装置120、及び通信部130はいずれもバス140に接続されており、相互間のデータ交換はバス140を介して行なわれる。   CPU 112, GPU 114, ROM 116, RAM 118, storage device 120, and communication unit 130 are all connected to bus 140, and data exchange among them is performed via bus 140.

記憶装置120は不揮発性のメモリであり、例えばハードディスクドライブ(HDD)又はフラッシュメモリ等である。記憶装置120には情報マップ122が記憶されている。情報マップ122は、静的情報である高精細のデジタル地図に対して、時々刻々と変換する動的情報を重畳させたデータの集合体であって、地図の表示情報である。情報マップ122を構成するデジタル情報は、動的情報及び静的情報を含む。   The storage device 120 is a non-volatile memory, such as a hard disk drive (HDD) or a flash memory. An information map 122 is stored in the storage device 120. The information map 122 is a collection of data obtained by superimposing dynamic information that is converted from moment to moment on a high-definition digital map that is static information, and is map display information. The digital information constituting the information map 122 includes dynamic information and static information.

動的情報は、例えば1秒以内の遅延時間が要求される動的なデータを指す。動的情報には、例えば、ITS(Intelligent Transport Systems)先読み情報として活用される、移動体(車両及び歩行者等)の位置情報、及び信号情報等が含まれる。静的情報は、例えば1ヶ月以内の時間が許容される静的なデータを指す。静的情報には、例えば、路面情報、車線情報、及び3次元構造物データ等が含まれる。   The dynamic information refers to dynamic data that requires a delay time of, for example, 1 second or less. The dynamic information includes, for example, position information of mobile bodies (vehicles, pedestrians, etc.), signal information, and the like that are used as ITS (Intelligent Transport Systems) prefetch information. Static information refers to static data that allows time within one month, for example. The static information includes, for example, road surface information, lane information, three-dimensional structure data, and the like.

通信部130は、5G対応の通信処理を実行する通信装置であり、メトロネットワーク62を介してコアサーバ300及び基地局66等と通信する。通信部130は、制御部110から与えられた情報を、メトロネットワーク62を介して外部装置に送信するとともに、メトロネットワーク62を介して受信した情報を制御部110に与える。   The communication unit 130 is a communication device that executes 5G-compatible communication processing, and communicates with the core server 300, the base station 66, and the like via the metro network 62. The communication unit 130 transmits the information given from the control unit 110 to the external device via the metro network 62 and gives the information received via the metro network 62 to the control unit 110.

GPU114、ROM116、RAM118、記憶装置120、及び通信部130は、いずれもCPU112の制御のもとに協調して動作し、本実施の形態に係るエッジサーバとしてエッジサーバ100は種々のアプリケーション(コンピュータプログラム)による処理を実現する。それらのアプリケーションは、例えば、異なる遅延のセンサデータを活用して、リアルタイム性を確保した安全支援を行なうことが可能な運転支援システムにおけるエッジサーバを実現する。   The GPU 114, the ROM 116, the RAM 118, the storage device 120, and the communication unit 130 all operate in cooperation under the control of the CPU 112, and the edge server 100 as the edge server according to the present embodiment can be used for various applications (computer program). ) Is realized. These applications realize, for example, an edge server in a driving support system that can perform safety support that secures real-time performance by utilizing sensor data of different delays.

通信部130はまた、車載装置500(図2参照)からアップロードされるセンサデータ、及び道路等に設置された路側センサ400からアップロードされるセンサデータを受信する。通信部130により受信されたセンサデータは、記憶装置120に伝送され、データベースとして記憶される。制御部110は、記憶装置120から適宜データを読出し、所定の解析処理(例えば、運転支援情報を得るための解析処理)を実行し、その結果を記憶装置120に記憶する。より詳細には、制御部110は、所定の更新周期毎に、自装置のサービスエリア内で車載装置500及び路側センサ400等が計測した各種のセンサデータを収集し、収集したセンサデータに基づいて、記憶装置120に格納された情報マップ122の動的情報を更新する。制御部110はさらに、更新された動的情報を車両60(通信端末200)に対して配信する。   The communication unit 130 also receives sensor data uploaded from the in-vehicle device 500 (see FIG. 2) and sensor data uploaded from the roadside sensor 400 installed on a road or the like. The sensor data received by the communication unit 130 is transmitted to the storage device 120 and stored as a database. The control unit 110 reads data from the storage device 120 as appropriate, executes predetermined analysis processing (for example, analysis processing for obtaining driving support information), and stores the result in the storage device 120. More specifically, the control unit 110 collects various sensor data measured by the in-vehicle device 500, the roadside sensor 400, and the like within the service area of its own device at every predetermined update cycle, and based on the collected sensor data. The dynamic information in the information map 122 stored in the storage device 120 is updated. Control unit 110 further distributes the updated dynamic information to vehicle 60 (communication terminal 200).

《コアサーバ300》
図5を参照して、コアサーバ300は、制御部310、記憶装置320、及び通信部330を含む。制御部310は、エッジサーバ100と同様、CPU312、GPU314、ROM316、及び、RAM318を含む。CPU312はコアサーバ300全体を制御する。GPU314は、画像の演算処理等を実行する。ROM316は不揮発性の記憶装置である。ROM316にはCPU312がコアサーバ300を制御するためのプログラム及びデータが記憶されている。RAM318は揮発性の記憶装置である。
<< Core Server 300 >>
Referring to FIG. 5, core server 300 includes a control unit 310, a storage device 320, and a communication unit 330. Similar to the edge server 100, the control unit 310 includes a CPU 312, a GPU 314, a ROM 316, and a RAM 318. The CPU 312 controls the entire core server 300. The GPU 314 executes image calculation processing and the like. The ROM 316 is a nonvolatile storage device. The ROM 316 stores a program and data for the CPU 312 to control the core server 300. The RAM 318 is a volatile storage device.

CPU312、GPU314、ROM316、RAM318、記憶装置320、及び通信部330はいずれもバス340に接続されており、相互間のデータ交換はバス340を介して行なわれる。   The CPU 312, the GPU 314, the ROM 316, the RAM 318, the storage device 320, and the communication unit 330 are all connected to the bus 340, and data exchange among them is performed via the bus 340.

制御部310は、ROM316に予め記憶されたプログラムをRAM318に読出して実行することにより、各ハードウェアの動作を制御して、コンピュータ装置をエッジサーバ100と通信可能なコアサーバ300として機能させる。   The control unit 310 reads out the program stored in advance in the ROM 316 to the RAM 318 and executes it, thereby controlling the operation of each hardware and causing the computer device to function as the core server 300 that can communicate with the edge server 100.

記憶装置320は不揮発性のメモリであり、例えばハードディスクドライブ(HDD)又はフラッシュメモリ等である。通信部330は、5G対応の通信処理を実行する通信装置であり、コアネットワーク64を介してエッジサーバ100及び基地局66等と通信する。通信部330は、制御部310から与えられた情報を、コアネットワーク64を介して外部装置に送信するとともに、コアネットワーク64を介して受信した情報を制御部310に与える。   The storage device 320 is a non-volatile memory, such as a hard disk drive (HDD) or a flash memory. The communication unit 330 is a communication device that executes 5G-compatible communication processing, and communicates with the edge server 100, the base station 66, and the like via the core network 64. The communication unit 330 transmits the information given from the control unit 310 to the external device via the core network 64, and gives the information received via the core network 64 to the control unit 310.

コアサーバ300の記憶装置320には、エッジサーバ100と同様、情報マップ322が記憶されている。この情報マップ322のデータ構造は、エッジサーバ100の情報マップ122のデータ構造(動的情報及び静的情報を含むデータ構造)と同様である。なお、情報マップ322は、特定のエッジサーバ100の情報マップと同じサービスエリアのマップであってもよいし、複数のエッジサーバ100が保持する各情報マップを統合した、より広域の情報マップであってもよい。   Similar to the edge server 100, the information map 322 is stored in the storage device 320 of the core server 300. The data structure of the information map 322 is the same as the data structure of the information map 122 of the edge server 100 (data structure including dynamic information and static information). The information map 322 may be the same service area map as the information map of the specific edge server 100, or may be a wider area information map in which the information maps held by the plurality of edge servers 100 are integrated. May be.

コアサーバ300の制御部310は、エッジサーバ100の制御部110と同様、記憶装置320に格納された情報マップの動的情報を更新する更新処理と、更新された動的情報を配信する配信処理とを行なうことができる。すなわち、制御部310は、エッジサーバ100とは別に、自装置の情報マップ322に基づく動的情報の更新処理及び配信処理を独自に実行可能である。   Similar to the control unit 110 of the edge server 100, the control unit 310 of the core server 300 updates the dynamic information of the information map stored in the storage device 320, and the distribution processing of distributing the updated dynamic information. Can be performed. In other words, the control unit 310 can independently execute dynamic information update processing and distribution processing based on the information map 322 of the own device, separately from the edge server 100.

ただし、コアサーバ300は、エッジサーバ100に比べて、路側センサ400、及び車載装置500(通信端末200)等との通信遅延が大きいため、コアサーバ300が情報マップ322の動的情報を独自に更新しても、エッジサーバ100が管理する情報マップ122の動的情報に比べてリアルタイム性に劣る。そのため、本実施の形態では、コアサーバ300は、受信したセンサデータに対して解析処理を実行せずに当該センサデータをエッジサーバ100に転送する。   However, since the core server 300 has a larger communication delay with the roadside sensor 400, the in-vehicle device 500 (communication terminal 200), and the like than the edge server 100, the core server 300 uniquely identifies the dynamic information of the information map 322. Even if it is updated, it is inferior in real time as compared with the dynamic information of the information map 122 managed by the edge server 100. Therefore, in the present embodiment, the core server 300 transfers the sensor data to the edge server 100 without executing analysis processing on the received sensor data.

《車載装置500》
図6を参照して、車載装置500は、通信端末200、車載センサ510、GPS(Global Positioning System)受信機520、ディスプレイ530、スピーカ540、入力デバイス550、車速センサ560、及びジャイロセンサ570を含む。通信端末200は、制御部(ECU:Electronic Control Unit)210、記憶部220、及び通信部230を含む。車載センサ510は、車載カメラ512、及びレーダセンサ514を含む。車載センサ510は、車載カメラ512、及びレーダセンサ514に加えて、車速センサ560、及びジャイロセンサ570を含む構成であってもよい。
<< In-vehicle device 500 >>
Referring to FIG. 6, in-vehicle device 500 includes communication terminal 200, in-vehicle sensor 510, GPS (Global Positioning System) receiver 520, display 530, speaker 540, input device 550, vehicle speed sensor 560, and gyro sensor 570. . Communication terminal 200 includes a control unit (ECU: Electronic Control Unit) 210, a storage unit 220, and a communication unit 230. The in-vehicle sensor 510 includes an in-vehicle camera 512 and a radar sensor 514. The in-vehicle sensor 510 may include a vehicle speed sensor 560 and a gyro sensor 570 in addition to the in-vehicle camera 512 and the radar sensor 514.

制御部210は、実質的にコンピュータであって、記憶部220に記憶された各種の制御プログラムを実行することにより、車両60の経路探索及び他の電子機器510〜570の制御等を行なう。記憶部220は、車載装置500を制御するための制御プログラム及び地図データベース等の各種データを記憶する。地図データベースは、制御部210に道路地図データを提供する。道路地図データは、リンクデータ及びノードデータを含む。   The control unit 210 is substantially a computer, and executes various control programs stored in the storage unit 220 to perform route search of the vehicle 60, control of other electronic devices 510 to 570, and the like. The storage unit 220 stores various data such as a control program for controlling the in-vehicle device 500 and a map database. The map database provides road map data to the control unit 210. The road map data includes link data and node data.

通信部230は、LTE回線及び5G回線での通信処理が可能な無線通信機である。通信部230は、基地局66(図3参照)を介して、エッジサーバ100との通信を行なう。この通信部230は、LTE回線及び5G回線のそれぞれで採用されている変調及び多重化を行なうためのIC、所定周波数の電波を放射及び受信するためのアンテナ、並びに、RF回路等を含む。   The communication unit 230 is a wireless communication device that can perform communication processing on the LTE line and the 5G line. The communication unit 230 communicates with the edge server 100 via the base station 66 (see FIG. 3). The communication unit 230 includes an IC for performing modulation and multiplexing employed in each of the LTE line and the 5G line, an antenna for radiating and receiving radio waves of a predetermined frequency, and an RF circuit.

GPS受信機520は、定期的にGPS信号を取得して制御部210に提供する。ディスプレイ530、及びスピーカ540は、制御部210が生成した各種情報を車両60の搭乗者であるユーザに通知するための出力装置である。入力デバイス550は、車両60の搭乗者が各種の入力操作を行なうための入力装置である。   The GPS receiver 520 periodically acquires GPS signals and provides them to the control unit 210. The display 530 and the speaker 540 are output devices for notifying a user who is a passenger of the vehicle 60 of various types of information generated by the control unit 210. The input device 550 is an input device for a passenger of the vehicle 60 to perform various input operations.

制御部210は、GPS受信機520が定期的に受信するGPS信号に基づいて自車両の車両位置を求める。制御部210はまた、車速センサ560及びジャイロセンサ570から入力される入力信号に基づいて、車両位置及び方位を補正し、自車両の正確な現在位置及び方位を把握する。制御部210はさらに、記憶部220に記憶された各種の制御プログラムを実行することにより、ディスプレイ530に地図画像を表示させる機能、出発地から目的地までの経路を算出する機能、及び、算出した経路にしたがって車両60を目的地まで誘導する機能等の各種のナビゲーション機能を実行可能である。   Control unit 210 obtains the vehicle position of the host vehicle based on GPS signals periodically received by GPS receiver 520. The control unit 210 also corrects the vehicle position and direction based on the input signals input from the vehicle speed sensor 560 and the gyro sensor 570, and grasps the accurate current position and direction of the host vehicle. The control unit 210 further executes various control programs stored in the storage unit 220 to display a map image on the display 530, a function to calculate a route from the departure point to the destination, and a calculation Various navigation functions such as a function of guiding the vehicle 60 to the destination according to the route can be executed.

車載カメラ512は、車両60の前方の映像を取込む画像センサを含む。レーダセンサ514は、ミリ波レーダ、又はLiDAR方式のレーザレーダ等の、車両60の前方又は周囲に存在する物体を検出するセンサを含む。制御部210は、車載カメラ512及びレーダセンサ514による計測データに基づいて、運転中の搭乗者に対する注意喚起をディスプレイ530に表示させたり、強制的なブレーキ介入を行なったりする運転支援制御を実行する。   The in-vehicle camera 512 includes an image sensor that captures an image in front of the vehicle 60. The radar sensor 514 includes a sensor that detects an object existing in front of or around the vehicle 60, such as a millimeter wave radar or a LiDAR laser radar. Based on the measurement data from the in-vehicle camera 512 and the radar sensor 514, the control unit 210 displays driving alert on the driving occupant on the display 530 and performs driving support control such as performing forced braking intervention. .

制御部210はまた、車載カメラ512及びレーダセンサ514のうちの少なくとも1つの計測データに基づいて、自車両の前方又は周囲の物体を認識する認識処理と、認識した物体までの距離を算出する測距処理とを実行可能である。さらに制御部210は、測距処理により算出した距離と、自車両の位置とから、認識処理によって認識した物体の位置情報を算出することも可能である。   The control unit 210 also performs a recognition process for recognizing an object in front of or around the host vehicle and a distance to the recognized object based on at least one measurement data of the in-vehicle camera 512 and the radar sensor 514. Distance processing can be executed. Furthermore, the control unit 210 can calculate position information of the object recognized by the recognition process from the distance calculated by the distance measurement process and the position of the host vehicle.

車載カメラ512及びレーダセンサ514による計測データは、自車両での運転支援制御に用いるだけでなく、他車両の運転支援を行なうためにも用いられる。制御部210は、通信部230を制御することにより、これらの計測データに、これらの情報を取得した時刻情報を付加して、センサデータとしてエッジサーバ100に送信する。送信されるセンサデータには、自車両の位置情報、及び認識処理によって認識した物体の位置情報等の情報が付加されていてもよい。   The measurement data from the in-vehicle camera 512 and the radar sensor 514 are used not only for driving support control in the own vehicle but also for driving support of other vehicles. The control unit 210 controls the communication unit 230 to add the time information at which these pieces of information are acquired to these measurement data, and transmits them to the edge server 100 as sensor data. Information such as the position information of the host vehicle and the position information of the object recognized by the recognition process may be added to the transmitted sensor data.

車載装置500の通信端末200は、通信部230を介して、エッジサーバ100から自車両宛に送信される運転支援情報(動的情報)を受信する機能を持つ。通信端末200は、受信した動的情報に基づいて、運転中の搭乗者に対する注意喚起をディスプレイ530に出力させたり、強制的なブレーキ介入を行なったりする運転支援制御を実行する。   The communication terminal 200 of the in-vehicle device 500 has a function of receiving driving support information (dynamic information) transmitted from the edge server 100 to the host vehicle via the communication unit 230. Based on the received dynamic information, the communication terminal 200 executes driving support control for causing the display 530 to output a warning to a driver who is driving or forcing a brake intervention.

《路側センサ400》
図7を参照して、路側センサ400は、制御部410、記憶部420、路側カメラ430、及び通信部440を含む。制御部410は、車載装置500と同様、路側カメラ430及び通信部440を制御して、路側カメラ430で撮影した映像データ(センサデータ)を、通信部440を介して、エッジサーバ100又はコアサーバ300にアップロードする。記憶部420は、制御部410が実行するコンピュータプログラム及び路側カメラ430が検知したセンサデータ等の各種データを記憶する。記憶部420には、路側センサ400の識別情報であるセンサIDが記憶される。センサIDは、例えば路側センサ400の所有者固有のユーザID又はMACアドレス等である。
<< Roadside sensor 400 >>
Referring to FIG. 7, roadside sensor 400 includes a control unit 410, a storage unit 420, a roadside camera 430, and a communication unit 440. The control unit 410 controls the roadside camera 430 and the communication unit 440 similarly to the vehicle-mounted device 500, and the video data (sensor data) captured by the roadside camera 430 is transmitted to the edge server 100 or the core server via the communication unit 440. Upload to 300. The storage unit 420 stores various data such as a computer program executed by the control unit 410 and sensor data detected by the roadside camera 430. The storage unit 420 stores a sensor ID that is identification information of the roadside sensor 400. The sensor ID is, for example, a user ID or a MAC address unique to the owner of the roadside sensor 400.

路側カメラ430は、所定の撮影エリアの映像を取込む画像センサである。路側カメラ430が検知したセンサデータ(画像データ)を記憶する。通信部440は、任意の通信機能を有する通信機器である。通信機能は、5G回線又はLTE回線であってもよいし、無線LAN等であってもよい。無線LANの場合は、基地局66とは別に無線LANによる通信サービスを提供する装置(無線ルータ等)が設けられる。路側センサ400は当該装置を介してインターネットに接続され、インターネットを介してエッジサーバ100又はコアサーバ300と通信する。通信部440の通信機能は、無線通信以外に、例えば光回線等の有線回線による有線通信であってもよい。路側センサ400は、路側カメラ430とともに、又は路側カメラ430に代えて、レーザセンサが搭載される構成であってもよい。   The roadside camera 430 is an image sensor that captures an image of a predetermined shooting area. Sensor data (image data) detected by the roadside camera 430 is stored. The communication unit 440 is a communication device having an arbitrary communication function. The communication function may be a 5G line or an LTE line, or may be a wireless LAN or the like. In the case of a wireless LAN, an apparatus (such as a wireless router) that provides a communication service using the wireless LAN is provided separately from the base station 66. The roadside sensor 400 is connected to the Internet via the device and communicates with the edge server 100 or the core server 300 via the Internet. The communication function of the communication unit 440 may be wired communication using, for example, a wired line such as an optical line, in addition to wireless communication. The roadside sensor 400 may have a configuration in which a laser sensor is mounted together with the roadside camera 430 or instead of the roadside camera 430.

[エッジサーバ100の機能的構成]
図8を参照して、エッジサーバ100の機能について説明する。エッジサーバ100は、機能部としてのパケット受信部150、フィルタ部152、データ記憶部154、解析処理部160、同期処理部166、統合処理部168、及びパケット送信部170を含む。
[Functional Configuration of Edge Server 100]
The function of the edge server 100 will be described with reference to FIG. The edge server 100 includes a packet receiving unit 150 as a functional unit, a filter unit 152, a data storage unit 154, an analysis processing unit 160, a synchronization processing unit 166, an integration processing unit 168, and a packet transmission unit 170.

パケット受信部150は、路側センサ400及び車載装置500等の検知装置から送信されたセンサデータを含むパケットデータを受信する。パケット受信部150は、パケットデータを受信すると、センサデータとそれに付加された時刻情報(タイムスタンプ)とを取出して、フィルタ部152に出力する。パケット受信部150の機能は、図4の通信部130により実現される。   The packet receiving unit 150 receives packet data including sensor data transmitted from a detection device such as the roadside sensor 400 and the in-vehicle device 500. When receiving the packet data, the packet receiving unit 150 extracts the sensor data and time information (time stamp) added thereto, and outputs it to the filter unit 152. The function of the packet receiving unit 150 is realized by the communication unit 130 of FIG.

フィルタ部152は、センサデータの通信遅延に関する遅延情報を取得して、パケット受信部150の出力データ(センサデータ)を遅延情報に基づく所定の条件にしたがって分類する。遅延情報は遅延時間を含む。フィルタ部152は、入力されるセンサデータ及び時刻情報のうち、時刻情報を用いて、そのセンサデータが取得されてからエッジサーバ100により受信されるまでの遅延時間を算出する。フィルタ部152はさらに、算出した遅延時間が短い(例えば約1秒未満)場合、受信したセンサデータを第1のグループに分類する。算出した遅延時間が長い(例えば約1秒以上)場合、フィルタ部152は、受信したセンサデータを第2のグループに分類する。なお、算出された遅延時間がさらに長い(例えば数秒以上)場合、フィルタ部152はセンサデータを廃棄する。フィルタ部152の機能は、図4の制御部110により実現される。   The filter unit 152 acquires delay information related to the communication delay of the sensor data, and classifies the output data (sensor data) of the packet receiving unit 150 according to a predetermined condition based on the delay information. The delay information includes a delay time. The filter unit 152 calculates the delay time from when the sensor data is acquired to when it is received by the edge server 100 using the time information among the input sensor data and time information. Further, when the calculated delay time is short (for example, less than about 1 second), the filter unit 152 classifies the received sensor data into the first group. When the calculated delay time is long (for example, about 1 second or longer), the filter unit 152 classifies the received sensor data into the second group. If the calculated delay time is longer (for example, several seconds or more), the filter unit 152 discards the sensor data. The function of the filter unit 152 is realized by the control unit 110 of FIG.

データ記憶部154は、フィルタ部152によって第1のグループに分類されたセンサデータを記憶する遅延小グループ記憶部156と、第2のグループに分類されたセンサデータを記憶する遅延大グループ記憶部158とを含む。   The data storage unit 154 stores a small delay group storage unit 156 that stores the sensor data classified into the first group by the filter unit 152 and a large delay group storage unit 158 that stores the sensor data classified into the second group. Including.

解析処理部160は、リアルタイム解析処理部162と、予測解析処理部164とを含む。リアルタイム解析処理部162は、遅延小グループ記憶部156に記憶されている、遅延が小さいセンサデータに対してリアルタイムでの解析処理を実行する。リアルタイム解析処理部162は、遅延小グループ記憶部156からセンサデータを読出し、それに対して動体検出処理等の解析処理を行なう。リアルタイム解析処理部162はさらに、検出された対象を特定する情報(解析結果)を、当該センサデータの取得時刻t1と対応させて、対応する所定の出力バッファ(図示せず。)に記憶する。例えば、センサデータがデジタルカメラにより取得された動画データであれば、連続するフレーム間の差分を計算すること等により対象物を検出できる。   The analysis processing unit 160 includes a real-time analysis processing unit 162 and a prediction analysis processing unit 164. The real-time analysis processing unit 162 executes real-time analysis processing on sensor data with a small delay stored in the small delay group storage unit 156. The real-time analysis processing unit 162 reads the sensor data from the small delay group storage unit 156 and performs analysis processing such as moving object detection processing on the sensor data. The real-time analysis processing unit 162 further stores information (analysis result) for specifying the detected object in a corresponding predetermined output buffer (not shown) in association with the sensor data acquisition time t1. For example, if the sensor data is moving image data acquired by a digital camera, an object can be detected by calculating a difference between successive frames.

予測解析処理部164は、遅延大グループ記憶部158に記憶されている遅延が大きいセンサデータに対して予測解析処理を実行する。予測解析処理部164は、遅延大グループ記憶部158からセンサデータを読出して予測解析処理を実行し、その解析結果を、当該センサデータの取得時刻t1と対応させて、対応する所定の出力バッファ(図示せず。)に記憶する。例えば、予測解析処理部164は、センサデータをリアルタイム解析処理部162と同様に処理して対象を検出し、検出された対象の、遅延時間に応じた時間(例えば1〜2秒)だけ先の将来の状態を予測する。センサデータがデジタルカメラにより取得された動画データであれば、連続するフレーム間の差分を計算すること等により対象物の移動速度、加速度、移動方向等を検出できるので、これらの情報を用いて、遅延時間に応じた時間経過後の位置等を予測できる。リアルタイム解析処理部162、及び予測解析処理部164の各出力バッファには、記憶装置120(図4参照)の一部の領域を使用できる。   The prediction analysis processing unit 164 performs prediction analysis processing on sensor data with a large delay stored in the large delay group storage unit 158. The prediction analysis processing unit 164 reads the sensor data from the large delay group storage unit 158, executes the prediction analysis processing, and associates the analysis result with the acquisition time t1 of the sensor data to correspond to a predetermined output buffer ( (Not shown). For example, the prediction analysis processing unit 164 detects the target by processing the sensor data in the same manner as the real-time analysis processing unit 162, and advances the time corresponding to the delay time (for example, 1-2 seconds) of the detected target. Predict future conditions. If the sensor data is moving image data acquired by a digital camera, it is possible to detect the moving speed, acceleration, moving direction, etc. of the object by calculating the difference between successive frames, etc. The position after the lapse of time according to the delay time can be predicted. For each output buffer of the real-time analysis processing unit 162 and the prediction analysis processing unit 164, a partial area of the storage device 120 (see FIG. 4) can be used.

本実施の形態では、遅延時間に応じた上記時間は予め設定されており、この時間は、遅延大グループ記憶部158に記憶された(第2のグループに分類された)各センサデータに対して共通とされる。すなわち、第2のグループに属するセンサデータの遅延時間は実質的に同じとみなして、その遅延時間が、遅延時間に応じた上記時間として予め設定されている。なお、遅延時間に応じた時間は、遅延大グループ記憶部158に記憶されたセンサデータの遅延時間を統計的に処理して算出し、その算出結果を用いてもよい。   In the present embodiment, the time corresponding to the delay time is set in advance, and this time is set for each sensor data stored in the large delay group storage unit 158 (classified as the second group). It is common. That is, the delay time of the sensor data belonging to the second group is considered to be substantially the same, and the delay time is preset as the time corresponding to the delay time. The time corresponding to the delay time may be calculated by statistically processing the delay time of the sensor data stored in the large delay group storage unit 158 and using the calculation result.

同期処理部166は、所定のタイミングで、リアルタイム解析処理部162、及び予測解析処理部164のそれぞれに対応する出力バッファからデータ(解析結果及びセンサデータの取得時刻t1)を読出し、取得時刻t1が近い解析結果を1つのグループにまとめる。まとめた結果は同期処理部166に出力される。この処理を実行するタイミングを判定する基準は任意である。例えば、出力バッファに記憶された解析処理部160の処理結果が所定容量になったか否かを判定することにより、所定のタイミングになったか否かを判定する。また、記憶装置120への解析処理部160の処理結果の記憶回数が所定回数になったか否かを判定することにより、所定のタイミングになったか否かを判定してもよい。さらに記憶装置120に解析処理部160の処理結果を記憶した時間が所定時間になったか否かを判定することにより、所定のタイミングになったか否かを判定してもよい。   The synchronization processing unit 166 reads data (analysis result and sensor data acquisition time t1) from the output buffer corresponding to each of the real-time analysis processing unit 162 and the prediction analysis processing unit 164 at a predetermined timing, and the acquisition time t1 is Combine the close analysis results into one group. The collected results are output to the synchronization processing unit 166. The criterion for determining the timing for executing this process is arbitrary. For example, it is determined whether or not a predetermined timing has been reached by determining whether or not the processing result of the analysis processing unit 160 stored in the output buffer has reached a predetermined capacity. Further, it may be determined whether or not a predetermined timing has been reached by determining whether or not the number of times the processing result of the analysis processing unit 160 stored in the storage device 120 has been stored. Further, it may be determined whether or not a predetermined timing has been reached by determining whether or not the time when the processing result of the analysis processing unit 160 is stored in the storage device 120 has reached a predetermined time.

統合処理部168は、同期処理部166から入力されるデータの各グループを統合して、その結果を統合結果として記憶装置120の所定領域に記憶する。統合結果はパケット送信部170により適宜読出され、通信方式に応じたパケットデータに形成され、運転支援情報(動的情報)として車両60aの通信端末200(車載装置500)に送信される。同期処理部166及び統合処理部168の各機能は、制御部110により実現される。パケット送信部170の機能は、図4の通信部130により実現される。   The integration processing unit 168 integrates each group of data input from the synchronization processing unit 166 and stores the result in a predetermined area of the storage device 120 as an integration result. The integration result is appropriately read out by the packet transmission unit 170, formed into packet data according to the communication method, and transmitted as driving support information (dynamic information) to the communication terminal 200 (the in-vehicle device 500) of the vehicle 60a. Each function of the synchronization processing unit 166 and the integration processing unit 168 is realized by the control unit 110. The function of the packet transmission unit 170 is realized by the communication unit 130 of FIG.

[ソフトウェア構成]
《エッジサーバ100》
図9を参照して、リアルタイム性を確保した安全支援を行なうために、エッジサーバ100で実行されるコンピュータプログラムの制御構造について説明する。このプログラムは、エッジサーバ100を管理する管理者ユーザの操作に応じて開始する。
Software configuration
<< Edge Server 100 >>
With reference to FIG. 9, a control structure of a computer program executed by the edge server 100 in order to perform safety support with securing real-time properties will be described. This program starts in response to an operation of an administrator user who manages the edge server 100.

このプログラムは、センサデータを受信したか否かを判定し、センサデータを受信するまで待機するステップS1000と、ステップS1000において、センサデータを受信したと判定された場合に実行され、受信したセンサデータの遅延情報を取得するステップS1100と、ステップS1100の後に実行され、取得した遅延情報に基づいて、受信したセンサデータを分類し、制御をステップS1000に戻すステップS1200とを含む。ステップS1100では、遅延情報として、受信したセンサデータの遅延時間が取得される。   This program determines whether or not sensor data has been received, and waits until sensor data is received. In step S1000, the program is executed when it is determined that sensor data has been received in step S1000. Step S1100 for acquiring the delay information, and Step S1200 that is executed after Step S1100, classifies the received sensor data based on the acquired delay information, and returns the control to Step S1000. In step S1100, the delay time of the received sensor data is acquired as delay information.

図10は、図9のステップS1100の詳細なフローである。図10を参照して、このルーチンは、センサデータの受信時刻を取得して受信時刻t3として記憶装置120(図4参照)の所定領域に記憶するステップS1110と、ステップS1110の後に実行され、受信したセンサデータに含まれる時刻情報(取得時刻t1)と受信時刻t3との差分(t3−t1)をとることで当該センサデータの遅延時間を算出し、このルーチンを終了するステップS1120とを含む。   FIG. 10 is a detailed flow of step S1100 of FIG. Referring to FIG. 10, this routine is executed after step S1110 that acquires the reception time of sensor data and stores it in a predetermined area of storage device 120 (see FIG. 4) as reception time t3, and after reception of reception. Step S1120 includes calculating the delay time of the sensor data by taking the difference (t3-t1) between the time information (acquisition time t1) included in the sensor data and the reception time t3, and ending this routine.

図11は、図9のステップS1200の詳細なフローである。図11を参照して、このルーチンは、算出した遅延時間が所定の第1しきい値T1未満か否かを判定し、判定結果に応じて制御の流れを分岐させるステップS1210と、遅延時間が第1しきい値T1未満である場合に実行され、受信したセンサデータを第1のグループに分類するステップS1220と、ステップS1220の後に実行され、第1のグループに分類されたセンサデータを遅延小グループ記憶部156(図8参照)に記憶するステップS1230と、遅延時間が第1しきい値T1以上の場合に実行され、遅延時間が所定の第2しきい値T1未満か否かを判定し、判定結果に応じて制御の流れを分岐させるステップS1240と、遅延時間が第2しきい値T2未満である場合に実行され、受信したセンサデータを第2のグループに分類するステップS1250と、ステップS1250の後に実行され、第2のグループに分類されたセンサデータを遅延大グループ記憶部158(図8参照)に記憶するステップS1260と、遅延時間が第2しきい値T2以上の場合に実行され、当該センサデータを廃棄するステップS1270とを含む。ステップS1230、ステップS1260、又はステップS1270の処理が終了すると、このルーチンは終了する。   FIG. 11 is a detailed flow of step S1200 of FIG. Referring to FIG. 11, this routine determines whether or not the calculated delay time is less than a predetermined first threshold value T1, and branches the control flow according to the determination result, and the delay time. Step S1220 is executed when the received sensor data is classified into the first group, and is executed after step S1220 and the sensor data classified into the first group is reduced in delay. Step S1230 stored in the group storage unit 156 (see FIG. 8) is executed when the delay time is equal to or greater than the first threshold value T1, and it is determined whether or not the delay time is less than the predetermined second threshold value T1. Step S1240 for diverging the flow of control according to the determination result, and when the delay time is less than the second threshold value T2, the received sensor data is transferred to the second group. Step S1250 for classifying, Step S1260 executed after step S1250 and storing the sensor data classified into the second group in the large delay group storage unit 158 (see FIG. 8), and the delay time as the second threshold value Step S1270 is executed when it is T2 or more and the sensor data is discarded. When the process of step S1230, step S1260, or step S1270 ends, this routine ends.

第1しきい値T1は予め設定されていればよく、その値は、例えば1秒程度(例えば1秒)とすることができる。第2しきい値T2も予め設定されていればよく、その値は、例えば数秒程度(例えば2〜6秒の範囲内の値)とすることができる。   The first threshold value T1 only needs to be set in advance, and can be set to about 1 second (for example, 1 second), for example. The second threshold value T2 only needs to be set in advance, and the value can be, for example, about several seconds (for example, a value within a range of 2 to 6 seconds).

図12を参照して、エッジサーバ100において、図9に示されるプログラムと並行して実行されるコンピュータプログラムの制御構造について説明する。このプログラムは、図9に示されるプログラムが開始されたことに応じて開始する。   With reference to FIG. 12, a control structure of a computer program executed in parallel with the program shown in FIG. 9 in edge server 100 will be described. This program starts in response to the start of the program shown in FIG.

このプログラムは、遅延小グループ記憶部156又は遅延大グループ記憶部158にセンサデータが記憶されたか否かを判定し、センサデータが記憶されるまで待機するステップS2000と、ステップS2000において、センサデータが遅延小グループ記憶部156に記憶された場合に実行され、所定のタイミングで遅延小グループ記憶部156からセンサデータを読出して、リアルタイム解析処理部162(図8参照)に入力するステップS2100と、ステップS2100の後に実行され、入力されたセンサデータに対してリアルタイム解析処理を実行するステップS2200と、ステップS2000において、センサデータが遅延大グループ記憶部158に記憶された場合に実行され、所定のタイミングで遅延大グループ記憶部158からセンサデータを読出して、予測解析処理部164(図8参照)に入力するステップS2300と、ステップS2300の後に実行され、入力されたセンサデータに対して予測解析処理を実行するステップS2400とを含む。   This program determines whether or not sensor data has been stored in the small delay group storage unit 156 or the large delay group storage unit 158, and waits until the sensor data is stored. Step S2100 that is executed when stored in the small delay group storage unit 156, reads the sensor data from the small delay group storage unit 156 at a predetermined timing, and inputs the sensor data to the real-time analysis processing unit 162 (see FIG. 8); In step S2200, which is executed after S2100 and executes real-time analysis processing on the input sensor data, and in step S2000, it is executed when the sensor data is stored in the large delay group storage unit 158, and at a predetermined timing. Delay large group storage unit 1 Step S2300 for reading sensor data from 8 and inputting it to the prediction analysis processing unit 164 (see FIG. 8), and Step S2400 that is executed after Step S2300 and executes prediction analysis processing on the input sensor data. Including.

図13は、図12のステップS2200の詳細なフローである。図13を参照して、このルーチンは、入力されたセンサデータに対して動体検出処理等の所定の解析処理を実行するステップS2210と、ステップS2210の後に実行され、その解析結果に取得時刻t1を対応させたリアルタイム情報を生成して出力バッファに記憶するステップS2220とを含む。ステップS2220の処理が終了すると、このルーチンは終了する。   FIG. 13 is a detailed flow of step S2200 of FIG. Referring to FIG. 13, this routine is executed after step S2210 for performing predetermined analysis processing such as moving object detection processing on the input sensor data, and after step S2210, and the acquisition time t1 is added to the analysis result. Step S2220 for generating the corresponding real-time information and storing it in the output buffer. When the process of step S2220 ends, this routine ends.

図14は、図12のステップS2400の詳細なフローである。図14を参照して、このルーチンは、入力されたセンサデータに対して動体検出処理等の所定の解析処理を実行するステップS2410と、ステップS2410の後に実行され、予め設定された、遅延時間に応じた時間(例えば1〜2秒)だけ先の将来の状態を予測する処理を実行するステップS2420と、ステップS2420の後に実行され、予測解析処理で得られた結果に取得時刻t1を対応させた予測情報を生成して出力バッファに記憶するステップS2430とを含む。ステップS2430の処理が終了すると、このルーチンは終了する。   FIG. 14 is a detailed flow of step S2400 of FIG. Referring to FIG. 14, this routine is executed after step S2410 for performing predetermined analysis processing such as moving object detection processing on the input sensor data, and after step S2410, and at a preset delay time. Step S2420 for executing a process for predicting the future state ahead for a corresponding time (for example, 1 to 2 seconds) is executed after step S2420, and the acquisition time t1 is associated with the result obtained by the prediction analysis process. Step S2430 for generating prediction information and storing it in the output buffer. When the process of step S2430 ends, this routine ends.

再び図12を参照して、このプログラムはさらに、ステップS2200又はステップS2400の後に実行され、所定のタイミングになったか否かを判定し、判定結果に応じて制御の流れを分岐させるステップS2500を含む。ステップS2500の処理は、同期処理部166による処理に対応する。   Referring to FIG. 12 again, this program further includes step S2500 that is executed after step S2200 or step S2400, determines whether or not a predetermined timing has come, and branches the flow of control according to the determination result. . The processing in step S2500 corresponds to the processing by the synchronization processing unit 166.

このプログラムはさらに、ステップS2500において、所定のタイミングになったと判定された場合に実行され、ステップS2200及びステップS2400の処理結果に関して、取得時刻t1が所定値以内のものを1つのグループにまとめて、グループ毎の処理結果を統合するステップS2600と、ステップS2600の後に実行され、統合した情報を運転支援情報(動的情報)として、車載装置500(通信端末200)に送信(配信)するステップS2700とを含む。ステップS2700の後、又はステップS2500において、所定のタイミングではないと判定された場合は、制御はステップS2000に戻る。   This program is further executed when it is determined in step S2500 that the predetermined timing has been reached. Regarding the processing results of steps S2200 and S2400, the acquisition time t1 within the predetermined value is collected into one group, Step S2600 that integrates the processing results for each group, and Step S2700 that is executed after step S2600 and that transmits the integrated information as driving support information (dynamic information) to the in-vehicle device 500 (communication terminal 200). including. After step S2700 or when it is determined in step S2500 that the predetermined timing is not reached, control returns to step S2000.

《車載装置500》
図15を参照して、車両60に搭載される車載装置500で実行されるコンピュータプログラムの制御構造について説明する。このプログラムは、ユーザの操作に応じて開始する。
<< In-vehicle device 500 >>
With reference to FIG. 15, a control structure of a computer program executed by in-vehicle device 500 mounted on vehicle 60 will be described. This program starts in response to a user operation.

このプログラムは、自装置のタイマの時刻をエッジサーバ100のタイマの時刻に同期させる処理(時刻同期)を実行するステップS3000と、ステップS3000の後に実行され、車載カメラ512又はレーダセンサ514の計測データが取込まれたか否かを判定し、判定結果に応じて制御の流れを分岐させるステップS3100と、ステップS3100において、計測データが取込まれたと判定された場合に実行され、現在時刻を計測データの取得時刻として記憶するステップS3200と、ステップS3200の後に実行され、計測データに取得時刻を付加したセンサデータ、及び送信時刻を含むパケットデータを生成してエッジサーバ100に送信するステップS3300とを含む。   This program is executed after step S3000 for executing processing (time synchronization) for synchronizing the time of the timer of the own device with the time of the timer of the edge server 100, and measurement data of the in-vehicle camera 512 or the radar sensor 514. Is executed when it is determined in step S3100 that the measurement data has been acquired in step S3100, and the flow of control is branched in accordance with the determination result. Step S3200 that is stored as the acquisition time, and Step S3300 that is executed after Step S3200, generates sensor data that adds the acquisition time to the measurement data, and packet data that includes the transmission time, and transmits the packet data to the edge server 100. .

このプログラムはさらに、ステップS3300の後、又はステップS3100において、計測データが取込まれていないと判定された場合に実行され、通信部230を介してデータを受信したか否かを判定し、判定結果に応じて制御の流れを分岐させるステップS3400と、ステップS3400において、データを受信したと判定された場合に実行され、受信したデータが運転支援情報(動的情報)を含むか否かを判定し、判定結果に応じて制御の流れを分岐させるステップS3500と、運転支援情報を含む場合に実行され、受信した運転支援情報を提示するステップS3600と、運転支援情報を含まない場合に実行され、受信したパケットデータに応じて、予め定められた処理を実行するステップS3700と、ステップS3600若しくはステップS3700の後、又は、ステップS3400において、データを受信していないと判定された場合に実行され、終了が指示されているか否かを判定し、判定結果に応じて制御の流れを分岐させるステップS3800とを含む。終了の指示は、例えば車載装置500の電源がオフされることによりなされる。終了が指示されたと判定された場合は、このプログラムは終了する。一方、終了が指示されていないと判定された場合は、制御はステップS3100に戻る。   This program is further executed after step S3300 or when it is determined in step S3100 that measurement data has not been captured, and it is determined whether or not data has been received via the communication unit 230. Step S3400 for branching the flow of control according to the result, and if it is determined in step S3400 that data has been received, it is determined whether the received data includes driving support information (dynamic information). And step S3500 for branching the control flow according to the determination result, executed when the driving support information is included, step S3600 for presenting the received driving support information, and executed when the driving support information is not included. Steps S3700 and S3600 for executing predetermined processing according to the received packet data. Alternatively, after step S3700 or when it is determined in step S3400 that data has not been received, it is determined whether termination is instructed, and the control flow is branched according to the determination result. Step S3800. The termination instruction is given by turning off the power source of the in-vehicle device 500, for example. If it is determined that termination has been instructed, the program ends. On the other hand, if it is determined that the end is not instructed, the control returns to step S3100.

[動作]
本実施の形態に係る運転支援システム50は以下のように動作する。
[Operation]
The driving support system 50 according to the present embodiment operates as follows.

以下において、車載装置500からエッジサーバ100に送信されるセンサデータを含むパケットデータの構成は、予め定められた形式であり、エッジサーバ100により知られている(例えば、エッジサーバ100の記憶装置120にそのフォーマットが記憶されている)とする。エッジサーバ100から車載装置500に送信される運転支援情報を含むパケットデータの構成も、予め定められた形式であり、車載装置500により知られている(例えば、車載装置500の記憶部220にそのフォーマットが記憶されている)とする。   In the following, the configuration of packet data including sensor data transmitted from the in-vehicle device 500 to the edge server 100 is in a predetermined format and is known by the edge server 100 (for example, the storage device 120 of the edge server 100). Is stored in the format). The configuration of the packet data including the driving support information transmitted from the edge server 100 to the in-vehicle device 500 is also in a predetermined format and is known by the in-vehicle device 500 (for example, the storage unit 220 of the in-vehicle device 500 stores the information). Format is stored).

《エッジサーバ100》
図9を参照して、エッジサーバ100の制御部110は、パケットデータを受信すると、そのパケットデータに、後述するセンサデータコードc1が含まれているか否かを判定する。制御部110は、センサデータコードc1が含まれている、すなわち、センサデータを受信したと判定すると(ステップS1000においてYES)、受信したセンサデータの遅延時間(遅延情報)を取得する処理を実行する(ステップS1100)。図10を参照して、具体的には、制御部110は、タイマ(図示せず。)から現在時刻を取得し、センサデータの受信時刻t3として記憶装置120の所定領域に記憶する(ステップS1110)。制御部110は、受信したセンサデータに含まれる時刻情報を用いて遅延時間を算出する(ステップS1120)。後述するように、路側センサ400及び車載装置500から送信される、センサデータを含むパケットには、1組の{s1,t1,t2,c1}が含まれている。なお、「s1」はセンサデータである。制御部110は、記憶装置120から受信時刻t3を読出し、受信時刻t3から、受信したデータに含まれている取得時刻t1を減算して遅延時間(t3−t1)を算出する。
<< Edge Server 100 >>
Referring to FIG. 9, when receiving the packet data, the control unit 110 of the edge server 100 determines whether the packet data includes a sensor data code c <b> 1 described later. If it is determined that sensor data code c1 is included, that is, sensor data has been received (YES in step S1000), control unit 110 executes processing for obtaining a delay time (delay information) of the received sensor data. (Step S1100). Referring to FIG. 10, specifically, control unit 110 acquires the current time from a timer (not shown) and stores it in a predetermined area of storage device 120 as sensor data reception time t3 (step S1110). ). The control unit 110 calculates a delay time using time information included in the received sensor data (step S1120). As will be described later, a packet including sensor data transmitted from the roadside sensor 400 and the in-vehicle device 500 includes a set of {s1, t1, t2, c1}. “S1” is sensor data. The control unit 110 reads the reception time t3 from the storage device 120, and calculates the delay time (t3-t1) by subtracting the acquisition time t1 included in the received data from the reception time t3.

遅延時間を算出すると、制御部110は、算出した遅延時間に基づいて、受信したセンサデータを分類する(図9のステップS1200)。図11を参照して、制御部110は、まず、算出した遅延時間が第1しきい値T1未満であるか否かを判定する。遅延時間が第1しきい値T1未満である場合(ステップS1210においてYES)、制御部110は、当該センサデータを第1のグループに分類し(ステップS1220)、遅延小グループ記憶部156に記憶する(ステップS1230)。遅延時間が第1しきい値T1以上の場合(ステップS1210においてNO)、制御部110はさらに、当該遅延時間が第2しきい値T2未満か否かを判定する。遅延時間が第2しきい値T2未満の場合(ステップS1240においてYES)、制御部110は、当該センサデータを第2のグループに分類し(ステップS1250)、遅延大グループ記憶部158に記憶する(ステップS1260)。遅延時間が第2しきい値T2以上の場合(ステップS1240においてNO)、制御部110は、当該センサデータを廃棄する。このように、エッジサーバ100がセンサデータを受信した場合、受信したセンサデータは、遅延がより大きいセンサデータを除いて、遅延が小さいグループと、遅延が大きいグループとにグループ分けされる。さらに、遅延が大きいグループに属するセンサデータは、遅延時間のバラツキが一定範囲内に抑えられている。   When the delay time is calculated, the control unit 110 classifies the received sensor data based on the calculated delay time (step S1200 in FIG. 9). Referring to FIG. 11, control unit 110 first determines whether or not the calculated delay time is less than first threshold value T1. When the delay time is less than first threshold value T1 (YES in step S1210), control unit 110 classifies the sensor data into the first group (step S1220) and stores it in small delay group storage unit 156. (Step S1230). When the delay time is greater than or equal to first threshold value T1 (NO in step S1210), control unit 110 further determines whether or not the delay time is less than second threshold value T2. When the delay time is less than second threshold value T2 (YES in step S1240), control unit 110 classifies the sensor data into the second group (step S1250) and stores it in delay large group storage unit 158 ( Step S1260). If the delay time is greater than or equal to second threshold value T2 (NO in step S1240), control unit 110 discards the sensor data. Thus, when the edge server 100 receives sensor data, the received sensor data is grouped into a group with a small delay and a group with a large delay, except for sensor data with a large delay. Further, sensor data belonging to a group with a large delay has a variation in delay time within a certain range.

図12を参照して、遅延が小さいグループのセンサデータは、リアルタイム解析処理部162に入力され(ステップS2100)、リアルタイム解析処理部162によってリアルタイムでの解析処理(例えば動体検出等)が実行される(図13のステップS2210)。リアルタイム解析処理部162は、その解析結果を取得時刻t1と対応させて出力バッファ(記憶装置120)に記憶する(図13のステップS2220)。   Referring to FIG. 12, sensor data of a group with a small delay is input to real-time analysis processing unit 162 (step S2100), and real-time analysis processing (for example, moving object detection or the like) is executed by real-time analysis processing unit 162. (Step S2210 in FIG. 13). The real-time analysis processing unit 162 stores the analysis result in the output buffer (storage device 120) in association with the acquisition time t1 (step S2220 in FIG. 13).

一方、遅延が大きいグループのセンサデータは、予測解析処理部164に入力され(ステップS2300)、予測解析処理部164によって遅延時間に応じた時間だけ先の将来の状態を予測する処理が実行される。予測解析処理ではまず、リアルタイムでの解析処理と同様にして対象が検出される(図14のステップS2410)。その際、検出された対象の移動速度、加速度、移動方向等の情報も検出され、これらの情報を用いて、遅延時間に応じた時間経過後の位置等が予測される(図14のステップS2420)。例えば、遅延時間に応じた時間が1秒の場合、検出された移動速度、加速度、移動方向等の情報を用いることによって、検出された対象が1秒後(すなわち1秒だけ将来)にどの位置に移動しているかを予測(計算)できる。予測解析処理部164は、このようにして得た予測結果を取得時刻t1と対応させて出力バッファ(記憶装置120)に記憶する(図14のステップS2430)。これにより、遅延が大きいセンサデータであっても、遅延が小さいセンサデータと同様の解析結果が得られる。   On the other hand, the sensor data of the group with a large delay is input to the prediction analysis processing unit 164 (step S2300), and the prediction analysis processing unit 164 executes a process of predicting the future state ahead by the time corresponding to the delay time. . In the prediction analysis process, first, a target is detected in the same manner as the analysis process in real time (step S2410 in FIG. 14). At that time, information such as the detected moving speed, acceleration, and moving direction of the target is also detected, and the position after the passage of time corresponding to the delay time is predicted using these pieces of information (step S2420 in FIG. 14). ). For example, when the time corresponding to the delay time is 1 second, by using information such as the detected moving speed, acceleration, and moving direction, the position of the detected object after 1 second (that is, only 1 second in the future) Can be predicted (calculated). The prediction analysis processing unit 164 stores the prediction result thus obtained in the output buffer (storage device 120) in association with the acquisition time t1 (step S2430 in FIG. 14). Thereby, even if it is sensor data with a large delay, the same analysis result as sensor data with a small delay is obtained.

続いて、制御部110は、処理結果を統合するタイミングになったか否かを判定する。このタイミングは、上述のように、同期処理部166による処理のタイミングに対応する。なお、制御部110は、運転支援情報を配信すると、その次から記憶されるステップS2200及びステップS2400の処理結果以降をタイミング判定の対象とする。処理結果を統合するタイミングになると(ステップS2500においてYES)、制御部110は、繰返し実行されたステップS2000〜ステップS2400の処理結果に関して、取得時刻t1が所定値以内のものを1つのグループにまとめる。そして、グループ毎の処理結果を統合して運転支援情報(動的情報)を生成する(ステップS2600)。制御部110は、生成した運転支援情報を支援対象の車両60aに搭載された車載装置500(通信端末200)に送信(配信)する。   Subsequently, the control unit 110 determines whether or not it is time to integrate the processing results. As described above, this timing corresponds to the processing timing by the synchronization processing unit 166. Note that when the driving support information is distributed, the control unit 110 sets the subsequent processing results of step S2200 and step S2400 stored after that as the targets of timing determination. When it is time to integrate the processing results (YES in step S2500), control unit 110 collects the processing results of repeatedly executed steps S2000 to S2400 in which acquisition time t1 is within a predetermined value into one group. Then, the driving support information (dynamic information) is generated by integrating the processing results for each group (step S2600). The control unit 110 transmits (distributes) the generated driving support information to the in-vehicle device 500 (communication terminal 200) mounted on the support target vehicle 60a.

《車載装置500》
図15を参照して、車載装置500の制御部210は、エッジサーバ100との間で時刻同期を行なう(ステップS3000)。例えば、制御部210は、インターネット上で時刻情報を提供している公知のNTPサーバから現在時刻を取得してタイマ(図示せず。)に設定する。エッジサーバ100の制御部110が同様の方法で自装置のタイマ(図示せず。)の時刻を調整しておけば、車載装置500のタイマとエッジサーバ100のタイマとの時刻を同期させることができる。
<< In-vehicle device 500 >>
Referring to FIG. 15, control unit 210 of in-vehicle device 500 performs time synchronization with edge server 100 (step S3000). For example, the control unit 210 acquires the current time from a known NTP server that provides time information on the Internet, and sets the current time in a timer (not shown). If the control unit 110 of the edge server 100 adjusts the time of the timer (not shown) of its own device in the same manner, the time of the timer of the in-vehicle device 500 and the timer of the edge server 100 can be synchronized. it can.

なお、時刻同期の方法は任意である。例えば、制御部210は、GPS受信機520が受信するGPS信号から現在時刻を取得してタイマに設定してもよい。また、車載装置500が時刻情報を送信する標準電波を受信する機能を有していれば、制御部210は、標準電波により特定される現在時刻をタイマに設定してもよい。また、車載装置500が直接、エッジサーバ100に現在時刻を問合せて時刻同期を行なってもよい。その場合、回線速度に応じた遅延を考慮することが好ましい。   The time synchronization method is arbitrary. For example, the control unit 210 may acquire the current time from a GPS signal received by the GPS receiver 520 and set it in the timer. Further, if the in-vehicle device 500 has a function of receiving a standard radio wave that transmits time information, the control unit 210 may set the current time specified by the standard radio wave in the timer. Alternatively, the in-vehicle device 500 may inquire the current time directly from the edge server 100 and perform time synchronization. In that case, it is preferable to consider a delay according to the line speed.

時刻同期が終了すると、制御部210は、車載カメラ512又はレーダセンサ514の計測データが取込まれたか否かを判定する。計測データが取込まれると(ステップS3100においてYES)、制御部210は、タイマから現在時刻を取得し、センサデータの取得時刻t1として、センサデータとの対応が分かるように記憶部220の所定領域に記憶する(ステップS3200)。   When the time synchronization is completed, the control unit 210 determines whether or not the measurement data of the in-vehicle camera 512 or the radar sensor 514 has been captured. When the measurement data is captured (YES in step S3100), control unit 210 acquires the current time from the timer, and a predetermined area in storage unit 220 so that the correspondence with the sensor data can be known as sensor data acquisition time t1. (Step S3200).

制御部210は、記憶部220からセンサデータとそれに対応する取得時刻t1とを読出して、現在の通信回線に応じた形式のパケットデータを生成する。制御部210はさらにタイマから現在時刻を読出して送信時刻t2としてパケットデータに組込み、通信部230を介してエッジサーバ100に送信する(ステップS3300)。   The control unit 210 reads the sensor data and the corresponding acquisition time t1 from the storage unit 220, and generates packet data in a format corresponding to the current communication line. The control unit 210 further reads the current time from the timer, incorporates it into the packet data as transmission time t2, and transmits it to the edge server 100 via the communication unit 230 (step S3300).

上述したように、送信されるパケットデータには、エッジサーバ100との間で予め取決められた所定のコードとして1組の{s1,t1,t2,c1}が含まれる。なお、送信するセンサデータのデータ量が大きく、1つのパケットデータで送信できない場合、分割されたセンサデータを含む複数のパケットデータの少なくとも1つ(例えば、最初又は最後に送信されるパケットデータ)に、取得時刻t1及び送信時刻t2を組込んでおけばよい。エッジサーバ100は、受信した複数のパケットデータからセンサデータを生成(再構成)するため、それに対応する取得時刻t1及び送信時刻t2を特定できる。   As described above, the transmitted packet data includes a set of {s1, t1, t2, c1} as a predetermined code decided in advance with the edge server 100. When the amount of sensor data to be transmitted is large and cannot be transmitted with one packet data, at least one of a plurality of packet data including the divided sensor data (for example, packet data transmitted first or last) The acquisition time t1 and the transmission time t2 may be incorporated. Since the edge server 100 generates (reconstructs) sensor data from a plurality of received packet data, the edge server 100 can specify the acquisition time t1 and the transmission time t2 corresponding to the sensor data.

制御部210はさらに、通信部230によりデータを受信したか否かを判定する。データを受信した場合(ステップS3400においてYES)、制御部210は、受信したデータが運転支援情報を含むか否かを判定する。例えば、エッジサーバ100が、運転支援情報を含むパケットデータを送信するときに、所定のコードを付加して送信すれば、制御部210は、そのコードが含まれているか否かを判定することにより、運転支援情報を含むパケットデータを受信したか否かを判定できる。   The control unit 210 further determines whether data is received by the communication unit 230. When data is received (YES in step S3400), control unit 210 determines whether or not the received data includes driving support information. For example, when the edge server 100 transmits packet data including driving support information and adds a predetermined code, the control unit 210 determines whether or not the code is included. It is possible to determine whether or not packet data including driving support information has been received.

運転支援情報を受信すると(ステップS3500においてYES)、制御部210は、受信した運転支援情報を車両60の搭乗者(運転者)に提示する(ステップS3600)。運転支援情報の提示方法は任意である。例えば、運転支援情報は、ディスプレイ530に画像、文字等の形式で表示される。運転支援情報によっては、スピーカ540から音響として提示されてもよい。運転支援情報をそのまま提示できない場合には、所定の処理を実行し、その結果を提示すればよい。   When driving support information is received (YES in step S3500), control unit 210 presents the received driving support information to the passenger (driver) of vehicle 60 (step S3600). The method for presenting driving support information is arbitrary. For example, the driving support information is displayed on the display 530 in the form of images, characters, and the like. Depending on the driving support information, the sound may be presented from the speaker 540. If the driving support information cannot be presented as it is, a predetermined process may be executed and the result may be presented.

受信したデータに運転支援情報が含まれない場合(ステップS3500においてNO)、制御部210は、受信したパケットデータに応じて、予め定められた処理を実行する(ステップS3700)。例えば、受信したデータを所定のアプリケーションプログラムに引き渡す。   When the driving support information is not included in the received data (NO in step S3500), control unit 210 executes a predetermined process according to the received packet data (step S3700). For example, the received data is delivered to a predetermined application program.

以上のように、車載装置500は、車載センサ510により検知された対象を含むセンサデータが記憶部220に記憶される度に、そのセンサデータ、その取得時刻t1及び送信時刻t2を含むパケットデータを生成してエッジサーバ100に送信できる。   As described above, each time the sensor data including the object detected by the in-vehicle sensor 510 is stored in the storage unit 220, the in-vehicle device 500 receives the packet data including the sensor data, the acquisition time t1, and the transmission time t2. It can be generated and transmitted to the edge server 100.

なお、路側センサ400についても、車載装置500と同様、センサ(路側カメラ430)により検知された対象を含むセンサデータが記憶部220に記憶される度に、そのセンサデータ、その取得時刻t1及び送信時刻t2とを含むパケットデータをエッジサーバ100又はコアサーバ300に送信できる。   As for the roadside sensor 400, each time sensor data including an object detected by the sensor (roadside camera 430) is stored in the storage unit 220, the sensor data, the acquisition time t <b> 1, and the transmission are transmitted. Packet data including the time t2 can be transmitted to the edge server 100 or the core server 300.

《運転支援システム50》
図16を参照して、ある交差点での運転支援を例にして、運転支援システム50の動作について説明する。
<< Driving support system 50 >>
With reference to FIG. 16, the operation of the driving support system 50 will be described by taking driving support at an intersection as an example.

この交差点には、汎用デジタルカメラである第1の路側センサ400A、及び高性能デジタルカメラである第2の路側センサ400Bが設置されている。第1の路側センサ400Aは、例えば、障害物70により支援対象の車両60aから死角になる箇所の道路情報を収集する。同様に、第2の路側センサ400Bは、例えば、障害物72により支援対象となる車両60aから死角になる箇所の道路情報を収集する。   At this intersection, a first roadside sensor 400A, which is a general-purpose digital camera, and a second roadside sensor 400B, which is a high-performance digital camera, are installed. For example, the first roadside sensor 400A collects road information of a spot that becomes a blind spot from the vehicle 60a to be supported by the obstacle 70. Similarly, the 2nd roadside sensor 400B collects the road information of the place where it becomes a blind spot from the vehicle 60a used as support object by the obstacle 72, for example.

第1の路側センサ400Aは、有線回線(光回線)74を介してコアサーバ300と通信可能に接続されている。一方、第2の路側センサ400Bは、基地局66を介した無線通信によりエッジサーバ100と通信可能に接続される。ここでは、第2の路側センサ400Bは5G回線76によりエッジサーバ100と通信を行なうものとする。第1の路側センサ400Aからのセンサデータは、コアサーバ300を介して、エッジサーバ100に送信されるため、通信遅延が大きい。そのため、第1の路側センサ400Aからは遅れた情報が提供される。これに対し、第2の路側センサ400Bからのセンサデータは、5G回線76によりエッジサーバ100に直接送信されるため、通信遅延が小さい。そのため、第2の路側センサ400Bからはリアルタイム情報が提供される。なお、上記したように、エッジサーバ100は車載装置500から送信されるセンサデータをも受信して運転支援情報に供することができる。ここでは、車載装置500から送信されるセンサデータをエッジサーバ100が受信していないものとして説明する。   The first roadside sensor 400A is communicably connected to the core server 300 via a wired line (optical line) 74. On the other hand, the second roadside sensor 400B is communicably connected to the edge server 100 by wireless communication via the base station 66. Here, it is assumed that the second roadside sensor 400B communicates with the edge server 100 through the 5G line 76. Since sensor data from the first roadside sensor 400A is transmitted to the edge server 100 via the core server 300, the communication delay is large. Therefore, delayed information is provided from the first roadside sensor 400A. On the other hand, since the sensor data from the second roadside sensor 400B is directly transmitted to the edge server 100 through the 5G line 76, the communication delay is small. Therefore, real-time information is provided from the second roadside sensor 400B. As described above, the edge server 100 can also receive sensor data transmitted from the in-vehicle device 500 and provide it to the driving support information. Here, it is assumed that the edge server 100 has not received the sensor data transmitted from the in-vehicle device 500.

今、支援対象の車両60aが道路を交差点に向けて走行しており、その道路に対して交差する道路を、車両60c及び車両60dが交差点に向けて走行しているとする。第1の路側センサ400Aは、車両60cを撮影してその映像データ(センサデータ)をエッジサーバ100に送信し、第2の路側センサ400Bは、車両60dを撮影してその映像データ(センサデータ)をエッジサーバ100に送信する。エッジサーバ100は、これらのセンサデータを受信すると、第2の路側センサ400Bから送信されたセンサデータを遅延小グループ(第1のグループ)に分類し、第1の路側センサ400Aから送信されたセンサデータを遅延大グループ(第2のグループ)に分類する。   Now, it is assumed that the vehicle 60a to be supported is traveling toward the intersection on the road, and the vehicle 60c and the vehicle 60d are traveling toward the intersection on the road intersecting the road. The first roadside sensor 400A captures the vehicle 60c and transmits the video data (sensor data) to the edge server 100, and the second roadside sensor 400B captures the vehicle 60d and captures the video data (sensor data). Is transmitted to the edge server 100. Upon receiving these sensor data, the edge server 100 classifies the sensor data transmitted from the second roadside sensor 400B into a small delay group (first group), and transmits the sensor data transmitted from the first roadside sensor 400A. Data is classified into a large delay group (second group).

図17を参照して、遅延小グループに分類された、第2の路側センサ400Bからのセンサデータはリアルタイムでの解析処理が実行される。これにより、リアルタイム性の高い運転支援情報が生成される。図18を参照して、遅延大グループに分類された、第1の路側センサ400Aからのセンサデータは予測解析処理が実行される。第1の路側センサ400Aから送信されるセンサデータの遅延時間をN秒とすると、第1の路側センサ400Aが検出(撮影)した車両60cは、N秒後には、センサデータ送信時の位置P1から位置P2に移動している。予測解析処理では、第1の路側センサ400Aから送信されたセンサデータに対して、N秒後の状態、すなわち、位置P2に移動した状態を予測する。これにより、遅延が大きいセンサデータからもリアルタイム性の高い運転支援情報が生成される。   Referring to FIG. 17, the sensor data from second roadside sensor 400B classified into the small delay group is subjected to analysis processing in real time. Thereby, driving support information with high real-time property is generated. With reference to FIG. 18, the sensor data from the first roadside sensor 400A classified into the large delay group is subjected to a prediction analysis process. If the delay time of the sensor data transmitted from the first roadside sensor 400A is N seconds, the vehicle 60c detected (photographed) by the first roadside sensor 400A starts from the position P1 at the time of sensor data transmission after N seconds. It has moved to position P2. In the prediction analysis process, the state after N seconds, that is, the state moved to the position P2 is predicted for the sensor data transmitted from the first roadside sensor 400A. Thereby, driving support information with high real-time property is generated even from sensor data having a large delay.

再び図16を参照して、エッジサーバ100は、第1の路側センサ400Aからのセンサデータを予測解析処理することで得られた解析結果(予測情報)と、第2の路側センサ400Bからのセンサデータをリアルタイム解析処理することで得られた解析結果(リアルタイム情報)とを同期して統合することで運転支援情報を生成し、支援対象の車両60aに対して配信する。これにより、高度な安全支援を行なうことができる。   Referring to FIG. 16 again, the edge server 100 analyzes the sensor data from the first roadside sensor 400A by predictive analysis processing (prediction information) and the sensor from the second roadside sensor 400B. Driving support information is generated by synchronizing and integrating analysis results (real-time information) obtained by performing real-time analysis processing on the data, and distributed to the support target vehicle 60a. Thereby, advanced safety support can be performed.

[本実施の形態の効果]
以上の説明から明らかなように、本実施の形態に係る運転支援システム50及びエッジサーバ100は以下に述べる効果を奏する。
[Effects of the present embodiment]
As is clear from the above description, the driving support system 50 and the edge server 100 according to the present embodiment have the effects described below.

エッジサーバ100は、異なる遅延のセンサデータを受信すると、受信した各センサデータの遅延情報(遅延時間)に基づいて予測解析処理を実行するか否かを判定する。判定結果が肯定であるセンサデータについては、予測解析処理部164によって予測解析処理が行なわれる。この予測解析処理によって、リアルタイム性が高められた予測情報が生成される。一方、判定結果が否定であるセンサデータはリアルタイム解析処理部162によってリアルタイムでの解析処理が実行される。この解析処理によってリアルタイム情報が生成される。したがって、受信するセンサデータ毎に遅延時間のばらつきが生じる場合であっても、センサデータのいずれに対してもリアルタイム性の高い情報を生成できる。このような運転支援情報(動的情報)を、支援対象の車両60aに配信することによって、リアルタイム性を確保した安全支援を行なうことができる。   When the edge server 100 receives sensor data with different delays, the edge server 100 determines whether or not to execute the prediction analysis processing based on the delay information (delay time) of each received sensor data. For sensor data for which the determination result is affirmative, the prediction analysis processing unit 164 performs prediction analysis processing. By this prediction analysis process, prediction information with improved real-time properties is generated. On the other hand, real-time analysis processing is executed by the real-time analysis processing unit 162 for sensor data whose determination result is negative. Real-time information is generated by this analysis processing. Therefore, even when the delay time varies for each sensor data to be received, information with high real-time property can be generated for any of the sensor data. By distributing such driving support information (dynamic information) to the vehicle 60a to be supported, it is possible to perform safety support that ensures real-time performance.

さらに、予測解析処理を実行しない場合、同じ車両を遅延の大きい検知装置と遅延の小さい検知装置とで検出すると、1台の車両を2台と認識してしまうという不都合が生じる。一方、予測解析処理を実行する本実施の形態に係る運転支援システム50では、そうした不都合が生じるのを抑制できる。したがって、このような場合にも、精度の高い運転支援情報を提供できる。   Further, when the predictive analysis process is not executed, if the same vehicle is detected by the detection device having a large delay and the detection device having a small delay, there is a disadvantage that one vehicle is recognized as two vehicles. On the other hand, in the driving support system 50 according to the present embodiment that executes the prediction analysis process, it is possible to suppress the occurrence of such inconvenience. Accordingly, even in such a case, highly accurate driving support information can be provided.

予測解析処理部164は、処理対象のセンサデータの遅延時間に応じた時間だけ先の将来の状態を予測して予測情報を生成する。これにより、よりリアルタイム性の高い予測情報を生成できる。   The prediction analysis processing unit 164 generates prediction information by predicting the future state ahead by a time corresponding to the delay time of the sensor data to be processed. Thereby, prediction information with higher real-time property can be generated.

エッジサーバ100の制御部110は、遅延時間が所定のしきい値T1以上か否かに基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定する。これにより、予測解析処理を実行するか否かの判定を容易かつ正確に行なうことができる。   The control unit 110 of the edge server 100 determines whether or not to perform the prediction analysis process on each of the sensor data based on whether or not the delay time is equal to or greater than a predetermined threshold value T1. As a result, it is possible to easily and accurately determine whether to execute the prediction analysis process.

エッジサーバ100の制御部110は、遅延時間を所定のしきい値と比較することにより、受信したセンサデータを、遅延時間がしきい値未満である第1のグループ及び遅延時間がしきい値以上である第2のグループに分類する。制御部110はさらに、その分類結果に基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定する。リアルタイム解析処理部162は、第1のグループに属するセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成し、予測解析処理部164は、第2のグループに属するセンサデータに対して予測解析処理を実行して予測情報を生成する。これにより、受信したセンサデータを、遅延の小さいグループと、遅延の大きいグループに容易に分類できる。このように分類することで、受信したセンサデータに対して、予測解析処理、及びリアルタイム解析処理を容易に行なうことができる。   The control unit 110 of the edge server 100 compares the delay time with a predetermined threshold value so that the received sensor data includes the first group whose delay time is less than the threshold and the delay time equal to or greater than the threshold value Into the second group. Further, the control unit 110 determines whether or not to perform a prediction analysis process on each of the sensor data based on the classification result. The real-time analysis processing unit 162 performs real-time analysis processing on the sensor data belonging to the first group to generate real-time information, and the prediction analysis processing unit 164 performs the sensor data belonging to the second group. The prediction analysis process is executed to generate prediction information. Thereby, the received sensor data can be easily classified into a group with a small delay and a group with a large delay. By classifying in this way, it is possible to easily perform prediction analysis processing and real-time analysis processing on the received sensor data.

このように、本実施の形態に係る運転支援システム50及びエッジサーバ100によれば、異なる遅延のセンサデータを活用して、リアルタイム性を確保した安全支援を行なうことができる。加えて、精度の高い運転支援情報を各車両60の車載装置500に提供できるので、運転中の搭乗者をより一層支援できる。   Thus, according to the driving support system 50 and the edge server 100 according to the present embodiment, it is possible to perform safety support that secures real-time performance by using sensor data of different delays. In addition, since highly accurate driving support information can be provided to the in-vehicle device 500 of each vehicle 60, it is possible to further support a passenger who is driving.

なお、本実施の形態では、車載装置500がセンサデータに付加した送信時刻t2は、エッジサーバ100で使用されない。しかし、センサデータが対象を検知した時刻(感知時刻)からセンサデータがエッジサーバ100によって受信されるまでの遅延時間には複数の要因による遅延時間が含まれるため、遅延要因の評価に利用できる。例えば、遅延時間が増大した場合等において、いずれの要因の影響が大きいのかを特定するために利用できる。   In the present embodiment, the transmission time t2 added to the sensor data by the in-vehicle device 500 is not used by the edge server 100. However, since the delay time from the time when the sensor data is detected (sensing time) until the sensor data is received by the edge server 100 includes a delay time due to a plurality of factors, it can be used to evaluate the delay factor. For example, it can be used to specify which factor has a large influence when the delay time increases.

(第2の実施の形態)
図19を参照して、本実施の形態に係る運転支援システム50Aは、リアルタイム解析処理と予測解析処理とを別々のエッジサーバ100で実行する点において、第1の実施の形態とは異なる。その他の構成は、第1の実施の形態と同様である。
(Second Embodiment)
Referring to FIG. 19, driving support system 50 </ b> A according to the present embodiment is different from the first embodiment in that real-time analysis processing and prediction analysis processing are executed by separate edge servers 100. Other configurations are the same as those of the first embodiment.

運転支援システム50Aは、第1のエッジサーバ100a及び第2のエッジサーバ100bを含む。第1のエッジサーバ100a及び第2のエッジサーバ100bは、支援対象の車両60aに対する運転支援処理を分散して行なう。第1のエッジサーバ100aと第2のエッジサーバ100bとは、メトロネットワークを介して、互いに通信可能に接続されている。   The driving support system 50A includes a first edge server 100a and a second edge server 100b. The first edge server 100a and the second edge server 100b perform driving support processing for the support target vehicle 60a in a distributed manner. The first edge server 100a and the second edge server 100b are communicably connected to each other via a metro network.

第1のエッジサーバ100aは、1又は複数の検知装置と通信可能であり、複数の検知装置から送信されるセンサデータを受信する。第1のエッジサーバ100aは、受信したセンサデータの分類処理を実行し、複数の検知装置から送信されるセンサデータを、遅延情報(遅延時間)に基づいて、遅延小グループ(第1のグループ)と遅延大グループ(第2のグループ)とに分類する。第1のエッジサーバ100aはさらに、遅延小グループ(第1のグループ)に分類されたセンサデータに対してリアルタイム解析処理を実行する。   The first edge server 100a can communicate with one or a plurality of detection devices, and receives sensor data transmitted from the plurality of detection devices. The first edge server 100a executes a process of classifying the received sensor data, and sensor data transmitted from a plurality of detection devices is converted into a small delay group (first group) based on delay information (delay time). And a large delay group (second group). The first edge server 100a further executes real-time analysis processing on the sensor data classified into the small delay group (first group).

第2のエッジサーバ100bは、遅延大グループ(第2のグループ)に分類されたセンサデータに対して予測解析処理を実行し、その結果を第1のエッジサーバ100aに送信する。第1のエッジサーバ100aは、自装置で実行したリアルタイム解析処理の結果と、第2のエッジサーバ100bで実行された予測解析処理の結果とを統合した運転支援情報を生成し、支援対象の車両60a(通信端末200)に配信する。   The second edge server 100b performs a prediction analysis process on the sensor data classified into the large delay group (second group), and transmits the result to the first edge server 100a. The first edge server 100a generates driving support information obtained by integrating the result of the real-time analysis process executed by the own device and the result of the prediction analysis process executed by the second edge server 100b, and the vehicle to be supported 60a (communication terminal 200).

このように、本実施の形態に係る運転支援システム50Aは、リアルタイム性を確保した安全支援を行なうための処理を複数のエッジサーバ100a及び100bで分散して実行する。これにより、エッジサーバの処理負荷を低減しながら、高度な安全支援を行なうことができる。   As described above, the driving support system 50A according to the present embodiment executes the processing for performing the safety support that secures the real-time property in a distributed manner by the plurality of edge servers 100a and 100b. As a result, advanced safety support can be performed while reducing the processing load on the edge server.

なお、分散して処理するエッジサーバの台数は2台に限定されず、3台以上であってもよい。例えば、遅延情報(遅延時間)に基づくセンサデータを分類処理、上記リアルタイム解析処理、及び上記予測解析処理を、3台のエッジサーバ100で分担する構成であってもよい。上記リアルタイム解析処理、又は上記予測解析処理を実行するサーバ装置はエッジサーバ以外のサーバ装置(例えばコアサーバ)であってもよい。さらに、上記した運転支援(安全支援)を複数のエッジサーバで分担して行なう場合に、これら複数のエッジサーバ全体でサーバ装置(情報処理装置)ということもできる。   The number of edge servers to be distributed and processed is not limited to two, and may be three or more. For example, the sensor data based on the delay information (delay time) may be configured to share the classification processing, the real-time analysis processing, and the prediction analysis processing by the three edge servers 100. The server device that executes the real-time analysis process or the prediction analysis process may be a server device (for example, a core server) other than the edge server. Further, when the driving assistance (safety assistance) described above is shared by a plurality of edge servers, the plurality of edge servers as a whole can also be referred to as a server apparatus (information processing apparatus).

(第3の実施の形態)
本実施の形態に係るエッジサーバ(運転支援システム)は、センサデータが送信される通信回線の種類に基づいて、複数の検知装置から送信されるセンサデータに対して予測解析処理を実行するか否かを判定する。その点において、本実施の形態に係るエッジサーバは、第1及び第2の実施の形態とは異なる。その他の点では、各エッジサーバは同一の構成である。
(Third embodiment)
Whether or not the edge server (driving support system) according to the present embodiment performs the prediction analysis process on the sensor data transmitted from the plurality of detection devices based on the type of the communication line to which the sensor data is transmitted. Determine whether. In that respect, the edge server according to the present embodiment is different from the first and second embodiments. In other respects, each edge server has the same configuration.

センサデータに対して異なる処理のいずれを実行するかを判定する基準は、遅延時間に関する情報であればよく、遅延時間に限定されない。遅延時間の原因となる要因のうち、通常、通信時間による遅延が大きく、回線の種類に応じて遅延時間が異なる。したがって、回線の種類は、概ね遅延時間に対応していると言える。   The criterion for determining which of the different processes is performed on the sensor data may be information regarding the delay time, and is not limited to the delay time. Of the factors that cause the delay time, the delay due to the communication time is usually large, and the delay time varies depending on the type of line. Therefore, it can be said that the type of line generally corresponds to the delay time.

本実施の形態では、こうした点に鑑みて、エッジサーバは、センサデータを送信している相手(車載装置又は路側センサ)との通信回線の種類(光回線、5G回線、LTE回線等)に応じて、各センサデータを分類する。すなわち、エッジサーバは、通信回線の種類に応じて、センサデータに対して異なる処理を実行する。   In this embodiment, in view of these points, the edge server depends on the type of communication line (optical line, 5G line, LTE line, etc.) with the other party (on-vehicle device or roadside sensor) that is transmitting the sensor data. Then, each sensor data is classified. In other words, the edge server performs different processing on the sensor data depending on the type of communication line.

より詳細には、車載装置及び路側センサは、通信回線の種類を識別するための識別情報をセンサデータに付加してエッジサーバ又はコアサーバに送信する。エッジサーバは、センサデータに付加されている識別情報に基づいて、当該センサデータが送信された通信回線の種類を判別する。   More specifically, the in-vehicle device and the roadside sensor add identification information for identifying the type of the communication line to the sensor data and transmit it to the edge server or the core server. The edge server determines the type of the communication line to which the sensor data is transmitted based on the identification information added to the sensor data.

図20を参照して、エッジサーバの記憶装置には、通信回線の種類(識別情報)と、分類グループ及びおおよその遅延時間とが対応付けられたテーブル180が記憶されている。エッジサーバは、テーブル180を参照して、センサデータを第1のグループ又は第2のグループに分類する。すなわち、識別情報に基づいて、センサデータの各々に対して予測解析処理を実行するか否かを判定する。   Referring to FIG. 20, the storage device of the edge server stores a table 180 in which the communication line type (identification information), the classification group, and the approximate delay time are associated with each other. The edge server refers to the table 180 and classifies the sensor data into the first group or the second group. That is, based on the identification information, it is determined whether or not to perform the predictive analysis process on each of the sensor data.

なお、コアサーバを経由してセンサデータを受信する場合、通信回線の種類に関わらず、遅延が大きくなる可能性がある。そのため、上記判定においては、コアサーバ経由でセンサデータを受信したか否かをも考慮して行なうように構成されていると好ましい。   Note that when sensor data is received via the core server, there is a possibility that the delay becomes large regardless of the type of communication line. Therefore, it is preferable that the determination is made in consideration of whether sensor data is received via the core server.

(第4の実施の形態)
本実施の形態に係るエッジサーバは、車両(車載装置)から送信される、当該車両の走行予定ルートを受信し、受信した走行予定ルートに基づいて、当該走行予定ルートを送信した車両に対して運転支援情報を配信する。その点において、本実施の形態に係るエッジサーバは、第1〜第3の実施の形態とは異なる。その他の点では、各エッジサーバは同一の構成である。
(Fourth embodiment)
The edge server according to the present embodiment receives the planned travel route of the vehicle, which is transmitted from the vehicle (on-vehicle device), and based on the received planned travel route, the vehicle that has transmitted the planned travel route Deliver driving assistance information. In that respect, the edge server according to the present embodiment is different from the first to third embodiments. In other respects, each edge server has the same configuration.

エッジサーバは、走行予定ルートを事前に受信することによって、受信した移動予定ルートに基づいて、走行予定のないエリア、又は車両が近づくまでに時間を要するエリア等を認識できる。そのようなエリアは支援対象の車両が走行していないエリアであり、運転支援情報を配信する必要がない。したがって、エッジサーバは、そのようなエリアから送信されるセンサデータに対して、予測解析処理又はリアルタイム解析処理の実行を停止できる。これにより、エッジサーバの処理負荷を低減しながら、安全支援を行なうことができる。   By receiving the planned travel route in advance, the edge server can recognize an area where there is no planned travel or an area that requires time until the vehicle approaches, based on the received planned travel route. Such an area is an area where the vehicle to be supported is not traveling, and it is not necessary to distribute driving support information. Therefore, the edge server can stop the execution of the prediction analysis process or the real-time analysis process for the sensor data transmitted from such an area. Thereby, safety support can be performed while reducing the processing load of the edge server.

(第5の実施の形態)
本実施の形態に係る運転支援システム50Bは、エッジサーバ側での処理を車載装置側で処理する点において、第1〜第4の実施の形態とは異なる。
(Fifth embodiment)
The driving support system 50B according to the present embodiment is different from the first to fourth embodiments in that the processing on the edge server side is processed on the in-vehicle device side.

図21を参照して、運転支援システム50Bは、支援対象の車両60aに搭載される車載装置500Aを含む。車載装置500Aは、エッジサーバによる運転支援機能と同様の機能を持つ。すなわち、車載装置500Aは、複数の検知装置から送信されるセンサデータを受信する受信処理、受信したセンサデータに対して、遅延情報(遅延時間)に基づいて分類する分類処理、分類されたセンサデータに対してリアルタイム解析又は予測解析を行なう解析処理、解析処理の結果を統合する統合処理、及び、統合処理によって生成された運転支援情報を車両60aの搭乗者(運転者)に対して提示する処理等を実行する。   Referring to FIG. 21, the driving support system 50B includes an in-vehicle device 500A mounted on a vehicle 60a to be supported. The in-vehicle device 500A has the same function as the driving support function by the edge server. That is, the in-vehicle device 500A receives the sensor data transmitted from the plurality of detection devices, the classification processing for classifying the received sensor data based on the delay information (delay time), and the classified sensor data Analysis processing for performing real-time analysis or prediction analysis on the vehicle, integration processing for integrating the results of the analysis processing, and processing for presenting driving support information generated by the integration processing to the passenger (driver) of the vehicle 60a Etc.

受信するセンサデータの遅延情報(遅延時間)は、センサデータの取得時刻t1と当該センサデータの受信時刻t3とから算出される。前方を走行する車両において遅延時間を既に算出している場合、車載装置500Aは前方の車両と通信して当該車両から遅延時間を取得するよう構成されていてもよい。すなわち、車車間通信によって、前方の車両から遅延時間を予め取得してもよい。さらに、検知装置が、自装置が送信するセンサデータの遅延時間を遅延時間情報として保持している場合、車載装置500Aはその検知装置と事前に通信して当該検知装置から遅延時間情報を取得するよう構成されていてもよい。   The delay information (delay time) of the received sensor data is calculated from the sensor data acquisition time t1 and the sensor data reception time t3. When the delay time has already been calculated in the vehicle traveling ahead, the in-vehicle device 500A may be configured to communicate with the vehicle ahead and acquire the delay time from the vehicle. That is, the delay time may be acquired in advance from the vehicle ahead by inter-vehicle communication. Further, when the detection device holds the delay time of the sensor data transmitted by itself as delay time information, the in-vehicle device 500A communicates with the detection device in advance to acquire the delay time information from the detection device. It may be configured as follows.

さらに、車載装置500Aによる運転支援情報の提供と、エッジサーバによる運転支援情報の提供とを、エッジサーバの設置有無に応じて切り替えてもよい。エッジサーバの設置有無の情報は、例えば、コアサーバから取得できる。具体的には、車載装置500Aは、コアサーバと通信し、当該コアサーバに対して現在の位置情報を送信する。コアサーバは、受信した位置情報に基づいて、支援対象の車両60a(車載装置500A)が走行しているエリアに対してサービスを提供するエッジサーバの有無を調べる。コアサーバは、その結果(エッジサーバの有無)を車載装置500Aに送信する。車載装置500Aは、コアサーバから送信される、エッジサーバの有無の情報を受信し、受信した情報に基づいて、運転支援を行なうための上記処理を自装置で実行か否かを切り替える。   Furthermore, the driving support information provided by the in-vehicle device 500A and the driving support information provided by the edge server may be switched depending on whether or not the edge server is installed. Information on whether or not an edge server is installed can be acquired from, for example, a core server. Specifically, the in-vehicle device 500A communicates with the core server and transmits the current position information to the core server. Based on the received position information, the core server checks whether or not there is an edge server that provides a service to the area where the support target vehicle 60a (the in-vehicle device 500A) is traveling. The core server transmits the result (the presence / absence of an edge server) to the in-vehicle device 500A. The in-vehicle device 500A receives the information on the presence / absence of an edge server transmitted from the core server, and switches whether or not to execute the above-described process for providing driving assistance based on the received information.

すなわち、走行中のエリアにエッジサーバが設置されていない場合、車載装置500Aは、受信したセンサデータを処理して運転支援情報を生成し、運転中の搭乗者に提示する。一方、走行中のエリアにエッジサーバが設置されている場合は、第1の実施の形態と同様、車載装置500Aは、エッジサーバから配信される運転支援情報を受信して、運転中の搭乗者に提示する。これにより、エッジサーバによる運転支援サービスが提供されていないエリアであっても、高度な安全支援を行なうことができる。車載装置500Aのその他の構成は、第1〜第4の実施の形態で示した車載装置500と同様である。   That is, when the edge server is not installed in the traveling area, the in-vehicle device 500A processes the received sensor data to generate driving support information, and presents it to the driving passenger. On the other hand, when the edge server is installed in the traveling area, the in-vehicle device 500A receives the driving support information distributed from the edge server and receives the driving passenger as in the first embodiment. To present. Thereby, even in an area where the driving support service by the edge server is not provided, advanced safety support can be performed. The other configuration of the in-vehicle device 500A is the same as that of the in-vehicle device 500 shown in the first to fourth embodiments.

(第6の実施の形態)
本実施の形態に係る運転支援システムは、処理対象のセンサデータ毎に、各センサデータの遅延時間だけ先の将来の状態を予測して予測情報を生成する点において、予め設定された、遅延時間に応じた時間だけ先の将来の状態を予測する上記実施の形態とは異なる。
(Sixth embodiment)
The driving support system according to the present embodiment has a preset delay time in that prediction information is generated by predicting a future state ahead of the delay time of each sensor data for each sensor data to be processed. This is different from the above-described embodiment in which a future state ahead is predicted by a time corresponding to.

上記実施の形態では、遅延が大きい、第2のグループに属するセンサデータの遅延時間は実質的に同じとみなして、予測解析処理を実行した。これに対して、本実施の形態では、センサデータ毎の遅延時間を用いて予測解析処理を実行する。すなわち、本実施の形態の予測解析処理では、各センサデータに対して、実際の遅延時間だけ先の将来の状態を予測する。これにより、生成される予測情報のリアルタイム性をより高めることができる。   In the above embodiment, the prediction analysis process is executed by regarding the delay time of the sensor data belonging to the second group having a large delay as substantially the same. On the other hand, in this Embodiment, a prediction analysis process is performed using the delay time for every sensor data. That is, in the prediction analysis process of the present embodiment, the future state ahead is predicted for each sensor data by the actual delay time. Thereby, the real-time property of the prediction information produced | generated can be improved more.

なお、この場合、第2しきい値T2を設定せずに、遅延時間が第1しきい値T1以上のセンサデータを第2のグループに分類するようにしてもよい。このように構成すれば、上記実施の形態では廃棄の対象となるセンサデータに対しても予測解析処理を行なうことができる。ただし、遅延が大きすぎるセンサデータは、予測解析処理を行うことによってリアルタイム性を高めても、動的情報として利用するのが困難になることがある。そのため、第2しきい値T2を設定して、遅延が大きすぎるセンサデータを予測解析処理の対象から除外するのが好ましい。   In this case, sensor data with a delay time equal to or greater than the first threshold value T1 may be classified into the second group without setting the second threshold value T2. If comprised in this way, in the said embodiment, a prediction analysis process can be performed also with respect to the sensor data used as the object of discard. However, sensor data with too large delay may be difficult to use as dynamic information even if real-time performance is improved by performing predictive analysis processing. For this reason, it is preferable to set the second threshold value T2 and exclude sensor data with too large delay from the target of the prediction analysis process.

(変形例)
上記実施の形態では、車載装置に通信端末が含まれる構成について示したが、本発明はそのような実施の形態には限定されない。運転支援情報を受信する通信端末は、車載装置とは別の装置であってもよい。例えば、通信端末は、搭乗者が車両に持ち込んだ携帯端末であってもよい。搭乗者の携帯端末は、例えば車内LANに接続されることにより、一時的に車載の無線通信機とすることができる。
(Modification)
In the said embodiment, although shown about the structure by which a communication terminal is contained in a vehicle-mounted apparatus, this invention is not limited to such embodiment. The communication terminal that receives the driving support information may be a device different from the in-vehicle device. For example, the communication terminal may be a mobile terminal brought into the vehicle by the passenger. The passenger's portable terminal can be temporarily used as an in-vehicle wireless communication device by being connected to the in-vehicle LAN, for example.

上記実施の形態では、支援対象の車両に対して運転支援情報を配信する例について示したが、本発明はそのような実施の形態には限定されない。例えば、通信端末は、歩行者が携帯する携帯端末であってもよい。この場合、歩行者に対して、安全支援を行なうことができる。   In the above-described embodiment, the example in which the driving support information is distributed to the vehicle to be supported has been described, but the present invention is not limited to such an embodiment. For example, the communication terminal may be a mobile terminal carried by a pedestrian. In this case, safety support can be provided for pedestrians.

上記実施の形態では、遅延時間が第2しきい値T2以上のセンサデータを廃棄する例について示したが、本発明はそのような実施の形態には限定されない。遅延時間が第2しきい値T2以上のセンサデータは、例えば、非リアルタイム処理に用いるようにしてもよい。より詳細には、例えば、フィルタ部によって、遅延時間が第2しきい値T2以上のセンサデータを第3のグループに分類してバッファに記憶し、このバッファに記憶されたセンサデータに対して、リアルタイム解析処理及び予測解析処理以外の処理(ここでは、非リアルタイム処理)を行なうようにしてもよい。すなわち、受信されたセンサデータを、遅延情報に基づいて、3つ以上の複数の処理部のそれぞれに振り分けて、各処理部にて所定の処理を実行するようにしてもよい。   In the above-described embodiment, an example in which sensor data having a delay time equal to or greater than the second threshold T2 has been described, but the present invention is not limited to such an embodiment. Sensor data with a delay time equal to or greater than the second threshold value T2 may be used for non-real time processing, for example. More specifically, for example, the filter unit classifies sensor data whose delay time is equal to or greater than the second threshold value T2 into a third group and stores it in a buffer, and for the sensor data stored in this buffer, Processing (here, non-real time processing) other than real time analysis processing and prediction analysis processing may be performed. That is, the received sensor data may be distributed to each of the three or more processing units based on the delay information, and a predetermined process may be executed by each processing unit.

上記実施の形態では、受信したセンサデータを、遅延が小さい第1のグループと遅延が大きい第2のグループに分類する例について示したが、本発明はそのような実施の形態には限定されない。例えば、遅延が大きい第2のグループを、遅延時間に応じて段階的に複数のグループに分類してもよい。すなわち、受信されたセンサデータを、遅延情報に基づいて、3つ以上の複数の処理部のそれぞれに振り分けるようにしてもよい。例えば、第1しきい値T1と第2しきい値T2との間に1又は複数のしきい値R(R1,R2,・・・,Rn)をさらに設定し、遅延時間が第1しきい値T1以上しきい値R1未満のセンサデータをA1グループに分類し、遅延時間がしきい値R1以上しきい値R2未満のセンサデータをA2グループに分類し、・・・、遅延時間がしきい値Rn以上第2しきい値T2未満のセンサデータをAnグループに分類するようにしてもよい。この場合、分類したグループ毎に遅延時間に応じた時間を予め設定し、分類したグループ毎に予測解析処理を実行するようにしてもよい。   In the above embodiment, the received sensor data is illustrated as being classified into the first group having a small delay and the second group having a large delay, but the present invention is not limited to such an embodiment. For example, the second group having a large delay may be classified into a plurality of groups in stages according to the delay time. That is, the received sensor data may be distributed to each of the three or more processing units based on the delay information. For example, one or more threshold values R (R1, R2,..., Rn) are further set between the first threshold value T1 and the second threshold value T2, and the delay time is the first threshold value. Sensor data with value T1 or more and less than threshold value R1 is classified into A1 group, sensor data with delay time of more than threshold value R1 and less than threshold value R2 is classified into A2 group, ..., delay time threshold Sensor data that is greater than or equal to the value Rn and less than the second threshold value T2 may be classified into the An group. In this case, a time corresponding to the delay time may be set in advance for each classified group, and the prediction analysis process may be executed for each classified group.

上記実施の形態では、コアサーバ側では受信したセンサデータに対して解析処理を実行しない例について示したが、本発明はそのような実施の形態には限定されない。受信したセンサデータに対する解析処理をコアサーバで行なうようにしてもよい。   In the above-described embodiment, an example in which analysis processing is not performed on the received sensor data on the core server side has been described, but the present invention is not limited to such an embodiment. Analysis processing on the received sensor data may be performed by the core server.

上記実施の形態では、予測解析処理において、検出された対象の移動速度、加速度、移動方向等の情報を用いて、遅延時間に応じた時間経過後の位置等を予測する例について示したが、本発明はそのような実施の形態には限定されない。例えば、走行中の車両が右折又は左折する場合、右折又は左折する前に当該車両が外側に膨らむことがあるため、車両の移動軌跡等を検出することによって、右左折するか否か等を予測するようにしてもよい。さらに、検出装置(例えば路側センサ)で検出された対象が車両の場合、遅延時間に相当する時間経過後に当該車両から送信される位置情報を取得して、取得した位置情報を正解データとして機械学習するようにしてもよい。遅延時間に相当する時間経過後の当該車両の位置が検出装置の検出エリア内である場合、検出装置から送信されるセンサデータ(例えば映像データ等)を用いて遅延時間に応じた将来の状態を機械学習するようにしてもよい。機械学習により学習モデルを構築することによって、受信したセンサデータから遅延時間に応じた将来の状態を容易に予測することが可能となる。   In the above embodiment, in the prediction analysis process, an example of predicting the position after the passage of time according to the delay time using information such as the detected moving speed, acceleration, and moving direction of the target has been shown. The present invention is not limited to such an embodiment. For example, when a traveling vehicle turns right or left, the vehicle may bulge outside before making a right or left turn, so it is predicted whether to make a right or left turn etc. You may make it do. Furthermore, when the object detected by the detection device (for example, a roadside sensor) is a vehicle, the position information transmitted from the vehicle is acquired after the time corresponding to the delay time has elapsed, and machine learning is performed using the acquired position information as correct data. You may make it do. When the position of the vehicle after the elapse of the time corresponding to the delay time is within the detection area of the detection device, the future state corresponding to the delay time is determined using sensor data (for example, video data) transmitted from the detection device. Machine learning may be performed. By constructing a learning model by machine learning, it is possible to easily predict the future state according to the delay time from the received sensor data.

運転者の視線情報と車両から得られる情報とを組合せた運転行動予測を行なう技術も提案されており、予測解析処理において、こうした技術を用いるようにしてもよい。具体的には、検出装置で検出された車両からこのような運転行動予測情報を取得することにより、取得した運転行動予測情報をも用いて予測解析処理を行なうようにしてもよい。また、上記実施の形態において、エッジサーバは、交通管制センター又は民間気象業務センター等からサービスエリア内の各地の交通情報及び気象情報等を収集するよう構成されていてもよい。この場合、収集した情報をも用いて、予測解析処理を行なうようにしてもよい。交通状況又は気象状況によっては、予測結果が変わってくることも推測されるため、予測解析処理においてはこうした情報をも考慮するのが好ましい。上記した機械学習を行なう際に、これらの情報(運転行動予測情報、交通情報、気象情報等)を考慮して学習するようにしてもよい。   A technique for predicting driving behavior by combining driver's line-of-sight information and information obtained from a vehicle has been proposed, and such a technique may be used in the prediction analysis process. Specifically, by acquiring such driving behavior prediction information from the vehicle detected by the detection device, the prediction analysis processing may be performed using the acquired driving behavior prediction information. Moreover, in the said embodiment, the edge server may be comprised so that the traffic information of each location in a service area, weather information, etc. may be collected from a traffic control center or a private weather service center. In this case, the prediction analysis process may be performed using the collected information. Since it is estimated that the prediction result changes depending on the traffic condition or the weather condition, it is preferable to consider such information in the prediction analysis process. When performing the above-described machine learning, learning may be performed in consideration of such information (driving behavior prediction information, traffic information, weather information, etc.).

上記実施の形態又は変形例に示した予測解析処理は、エッジサーバで行なってもよいし、コアサーバで行なってもよい。さらに、エッジサーバ及びコアサーバ以外のコンピュータ装置で予測解析処理等の種々の解析処理を行なってもよい。   The prediction analysis process shown in the above embodiment or modification may be performed by an edge server or a core server. Furthermore, you may perform various analysis processes, such as a prediction analysis process, with computer apparatuses other than an edge server and a core server.

上記実施の形態では、LTE回線及び5G回線での通信処理が可能な車載装置について示したが、本発明はそのような実施の形態には限定されない。車載装置は、LTE回線及び5G回線のいずれかの通信処理が可能の装置であってもよい。   In the above-described embodiment, an in-vehicle device capable of communication processing on the LTE line and the 5G line has been described, but the present invention is not limited to such an embodiment. The in-vehicle device may be a device capable of communication processing of either the LTE line or the 5G line.

上記実施の形態では、遅延が小さいセンサデータについてはリアルタイム解析処理部で解析処理を行なう例について示したが、本発明はそのような実施の形態には限定されない。例えば、遅延が小さいセンサデータについても、遅延が大きいセンサデータと同様、予測解析処理部で解析処理を行なうようにしてもよい。この場合、遅延が小さいセンサデータについては、遅延時間をゼロ(0)として解析処理を実行すればよい。   In the above-described embodiment, an example in which sensor data with a small delay is analyzed by the real-time analysis processing unit has been described, but the present invention is not limited to such an embodiment. For example, sensor data with a small delay may be subjected to analysis processing by the prediction analysis processing unit in the same manner as sensor data with a large delay. In this case, for sensor data with a small delay, the analysis process may be executed with the delay time set to zero (0).

なお、上記で開示された技術を適宜組合せて得られる実施形態についても、本発明の技術的範囲に含まれる。   Note that embodiments obtained by appropriately combining the techniques disclosed above are also included in the technical scope of the present invention.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに限定されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the embodiment described above. The scope of the present invention is indicated by each claim of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.

50、50A 運転支援システム
60、60a〜60d 車両
62 メトロネットワーク
64 コアネットワーク
66 基地局
100、100a、100b サーバ装置、エッジサーバ
110、210、310、410 制御部
120、320 記憶装置
122、322 情報マップ
130、230、440 通信部
150 パケット受信部
152 フィルタ部
154 データ記憶部
156 遅延小グループ記憶部
158 遅延大グループ記憶部
160 解析処理部
162 リアルタイム解析処理部
164 予測解析処理部
166 同期処理部
168 統合処理部
170 パケット送信部
200 通信端末
220、420 記憶部
300 コアサーバ
330 通信部
400、400A、400B 路側センサ
430 路側カメラ
500、500A 車載装置
510 車載センサ
512 車載カメラ
514 レーダセンサ
520 GPS受信機
50, 50A Driving support system 60, 60a to 60d Vehicle 62 Metro network 64 Core network 66 Base station 100, 100a, 100b Server device, Edge server 110, 210, 310, 410 Control unit 120, 320 Storage device 122, 322 Information map 130, 230, 440 Communication unit 150 Packet receiving unit 152 Filter unit 154 Data storage unit 156 Small delay group storage unit 158 Large delay group storage unit 160 Analysis processing unit 162 Real-time analysis processing unit 164 Prediction analysis processing unit 166 Synchronization processing unit 168 Integration Processing unit 170 Packet transmission unit 200 Communication terminal 220, 420 Storage unit 300 Core server 330 Communication unit 400, 400A, 400B Roadside sensor 430 Roadside camera 500, 500A In-vehicle device 51 Vehicle sensor 512-vehicle camera 514 radar sensor 520 GPS receiver

Claims (14)

情報処理装置であって、
複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、
前記センサデータの通信遅延に関する遅延情報に基づいて、前記受信部が受信した前記センサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、
前記判定部の判定結果が肯定であるセンサデータに対して前記予測解析処理を実行して予測情報を生成する予測解析処理部と、
前記判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、
前記予測解析処理部が生成した予測情報及び前記リアルタイム解析処理部が生成したリアルタイム情報を前記情報処理装置の外部に出力する情報出力部とを含む、情報処理装置。
An information processing apparatus,
A receiving unit for receiving sensor data respectively transmitted from a plurality of detection devices;
A determination unit that determines whether or not to perform a prediction analysis process for predicting a future state for each of the sensor data received by the reception unit, based on delay information related to a communication delay of the sensor data;
A prediction analysis processing unit that generates prediction information by executing the prediction analysis processing on sensor data for which the determination result of the determination unit is positive;
A real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative;
An information processing apparatus, comprising: an information output unit that outputs prediction information generated by the prediction analysis processing unit and real-time information generated by the real-time analysis processing unit to the outside of the information processing device.
前記遅延情報は、通信に関する遅延時間を含み、
前記予測解析処理部は、処理対象のセンサデータの遅延時間に応じた時間だけ先の将来の状態を予測して前記予測情報を生成する、請求項1に記載の情報処理装置。
The delay information includes a delay time related to communication,
The information processing apparatus according to claim 1, wherein the prediction analysis processing unit generates the prediction information by predicting a future state ahead by a time corresponding to a delay time of sensor data to be processed.
前記遅延情報は、通信に関する遅延時間を含み、
前記予測解析処理部は、処理対象のセンサデータ毎に、各センサデータの前記遅延時間だけ先の将来の状態を予測して前記予測情報を生成する、請求項1に記載の情報処理装置。
The delay information includes a delay time related to communication,
The information processing apparatus according to claim 1, wherein the prediction analysis processing unit generates the prediction information by predicting a future state ahead of the delay time of each sensor data for each sensor data to be processed.
前記判定部は、センサデータの遅延時間が所定のしきい値以上か否かに基づいて、前記センサデータの各々に対して前記予測解析処理を実行するか否かを判定する、請求項2又は請求項3に記載の情報処理装置。   The determination unit determines whether or not to execute the prediction analysis processing for each of the sensor data based on whether or not a delay time of the sensor data is equal to or greater than a predetermined threshold value. The information processing apparatus according to claim 3. 前記遅延情報は、センサデータが送信される通信回線の種類を識別するための識別情報を含み、
前記判定部は、前記識別情報に基づいて、前記センサデータの各々に対して前記予測解析処理を実行するか否かを判定する、請求項1に記載の情報処理装置。
The delay information includes identification information for identifying the type of communication line through which sensor data is transmitted,
The information processing apparatus according to claim 1, wherein the determination unit determines whether or not to execute the prediction analysis process on each of the sensor data based on the identification information.
遅延時間を所定のしきい値と比較することにより、前記受信部が受信したセンサデータを、遅延時間が前記しきい値未満である第1のグループ及び遅延時間が前記しきい値以上である第2のグループに分類する分類部をさらに含み、
前記判定部は、前記分類部の分類結果に基づいて、前記センサデータの各々に対して前記予測解析処理を実行するか否かを判定し、
前記リアルタイム解析処理部は、前記第1のグループに属するセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム情報生成部を含み、
前記予測解析処理部は、前記第2のグループに属するセンサデータに対して前記予測解析処理を実行して予測情報を生成する予測情報生成部を含み、
前記情報出力部は、前記予測情報生成部が生成した予測情報に前記リアルタイム情報生成部が生成したリアルタイム情報を前記情報処理装置の外部に出力する、請求項2〜請求項5のいずれか1項に記載の情報処理装置。
By comparing the delay time with a predetermined threshold value, the sensor data received by the receiving unit is compared with the first group in which the delay time is less than the threshold value and the delay time is greater than or equal to the threshold value. A classification unit for classifying into two groups;
The determination unit determines whether to execute the prediction analysis process for each of the sensor data based on the classification result of the classification unit,
The real-time analysis processing unit includes a real-time information generation unit that generates real-time information by executing real-time analysis processing on the sensor data belonging to the first group,
The prediction analysis processing unit includes a prediction information generation unit that generates prediction information by executing the prediction analysis processing on sensor data belonging to the second group,
The said information output part outputs the real-time information which the said real-time information generation part produced | generated to the prediction information which the said prediction information production | generation part produced | generated outside the said information processing apparatus. The information processing apparatus described in 1.
前記予測解析処理部が生成した予測情報及び前記リアルタイム解析処理部が生成したリアルタイム情報を統合する統合処理部をさらに含み、
前記情報出力部は、前記統合処理部によって統合された、前記予測情報及び前記リアルタイム情報を前記情報処理装置の外部に出力する、請求項1〜請求項6のいずれか1項に記載の情報処理装置。
An integrated processing unit that integrates the prediction information generated by the prediction analysis processing unit and the real-time information generated by the real-time analysis processing unit;
The information processing unit according to any one of claims 1 to 6, wherein the information output unit outputs the prediction information and the real-time information integrated by the integration processing unit to the outside of the information processing apparatus. apparatus.
移動体から送信される、当該移動体の移動予定ルートを受信するルート情報受信部をさらに含み、
前記情報出力部は、前記ルート情報受信部が受信した移動予定ルートに基づいて、当該移動予定ルートを送信した移動体に対して、前記予測情報と前記リアルタイム情報とを統合して配信する情報配信部を含む、請求項7に記載の情報処理装置。
A route information receiving unit that receives the planned moving route of the mobile body, transmitted from the mobile body,
The information output unit integrates and distributes the prediction information and the real-time information to a mobile body that has transmitted the planned travel route based on the planned travel route received by the route information receiving unit. The information processing apparatus according to claim 7, further comprising a section.
前記複数の検知装置の少なくとも1つは、移動体に搭載された当該移動体の周囲の状況情報をセンサデータとして送信する移動体検知装置であり、
前記受信部は、前記移動体検知装置から送信されたセンサデータを受信する機能を持つ、請求項1〜請求項8のいずれか1項に記載の情報処理装置。
At least one of the plurality of detection devices is a mobile body detection device that transmits situation information around the mobile body mounted on the mobile body as sensor data,
The information processing apparatus according to claim 1, wherein the reception unit has a function of receiving sensor data transmitted from the moving body detection apparatus.
前記情報処理装置は、移動体に搭載される、請求項1〜請求項9のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information processing apparatus is mounted on a moving body. 互いに通信可能に接続された複数の情報処理装置を含み、外部への情報提供処理を前記複数の情報処理装置にて分散処理するシステムであって、
前記複数の情報処理装置は第1の情報処理装置及び第2の情報処理装置を含み、
前記システムは、
複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、
前記センサデータの通信遅延に関する遅延情報に基づいて、前記受信部が受信した前記センサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、
前記判定部の判定結果が肯定であるセンサデータに対して前記予測解析処理を実行して予測情報を生成する予測解析処理部と、
前記判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、
前記予測解析処理部が生成した予測情報及び前記リアルタイム解析処理部が生成したリアルタイム情報を前記情報処理装置の外部に出力する情報出力部とを含み、
前記第1の情報処理装置は、前記予測解析処理部による処理を実行し、
前記第2の情報処理装置は、前記リアルタイム解析処理部による処理を実行する、システム。
A system that includes a plurality of information processing devices connected to each other so as to communicate with each other, and performs distributed processing of information providing processing to the outside by the plurality of information processing devices,
The plurality of information processing devices include a first information processing device and a second information processing device,
The system
A receiving unit for receiving sensor data respectively transmitted from a plurality of detection devices;
A determination unit that determines whether or not to perform a prediction analysis process for predicting a future state for each of the sensor data received by the reception unit, based on delay information related to a communication delay of the sensor data;
A prediction analysis processing unit that generates prediction information by executing the prediction analysis processing on sensor data for which the determination result of the determination unit is positive;
A real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative;
An information output unit that outputs the prediction information generated by the prediction analysis processing unit and the real-time information generated by the real-time analysis processing unit to the outside of the information processing apparatus,
The first information processing apparatus executes processing by the prediction analysis processing unit,
The second information processing apparatus executes a process by the real-time analysis processing unit.
受信したセンサデータを解析処理してその解析結果を配信する情報処理装置と、車両に搭載され、前記情報処理装置から配信される前記解析結果を受信する通信端末とを含むシステムであって、
前記情報処理装置は、
複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部と、
前記センサデータの通信遅延に関する遅延情報に基づいて、前記受信部が受信した前記センサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部と、
前記判定部の判定結果が肯定であるセンサデータに対して前記予測解析処理を実行して予測情報を生成する予測解析処理部と、
前記判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部と、
前記予測解析処理部が生成した予測情報及び前記リアルタイム解析処理部が生成したリアルタイム情報を統合する統合部と、
前記統合部によって統合された、前記予測情報及び前記リアルタイム情報を前記通信端末に配信する情報配信部とを含み、
前記通信端末は、前記情報配信部が配信した統合情報を受信して、受信した統合情報を当該通信端末が搭載される車両の搭乗者に通知する情報通知部を含む、システム。
An information processing apparatus that performs analysis processing on received sensor data and distributes the analysis result; and a communication terminal that is mounted on a vehicle and that receives the analysis result distributed from the information processing apparatus,
The information processing apparatus includes:
A receiving unit for receiving sensor data respectively transmitted from a plurality of detection devices;
A determination unit that determines whether or not to perform a prediction analysis process for predicting a future state for each of the sensor data received by the reception unit, based on delay information related to a communication delay of the sensor data;
A prediction analysis processing unit that generates prediction information by executing the prediction analysis processing on sensor data for which the determination result of the determination unit is positive;
A real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative;
An integration unit that integrates the prediction information generated by the prediction analysis processing unit and the real-time information generated by the real-time analysis processing unit;
An information distribution unit that distributes the prediction information and the real-time information integrated with the integration unit to the communication terminal;
The communication terminal includes an information notification unit that receives the integrated information distributed by the information distribution unit and notifies the passenger of the vehicle on which the communication terminal is mounted with the received integrated information.
複数の検知装置からそれぞれ送信されるセンサデータを受信するステップと、
前記センサデータの通信遅延に関する遅延情報に基づいて、前記受信するステップにおいて受信した前記センサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定するステップと、
前記判定するステップにおける判定結果が肯定であるセンサデータに対して前記予測解析処理を実行して予測情報を生成するステップと、
前記判定するステップにおける判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するステップと、
前記予測情報を生成するステップにおいて生成された予測情報及び前記リアルタイム情報を生成するステップにおいて生成されたリアルタイム情報を外部に出力するステップとを含む、方法。
Receiving sensor data respectively transmitted from a plurality of detection devices;
Determining whether or not to perform a predictive analysis process for predicting a future state for each of the sensor data received in the receiving step based on delay information relating to a communication delay of the sensor data;
Generating prediction information by executing the prediction analysis process on sensor data for which the determination result in the determining step is affirmative;
Generating real-time information by performing real-time analysis processing on sensor data for which the determination result in the determining step is negative;
Outputting the prediction information generated in the step of generating the prediction information and the real-time information generated in the step of generating the real-time information to the outside.
コンピュータを、
複数の検知装置からそれぞれ送信されるセンサデータを受信する受信部、
前記センサデータの通信遅延に関する遅延情報に基づいて、前記受信部が受信した前記センサデータの各々に対して、将来の状態を予測する予測解析処理を実行するか否かを判定する判定部、
前記判定部の判定結果が肯定であるセンサデータに対して前記予測解析処理を実行して予測情報を生成する予測解析処理部、
前記判定部の判定結果が否定であるセンサデータに対してリアルタイムでの解析処理を実行してリアルタイム情報を生成するリアルタイム解析処理部、及び
前記予測解析処理部が生成した予測情報及び前記リアルタイム解析処理部が生成したリアルタイム情報を前記コンピュータの外部に出力する情報出力部として機能させる、コンピュータプログラム。
Computer
A receiving unit for receiving sensor data respectively transmitted from a plurality of detection devices;
A determination unit that determines whether or not to perform a prediction analysis process that predicts a future state for each of the sensor data received by the reception unit, based on delay information related to a communication delay of the sensor data.
A prediction analysis processing unit that generates prediction information by executing the prediction analysis processing on sensor data for which the determination result of the determination unit is positive;
A real-time analysis processing unit that generates real-time information by executing real-time analysis processing on sensor data for which the determination result of the determination unit is negative, and the prediction information generated by the prediction analysis processing unit and the real-time analysis processing A computer program that causes a real-time information generated by the unit to function as an information output unit that outputs the information to the outside of the computer.
JP2018075101A 2018-04-10 2018-04-10 Information processing device, system, method, and computer program Active JP7187806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018075101A JP7187806B2 (en) 2018-04-10 2018-04-10 Information processing device, system, method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018075101A JP7187806B2 (en) 2018-04-10 2018-04-10 Information processing device, system, method, and computer program

Publications (2)

Publication Number Publication Date
JP2019185366A true JP2019185366A (en) 2019-10-24
JP7187806B2 JP7187806B2 (en) 2022-12-13

Family

ID=68341296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075101A Active JP7187806B2 (en) 2018-04-10 2018-04-10 Information processing device, system, method, and computer program

Country Status (1)

Country Link
JP (1) JP7187806B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076962A (en) * 2019-11-06 2021-05-20 財団法人車輌研究測試中心 Method and system for generating dynamic map information capable of providing environmental information
WO2022215207A1 (en) * 2021-04-07 2022-10-13 三菱電機株式会社 Driving assistance system, server device, control circuit, storage medium, program, and driving assistance information generation method
WO2023058382A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7433542B1 (en) 2023-02-24 2024-02-19 三菱電機株式会社 Remote monitoring device, remote monitoring system, and remote monitoring method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050852A (en) * 2011-08-31 2013-03-14 Ihi Corp Method and apparatus for integrating sensor information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050852A (en) * 2011-08-31 2013-03-14 Ihi Corp Method and apparatus for integrating sensor information

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076962A (en) * 2019-11-06 2021-05-20 財団法人車輌研究測試中心 Method and system for generating dynamic map information capable of providing environmental information
JP6999625B2 (en) 2019-11-06 2022-02-04 財団法人車輌研究測試中心 Methods and systems for generating dynamic map information that can provide environmental information
WO2022215207A1 (en) * 2021-04-07 2022-10-13 三菱電機株式会社 Driving assistance system, server device, control circuit, storage medium, program, and driving assistance information generation method
JP7292552B2 (en) 2021-04-07 2023-06-16 三菱電機株式会社 Driving support system, server device, control circuit, storage medium, program, and driving support information generation method
DE112021006994T5 (en) 2021-04-07 2023-12-07 Mitsubishi Electric Corporation DRIVING ASSISTANCE SYSTEM, SERVER DEVICE, CONTROL CIRCUIT, STORAGE MEDIUM, PROGRAM AND METHOD FOR GENERATING DRIVING ASSISTANCE INFORMATION
WO2023058382A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7433542B1 (en) 2023-02-24 2024-02-19 三菱電機株式会社 Remote monitoring device, remote monitoring system, and remote monitoring method

Also Published As

Publication number Publication date
JP7187806B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
US11630998B2 (en) Systems and methods for automatically training neural networks
KR102631850B1 (en) Generation and use of hd maps
CN105761500B (en) Traffic accident treatment method and traffic accident treatment device
JP7187806B2 (en) Information processing device, system, method, and computer program
CN112703423B (en) Merging data from multiple LiDAR devices
US20200065443A1 (en) Simulated vehicle traffic for autonomous vehicles
US10249183B2 (en) Traffic index generation device, traffic index generation method, and computer program
CN112368755A (en) Method and system for hybrid collective perception and map crowdsourcing
US11136048B2 (en) System for sensor synchronization data analysis in an autonomous driving vehicle
JP2021099793A (en) Intelligent traffic control system and control method for the same
CN114026623B (en) Traffic control device and signal machine
US20200059814A1 (en) Extra-vehicular communication device, onboard device, onboard communication system, communication control method, and communication control program
US20220262128A1 (en) Information processing device, information processing method, and information processing program
KR20190043396A (en) Method and system for generating and providing road weather information by using image data of roads
KR101850254B1 (en) Inter-Vehicle Communication System For Supporting Connected Car Environment
JP7172603B2 (en) SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
KR20190014067A (en) Apparatus, method, and computer program for capturing and transmitting data
JP2019215785A (en) Information providing apparatus, information providing method, and computer program
JP7094901B2 (en) Servers, systems, methods and programs that manage traffic information, as well as communication devices and mobiles that can communicate with the servers.
US11945382B2 (en) System, server computer thereof, control method, and computer program
JP2023171455A (en) Route prediction device, in-vehicle device therewith, route prediction system, route prediction method, and computer program
CN113099529A (en) Indoor vehicle navigation method, vehicle-mounted terminal, field terminal server and system
US20210319690A1 (en) Information providing device, information providing method, information providing system, computer program, and data structure
WO2018163407A1 (en) Information processing device, information processing method, and information processing program
CN115938108A (en) Intelligent traffic control system based on V2X

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221006

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221014

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7187806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150