JP2018120291A - Event prediction system, event prediction method, program, and moving body - Google Patents

Event prediction system, event prediction method, program, and moving body Download PDF

Info

Publication number
JP2018120291A
JP2018120291A JP2017009546A JP2017009546A JP2018120291A JP 2018120291 A JP2018120291 A JP 2018120291A JP 2017009546 A JP2017009546 A JP 2017009546A JP 2017009546 A JP2017009546 A JP 2017009546A JP 2018120291 A JP2018120291 A JP 2018120291A
Authority
JP
Japan
Prior art keywords
event
information
prediction
time
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017009546A
Other languages
Japanese (ja)
Other versions
JP6890265B2 (en
Inventor
祥平 林
Shohei Hayashi
祥平 林
森 俊也
Toshiya Mori
俊也 森
忠司 芝田
Tadashi Shibata
忠司 芝田
中野 信之
Nobuyuki Nakano
信之 中野
勝長 辻
Masanaga Tsuji
勝長 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017009546A priority Critical patent/JP6890265B2/en
Priority to PCT/JP2018/001112 priority patent/WO2018135509A1/en
Priority to DE112018000477.5T priority patent/DE112018000477B4/en
Publication of JP2018120291A publication Critical patent/JP2018120291A/en
Priority to US16/512,328 priority patent/US11003925B2/en
Application granted granted Critical
Publication of JP6890265B2 publication Critical patent/JP6890265B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an event prediction system which can predict occurrence of an event caused by an object hidden from a driver, an event prediction method, a program, and a moving body.SOLUTION: An event prediction system 1 first acquisition unit 111, second acquisition unit 112, and estimation unit 113. The first acquisition unit 111 acquires time information indicating the time required before a prediction time point when occurence of an event relating to driving of a moving body 100 is predicted. The second acquisition unit 112 acquires moving-body information representing a state of the moving body 100. The estimation unit 113 estimates a location where the event occurs, on the basis of the time information and the moving-body information.SELECTED DRAWING: Figure 1

Description

本発明は、一般にイベント予測システム、イベント予測方法、プログラム、及び移動体に関し、より詳細には、移動体の運転に関連するイベントの発生を予測するイベント予測システム、イベント予測方法、プログラム、及び移動体に関する。   The present invention generally relates to an event prediction system, an event prediction method, a program, and a moving body, and more particularly, an event prediction system, an event prediction method, a program, and a movement for predicting occurrence of an event related to driving of the moving body. About the body.

従来、自車両の危険予測を行い、予測結果をドライバに通知することで、車両の運転を支援する運転支援装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a driving support device that supports driving of a vehicle by performing a risk prediction of the host vehicle and notifying a driver of a prediction result is known (for example, see Patent Document 1).

特許文献1に記載の運転支援装置は、運転能力確認部と、危険予測部と、表示制御部とを有している。運転能力確認部は、環境情報取得部、自車情報取得部及びドライバ情報取得部の検出情報に基づいて運転技量試験を周期的に行い、その試験結果からドライバの運転行動を判定し、ドライバの運転能力を確認する。危険予測部は、ドライバの運転行動の判定結果に基づいて、自車両の危険予測を行う。表示制御部は、環境情報取得部、自車情報取得部及びドライバ情報取得部の検出情報に基づいて自車両の未来位置を予測し、自車両の未来位置を自車両の衝突危険度に対応する表示態様で表示部に表示させる。   The driving support apparatus described in Patent Literature 1 includes a driving capability confirmation unit, a risk prediction unit, and a display control unit. The driving ability confirmation unit periodically performs a driving skill test based on the detection information of the environment information acquisition unit, the own vehicle information acquisition unit, and the driver information acquisition unit, determines the driving behavior of the driver from the test result, Check driving ability. The risk prediction unit performs a risk prediction of the host vehicle based on the determination result of the driving behavior of the driver. The display control unit predicts the future position of the host vehicle based on the detection information of the environment information acquisition unit, the host vehicle information acquisition unit, and the driver information acquisition unit, and corresponds the future position of the host vehicle to the collision risk of the host vehicle. It is displayed on the display unit in the display mode.

特開2012−128655号公報JP 2012-128655 A

しかし、特許文献1に記載の運転支援装置では、自車両の未来位置の予測結果を表示することで衝突の可能性を運転者(ドライバ)に知らせるため、運転者に通知可能な内容は、運転者の視認可能な範囲で発生するイベント(事故等)に限られる。したがって、特許文献1に記載の運転支援装置では、例えば、路上駐車されている車両の陰からの歩行者の飛び出し等、運転者の死角になる対象物(この場合、歩行者)に起因したイベントについては予測することができない。   However, in the driving support device described in Patent Document 1, since the driver (driver) is notified of the possibility of a collision by displaying the prediction result of the future position of the host vehicle, It is limited to events (accidents, etc.) that occur within the visible range of the person. Therefore, in the driving support apparatus described in Patent Document 1, for example, an event caused by an object (in this case, a pedestrian) that becomes a blind spot of the driver, such as a pedestrian jumping out from behind a vehicle parked on the road Cannot be predicted.

本発明は上記事由に鑑みてなされており、運転者の死角になる対象物に起因したイベントの発生についても予測可能なイベント予測システム、イベント予測方法、プログラム、及び移動体を提供することを目的とする。   The present invention has been made in view of the above-described reasons, and an object thereof is to provide an event prediction system, an event prediction method, a program, and a moving body that can predict the occurrence of an event caused by an object that becomes a blind spot of a driver. And

第1の態様に係るイベント予測システムは、第1取得部と、第2取得部と、推定部と、を備える。前記第1取得部は、移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。前記第2取得部は、前記移動体の状況を表す移動体情報を取得する。前記推定部は、前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する。   The event prediction system according to the first aspect includes a first acquisition unit, a second acquisition unit, and an estimation unit. The first acquisition unit acquires time information representing a required time until a predicted time point at which an event related to driving of the moving object is predicted to occur. The second acquisition unit acquires mobile body information representing the status of the mobile body. The estimation unit estimates an occurrence location of the event based on the time information and the moving body information.

第2の態様に係るイベント予測システムは、第1の態様において、前記移動体情報は、前記移動体の周辺の物体に関する情報と、前記移動体の状態に関する情報と、前記移動体の位置に関する情報と、の少なくとも1つを含む。   In the event prediction system according to a second aspect, in the first aspect, the moving body information includes information on an object around the moving body, information on the state of the moving body, and information on the position of the moving body. And at least one of.

第3の態様に係るイベント予測システムは、第1又は2の態様において、前記推定部は、前記時間情報及び前記移動体情報に基づいて、前記予測時点における前記移動体の到達位置を予測するように構成されている。前記推定部は、前記到達位置から前記イベントの発生箇所を推定するように構成されている。   In the event prediction system according to a third aspect, in the first or second aspect, the estimation unit predicts the arrival position of the mobile body at the prediction time point based on the time information and the mobile body information. It is configured. The estimation unit is configured to estimate the occurrence location of the event from the arrival position.

第4の態様に係るイベント予測システムは、第3の態様において、前記推定部は、前記移動体の周辺に存在しており、前記所要時間後に前記到達位置に存在する物体を、前記イベントの発生箇所として推定するように構成されている。   The event prediction system according to a fourth aspect is the event prediction system according to the third aspect, wherein the estimator is located around the moving body, and an object existing at the arrival position after the required time is generated. It is comprised so that it may estimate as a location.

第5の態様に係るイベント予測システムは、第1〜4のいずれかの態様において、前記推定部で推定された前記イベントの発生箇所を報知する報知部を更に備える。   In any one of the first to fourth aspects, the event prediction system according to the fifth aspect further includes a notification unit that notifies the occurrence location of the event estimated by the estimation unit.

第6の態様に係るイベント予測システムは、第5の態様において、前記報知部は、前記イベントの発生箇所を表示することにより報知する表示部を有する。   In the event prediction system according to a sixth aspect, in the fifth aspect, the notification unit includes a display unit that notifies by displaying the occurrence location of the event.

第7の態様に係るイベント予測システムは、第1〜6のいずれかの態様において、前記所要時間を予測する時間予測部を更に備える。前記時間予測部は、前記移動体に関する予測用情報と、予測モデルと、を用いて、前記所要時間を予測するように構成されている。   In any one of the first to sixth aspects, the event prediction system according to a seventh aspect further includes a time prediction unit that predicts the required time. The said time prediction part is comprised so that the said required time may be estimated using the information for a prediction regarding the said mobile body, and a prediction model.

第8の態様に係るイベント予測システムは、第7の態様において、前記時間予測部は、前記移動体を運転する運転者の属性ごとに異なる前記予測モデルを用いるように構成されている。   In an event prediction system according to an eighth aspect, in the seventh aspect, the time prediction unit is configured to use a different prediction model for each attribute of a driver who drives the mobile body.

第9の態様に係るイベント予測システムは、蓄積部と、生成部と、を備える。前記蓄積部は、移動体の運転に関連するイベントが発生した際における前記移動体の状況を表す履歴情報を含む複数の学習用データを蓄積する。前記生成部は、前記複数の学習用データを用いて、前記イベントの発生が予測される予測時点までの所要時間を予測するための予測モデルを生成する。前記複数の学習用データの各々は、前記イベントの発生時点までの所要時間を表すラベル情報を更に含む。   The event prediction system according to the ninth aspect includes an accumulation unit and a generation unit. The accumulating unit accumulates a plurality of learning data including history information indicating the state of the moving body when an event related to driving of the moving body occurs. The generation unit generates a prediction model for predicting a required time to a prediction time point at which the occurrence of the event is predicted, using the plurality of learning data. Each of the plurality of learning data further includes label information indicating a time required until the event occurs.

第10の態様に係るイベント予測方法は、第1取得処理と、第2取得処理と、推定処理と、を有する。前記第1取得処理は、移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。前記第2取得処理は、前記移動体の状況を表す移動体情報を取得する。前記推定処理は、前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する。   The event prediction method according to the tenth aspect includes a first acquisition process, a second acquisition process, and an estimation process. The first acquisition process acquires time information representing a required time until a predicted time point at which an event related to driving of the moving object is predicted to occur. In the second acquisition process, mobile object information representing the status of the mobile object is acquired. The estimation process estimates the occurrence location of the event based on the time information and the moving body information.

第11の態様に係るプログラムは、コンピュータシステムに、第1取得処理と、第2取得処理と、推定処理と、を実行させるためのプログラムである。前記第1取得処理は、移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。前記第2取得処理は、前記移動体の状況を表す移動体情報を取得する。前記推定処理は、前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する。   A program according to an eleventh aspect is a program for causing a computer system to execute a first acquisition process, a second acquisition process, and an estimation process. The first acquisition process acquires time information representing a required time until a predicted time point at which an event related to driving of the moving object is predicted to occur. In the second acquisition process, mobile object information representing the status of the mobile object is acquired. The estimation process estimates the occurrence location of the event based on the time information and the moving body information.

第12の態様に係る移動体は、第1〜9のいずれかの態様に係るイベント予測システムを備える。   A mobile body according to a twelfth aspect includes the event prediction system according to any one of the first to ninth aspects.

本発明は、運転者の死角になる対象物に起因したイベントの発生についても予測可能である、という利点がある。   The present invention has an advantage that it is possible to predict the occurrence of an event caused by an object that becomes a driver's blind spot.

図1は、実施形態1に係るイベント予測システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an event prediction system according to the first embodiment. 図2は、同上のイベント予測システムの予測モデルの生成に係る動作を示すフローチャートである。FIG. 2 is a flowchart showing an operation related to generation of a prediction model of the event prediction system described above. 図3は、同上のイベント予測システムのイベントの発生箇所の推定に係る動作を示すフローチャートである。FIG. 3 is a flowchart showing an operation related to estimation of an event occurrence point of the event prediction system same as above. 図4は、同上のイベント予測システムを用いた場合の運転者の視野を示す概念図である。FIG. 4 is a conceptual diagram showing a driver's field of view when the event prediction system is used. 図5A〜図5Cは、同上のイベント予測システムにて予測が可能なイベントの例を示す概念図である。5A to 5C are conceptual diagrams showing examples of events that can be predicted by the event prediction system described above. 図6A〜図6Cは、同上のイベント予測システムにて予測が可能なイベントの他の例を示す概念図である。6A to 6C are conceptual diagrams showing other examples of events that can be predicted by the event prediction system described above.

(実施形態1)
(1)概要
本実施形態に係るイベント予測システム1(図1参照)は、自動車等の移動体100(図1参照)の運転に関連するイベントの発生を予測するためのシステムである。本実施形態では、イベント予測システム1が適用される移動体100が自動車である場合を例に説明する。
(Embodiment 1)
(1) Overview The event prediction system 1 (see FIG. 1) according to the present embodiment is a system for predicting the occurrence of an event related to the driving of a moving body 100 (see FIG. 1) such as an automobile. In this embodiment, the case where the moving body 100 to which the event prediction system 1 is applied is an automobile will be described as an example.

ここでいう「イベント」は、例えば、移動体100の運転者が運転に際して危険と感じるような事象を意味する。この種の「イベント」には、例えば、車両同士の衝突、ガードレール等の構造物への車両の衝突、及び歩行者等と車両の接触等の事故、又は、事故には至らないものの事故に直結する可能性の高い事象(いわゆるヒヤリ・ハット)等がある。また、ここでいう「イベントの発生箇所」は、イベントが発生する箇所を意味しており、交差点又は横断歩道等のイベントが発生する場所(地点)、及び、移動体100の周辺の車両、歩行者、又は小動物等のイベントの対象となる特定の物体(部分)の両方を含む。   The “event” here means, for example, an event that the driver of the moving body 100 feels dangerous when driving. This type of “event” is directly related to accidents such as collisions between vehicles, collisions of vehicles with structures such as guardrails, and contact between pedestrians and vehicles, or accidents that do not lead to accidents. There is an event that is likely to occur (so-called near-miss). Further, the “event occurrence location” here means a location where an event occurs, a location (point) where an event such as an intersection or a pedestrian crossing occurs, a vehicle around the mobile object 100, walking It includes both a specific object (part) that is a target of an event such as a person or a small animal.

本実施形態に係るイベント予測システム1は、主として、運転者の死角になる対象物に起因したイベントの発生を予測する。この種のイベントの具体例として、路上駐車されている車両の陰からの歩行者の飛び出し、及び右折(又は左折)待ちの車両の陰からの直進する車両の出現等がある。運転者の視認可能な範囲外で発生するこの種のイベントは、「見えない危険」とも呼ばれる。移動体100の運転者は、通常、この種のイベント(見えない危険)については、移動体100の状況に基づいて、つまり移動体100がどのような状況に置かれているかに基づいて、自身の経験等に照らして予測を行っている。すなわち、一般的に、運転者は、様々なシチュエーションでの移動体100の運転を経験することにより、「見えない危険」を、ある程度予測できるようになる。そのため、運転者の運転の熟練度、運転のセンス、及び運転者の状態(運転者の精神状態等を含む)等によって、「見えない危険」の予見性は大きくばらつくことがある。   The event prediction system 1 according to the present embodiment mainly predicts the occurrence of an event caused by an object that becomes a driver's blind spot. Specific examples of this type of event include a pedestrian jumping out from behind a vehicle parked on the road and the appearance of a vehicle going straight from behind a vehicle waiting for a right turn (or left turn). This type of event that occurs outside the driver's visible range is also called "invisible danger". The driver of the moving body 100 usually determines the event of this kind (invisible danger) based on the situation of the moving body 100, that is, based on the situation in which the moving body 100 is placed. Forecasts based on the experience of That is, in general, the driver can predict the “invisible danger” to some extent by experiencing the driving of the moving body 100 in various situations. For this reason, the predictability of “invisible danger” may vary greatly depending on the driving skill of the driver, the driving sense, and the driver's state (including the driver's mental state).

イベント予測システム1によれば、この種のイベント(見えない危険)が主として予測されるので、運転者の運転の熟練度、運転のセンス、及び運転者の状態等による「見えない危険」の予見性のばらつきを小さく抑えることが可能になる。したがって、例えば運転の経験が比較的少ない運転者であっても、この種のイベントが発生する可能性を考慮した運転が可能になる。さらに、例えば運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合等においても、運転者は、この種のイベントが発生する可能性を考慮した運転が可能になる。さらには、単に運転者がよそ見をしている、又は運転者が注意散漫であるような場合等、運転者がイベントの発生に気付くのが遅れ得る場面において、運転者は、イベントが発生する可能性にいち早く気付くことが可能になり、より安全な運転が可能になる。要するに、運転者の死角になる対象物に起因したイベントの発生についても予測可能なイベント予測システム1によれば、より安全な運転を実現するように、運転者による移動体100の運転を支援可能となる。   According to the event prediction system 1, since this type of event (invisible danger) is mainly predicted, the prediction of “invisible danger” based on the driving skill of the driver, the sense of driving, and the state of the driver, etc. It is possible to suppress the variation in the characteristics. Therefore, for example, even a driver who has relatively little driving experience can perform driving considering the possibility of this type of event. Furthermore, for example, even when the driver is in a state of reduced concentration compared to normal times due to fatigue, lack of sleep, etc., the driver can drive considering the possibility of this type of event occurring. Become. In addition, an event may occur when the driver may be late in noticing the event, such as when the driver is just looking away or the driver is distracted. It becomes possible to notice the sex quickly, and safer driving becomes possible. In short, according to the event prediction system 1 that can also predict the occurrence of an event caused by an object that becomes a blind spot of the driver, the driver can support the driving of the moving body 100 so as to realize safer driving. It becomes.

本実施形態に係るイベント予測システム1は、例えば、実際にイベントが発生した際の移動体100の状況を表す履歴情報等から機械学習アルゴリズムによって生成される予測モデルを用いて、イベントの発生を予測する。すなわち、移動体100の状況を表す履歴情報等から生成される予測モデルは、運転者の運転の経験に代えて、イベントの発生を予測可能にする。例えば、移動体100の周辺にどのような物体が存在し、移動体100の移動速度がどの程度で、移動体100がどのような場所を移動中か、といった移動体100の種々の状況からは、イベントの発生を予測することが可能である。   The event prediction system 1 according to the present embodiment predicts the occurrence of an event using, for example, a prediction model generated by a machine learning algorithm from history information indicating the situation of the mobile object 100 when the event actually occurs. To do. That is, a prediction model generated from history information or the like representing the state of the moving body 100 makes it possible to predict the occurrence of an event instead of the driving experience of the driver. For example, from various situations of the moving body 100 such as what kind of object exists around the moving body 100, what speed the moving body 100 moves, and what place the moving body 100 is moving. It is possible to predict the occurrence of an event.

イベント予測システム1でのイベントの予測結果は、例えば、ヘッドアップディスプレイ(HUD:Head-Up Display)、及びマルチインフォメーションディスプレイ等に表示されることによって、運転者に報知されることが好ましい。これにより、運転者の死角になる対象物に起因したイベントの発生が予測される場合には、その旨が運転者に知らされることになり、例えば運転の経験が比較的少ない運転者であっても、この種のイベントが発生する可能性を考慮した運転が可能になる。さらに、例えば運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合等においても、運転者は、この種のイベントが発生する可能性を考慮した運転が可能になる。さらには、単に運転者がよそ見をしている、又は運転者が注意散漫であるような場合等、運転者がイベントの発生に気付くのが遅れ得る場面において、運転者は、イベントが発生する可能性にいち早く気付くことが可能になり、より安全な運転が可能になる。   The event prediction result in the event prediction system 1 is preferably notified to the driver by, for example, being displayed on a head-up display (HUD), a multi-information display, or the like. As a result, when the occurrence of an event caused by an object that becomes a driver's blind spot is predicted, the driver is informed of this, for example, a driver who has relatively little driving experience. However, it is possible to drive in consideration of the possibility of this type of event. Furthermore, for example, even when the driver is in a state of reduced concentration compared to normal times due to fatigue, lack of sleep, etc., the driver can drive considering the possibility of this type of event occurring. Become. In addition, an event may occur when the driver may be late in noticing the event, such as when the driver is just looking away or the driver is distracted. It becomes possible to notice the sex quickly, and safer driving becomes possible.

(2)構成
本実施形態に係るイベント予測システム1は、図1に示すように、移動体100(本実施形態では自動車)に実装された予測ブロック11と、クラウド200(クラウドコンピューティング)に実装された学習ブロック12と、を備えている。
(2) Configuration As shown in FIG. 1, the event prediction system 1 according to the present embodiment is implemented in a prediction block 11 implemented in a moving body 100 (automobile in this embodiment) and a cloud 200 (cloud computing). Learning block 12.

また、イベント予測システム1は、移動体100に搭載された報知部13を更に備えている。また、イベント予測システム1は、移動体100に搭載されたADAS情報入力部14、車両情報入力部15、及び位置情報入力部16を更に備えている。   The event prediction system 1 further includes a notification unit 13 mounted on the moving body 100. The event prediction system 1 further includes an ADAS information input unit 14, a vehicle information input unit 15, and a position information input unit 16 that are mounted on the moving body 100.

予測ブロック11と学習ブロック12とは、通信可能に構成されている。予測ブロック11は、移動体100に実装されているため、クラウド200に実装された学習ブロック12との通信は、例えば、通信事業者が提供する携帯電話網(キャリア網)、及びインターネット等の公衆回線網を介して行われる。携帯電話網には、例えば3G(第3世代)回線、LTE(Long Term Evolution)回線等がある。予測ブロック11は、学習ブロック12と、公衆無線LAN(Local Area Network)を介して通信可能に構成されていてもよい。   The prediction block 11 and the learning block 12 are configured to be communicable. Since the prediction block 11 is implemented in the mobile unit 100, communication with the learning block 12 implemented in the cloud 200 is, for example, a mobile phone network (carrier network) provided by a communication carrier, and the public such as the Internet. This is done via the network. Examples of the mobile phone network include a 3G (third generation) line and an LTE (Long Term Evolution) line. The prediction block 11 may be configured to be able to communicate with the learning block 12 via a public wireless LAN (Local Area Network).

予測ブロック11は、第1取得部111と、第2取得部112と、推定部113と、時間予測部114と、モデル格納部115と、入力情報処理部116と、出力情報処理部117と、を有している。予測ブロック11は、例えば、CPU(Central Processing Unit)及びメモリを主構成とするコンピュータシステムにて構成されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータシステムが予測ブロック11として機能する。プログラムは、ここでは予測ブロック11のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   The prediction block 11 includes a first acquisition unit 111, a second acquisition unit 112, an estimation unit 113, a time prediction unit 114, a model storage unit 115, an input information processing unit 116, an output information processing unit 117, have. The prediction block 11 is composed of, for example, a computer system having a central processing unit (CPU) and a memory as main components, and the computer system executes the program stored in the memory so that the computer system can execute the prediction block 11. Function as. The program is recorded in advance in the memory of the prediction block 11 here, but may be provided through a telecommunication line such as the Internet or recorded in a recording medium such as a memory card.

第1取得部111は、時間情報を取得する。ここでいう「時間情報」は、移動体100の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す情報である。つまり、移動体100を運転中における事故、又はヒヤリ・ハット等のイベントの発生が予測される場合、このイベントの発生が予測される時点を「予測時点」としたときの、予測時点までの所要時間は時間情報によって表される。例えば、現時点から3秒後にイベントの発生が予測される場合、つまり予測時点が現時点の3秒後である場合、予測時点までの所要時間は「3秒」であるから、時間情報は「3秒」となる。   The first acquisition unit 111 acquires time information. The “time information” here is information that represents a required time to a predicted time point at which an event related to the operation of the moving body 100 is predicted to occur. In other words, when the occurrence of an accident such as an accident while driving the mobile unit 100 or a near-miss event is predicted, the required time to the predicted time when the predicted time of occurrence of this event is the “predicted time” Time is represented by time information. For example, when the occurrence of an event is predicted 3 seconds after the current time, that is, when the predicted time is 3 seconds after the current time, the time required to reach the predicted time is “3 seconds”. "

第2取得部112は、移動体情報を取得する。ここでいう「移動体情報」は、移動体100の状況を表す情報である。本実施形態では、移動体情報は、移動体100の周辺の物体に関する情報(「ADAS情報」ともいう)と、移動体100の状態に関する情報(「車両情報」ともいう)と、移動体100の位置に関する情報(「位置情報」ともいう)と、の少なくとも1つを含む。   The second acquisition unit 112 acquires moving body information. The “mobile body information” here is information representing the status of the mobile body 100. In the present embodiment, the mobile object information includes information related to objects around the mobile object 100 (also referred to as “ADAS information”), information related to the state of the mobile object 100 (also referred to as “vehicle information”), Information on the position (also referred to as “position information”).

ADAS情報は、先進運転支援システム(ADAS:Advanced Driver Assistance System)の検出部であるカメラ、ソナーセンサ、レーダ、及びLiDAR(Light Detection and Ranging)等にて検出可能な情報である。ADAS情報の具体例としては、移動体100の周辺を走行中の車両までの移動体100からの距離、この車両の移動体100に対する相対座標、複数の車両同士の車間距離、及びこれらの車両の相対速度等がある。ここで、ADAS情報における移動体100の周辺の物体は、移動体100の周辺にて走行中又は停車中の車両、ガードレール等の構造物の他、歩行者、及び小動物等を含んでいる。   The ADAS information is information that can be detected by a camera, sonar sensor, radar, LiDAR (Light Detection and Ranging), or the like, which is a detection unit of an advanced driver assistance system (ADAS). Specific examples of ADAS information include the distance from the moving body 100 to a vehicle traveling around the moving body 100, the relative coordinates of the vehicle with respect to the moving body 100, the inter-vehicle distances between a plurality of vehicles, and the There are relative speeds. Here, the objects in the vicinity of the moving body 100 in the ADAS information include a pedestrian, a small animal, and the like in addition to structures such as a vehicle and a guardrail that are running or stopped around the moving body 100.

車両情報は、移動体100自体のローカルな状態を表す情報であって、移動体100に搭載されたセンサにて検出可能な情報である。車両情報の具体例としては、移動体100の移動速度(走行速度)、移動体100にかかる加速度、アクセルペダルの踏込量(アクセル開度)、ブレーキペダルの踏込量、舵角、並びにドライバモニタで検出される運転者の脈拍、表情、及び視線等がある。更に、車幅、車高、全長、及びアイポイント等の、移動体100に固有のデータも、車両情報に含まれる。   The vehicle information is information that represents the local state of the moving body 100 itself and is information that can be detected by a sensor mounted on the moving body 100. Specific examples of the vehicle information include a moving speed (traveling speed) of the moving body 100, an acceleration applied to the moving body 100, an accelerator pedal depression amount (accelerator opening), a brake pedal depression amount, a steering angle, and a driver monitor. There are detected driver's pulse, facial expression, line of sight, and the like. Furthermore, data unique to the moving body 100 such as the vehicle width, the vehicle height, the total length, and the eye point is also included in the vehicle information.

位置情報は、移動体100の位置に基づく情報であって、自車位置における道路情報等、GPS(Global Positioning System)を用いて検出可能な情報である。位置情報の具体例としては、自車位置における道路の車線数、交差点か否か、丁字路か否か、一方通行か否か、車道幅、歩道の有無、勾配、及びカーブの曲率等がある。   The position information is information based on the position of the moving body 100 and is information that can be detected using GPS (Global Positioning System) such as road information at the position of the vehicle. Specific examples of location information include the number of lanes of the road at the location of the vehicle, whether it is an intersection, whether it is a street, whether it is one-way, the width of a roadway, the presence or absence of a sidewalk, a gradient, and the curvature of a curve. .

ADAS情報、車両情報、及び位置情報の個々の具体例は、上述した例に限らない。例えば、ドライバモニタが、運転者の顔の向き、眠気レベル、及び感情等を検出可能である場合には、これらの情報(運転者の顔の向き、眠気レベル、及び感情等)も車両情報に含まれる。   Each specific example of ADAS information, vehicle information, and position information is not limited to the above-described example. For example, when the driver monitor can detect the driver's face direction, drowsiness level, emotion, and the like, these pieces of information (driver's face direction, drowsiness level, emotion, etc.) are also included in the vehicle information. included.

推定部113は、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する。すなわち、推定部113は、第1取得部111が取得した時間情報と、第2取得部112が取得した移動体情報とに基づいて、発生が予測されるイベントの発生箇所の推定を行う。   The estimation unit 113 estimates the occurrence location of the event based on the time information and the moving body information. That is, the estimation unit 113 estimates the occurrence location of an event that is predicted to occur based on the time information acquired by the first acquisition unit 111 and the moving body information acquired by the second acquisition unit 112.

ここで、推定部113は、時間情報及び移動体情報に基づいて、予測時点における移動体100の到達位置を予測し、予測した到達位置から、イベントの発生箇所を推定するように構成されている。つまり、推定部113は、時間情報から、まずはイベントの発生が予測される時点(予測時点)における移動体100の到達位置を予測する。そして、その到達位置から、推定部113は、イベントの発生箇所を推定する。   Here, the estimation unit 113 is configured to predict the arrival position of the moving body 100 at the prediction time point based on the time information and the moving body information, and to estimate the occurrence location of the event from the predicted arrival position. . That is, the estimation unit 113 first predicts the arrival position of the moving body 100 at the time point when the occurrence of the event is predicted (predicted time point) from the time information. And the estimation part 113 estimates the generation | occurrence | production location of an event from the arrival position.

さらに、推定部113は、移動体100の周辺に存在しており、所要時間後に到達位置に存在する物体を、イベントの発生箇所として推定するように構成されている。「イベントの発生箇所」は、上述したように交差点又は横断歩道等のイベントが発生する場所、及び、移動体100の周辺の車両、歩行者、又は小動物等のイベントの対象となる特定の物体の両方を含むが、本実施形態では後者(特定の物体)を推定対象とする。推定部113の具体的な処理については、「(3.2)予測動作」の欄で説明する。   Furthermore, the estimation unit 113 is configured to estimate an object that exists in the vicinity of the moving body 100 and exists at the arrival position after a required time as an event occurrence location. As described above, the “event occurrence location” is a place where an event such as an intersection or a pedestrian crossing occurs, and a specific object that is a target of an event such as a vehicle, a pedestrian, or a small animal around the moving body 100. Although both are included, in this embodiment, the latter (specific object) is set as an estimation target. Specific processing of the estimation unit 113 will be described in the column “(3.2) Prediction operation”.

時間予測部114は、所要時間を予測する。本実施形態では、時間予測部114は、移動体100に関する予測用情報と、予測モデルと、を用いて、イベントの発生が予測される予測時点までの所要時間を予測するように構成されている。ここにおいて、予測用情報は、移動体100の状況を表す情報であって、第2取得部112が取得する移動体情報と同じ情報である。ここでいう「予測モデル」は、学習ブロック12にて、実際にイベントが発生した際の移動体100の状況を表す履歴情報等から機械学習アルゴリズムによって生成される学習済みモデルである。つまり、第1取得部111にて取得される予測時点までの所要時間を表す時間情報は、予測ブロック11が外部から取得するのではなく、時間予測部114が予測モデルを用いて生成する情報である。   The time prediction unit 114 predicts the required time. In the present embodiment, the time prediction unit 114 is configured to predict a required time to a prediction time point at which an occurrence of an event is predicted, using prediction information regarding the mobile object 100 and a prediction model. . Here, the information for prediction is information representing the status of the mobile object 100 and is the same information as the mobile object information acquired by the second acquisition unit 112. The “prediction model” here is a learned model that is generated by a machine learning algorithm from history information or the like representing the state of the moving object 100 when an event actually occurs in the learning block 12. That is, the time information representing the time required to the prediction time point acquired by the first acquisition unit 111 is information that the prediction block 11 does not acquire from the outside, but is generated by the time prediction unit 114 using the prediction model. is there.

また、時間予測部114は、イベントが発生した際における移動体100の状況を表す履歴情報を、学習ブロック12に送信するように構成されている。ここでいう「履歴情報」は、移動体100の状況を表す情報であって、第2取得部112が取得する移動体情報(及び予測用情報)と同じ情報である。ただし、時間予測部114は、履歴情報を学習ブロック12に常時送信するのではなく、イベントが発生した場合にのみ、履歴情報を学習ブロック12に送信する。イベントの発生の有無は、ソナーセンサ、及びレーダ等の検知結果、エアバッグの動作状態、急ブレーキ及び急ハンドルの検知結果、又は、ドライバモニタで測定される運転者の脈拍、及び表情等にて検出可能である。つまり、予測ブロック11は、イベントの発生をトリガにして、例えば、イベントの発生時点の前後の数秒間の履歴情報を学習ブロック12に送信する。このとき、一定時間(例えば0.1秒)間隔で履歴情報が取得されている場合には、イベントの発生時点の前後の数秒間に取得された複数の履歴情報が、学習ブロック12にまとめて送信される。   In addition, the time prediction unit 114 is configured to transmit history information representing the state of the moving object 100 when an event occurs to the learning block 12. The “history information” here is information representing the status of the moving body 100 and the same information as the moving body information (and prediction information) acquired by the second acquisition unit 112. However, the time prediction unit 114 does not always transmit history information to the learning block 12 but transmits history information to the learning block 12 only when an event occurs. Whether or not an event has occurred is detected by the detection results of the sonar sensor and radar, the operating condition of the airbag, the detection results of the sudden brake and the sudden handle, or the driver's pulse and facial expression measured by the driver monitor. Is possible. That is, the prediction block 11 transmits, for example, history information for several seconds before and after the occurrence of the event to the learning block 12 using the occurrence of the event as a trigger. At this time, when history information is acquired at regular time intervals (for example, 0.1 seconds), a plurality of history information acquired in a few seconds before and after the occurrence of the event is collected in the learning block 12. Sent.

ここにおいて、時間予測部114は、イベントの発生時点までの所要時間を表す時間情報を、ラベル情報として、履歴情報と共に学習ブロック12に送信する。ラベル情報としての時間情報は、時間予測部114にて予測される時間情報とは異なり、イベントの発生が検出された時点までの実際の所要時間を表す情報である。複数の履歴情報が学習ブロックにまとめて送信される場合には、ラベル情報としての時間情報は、複数の履歴情報の各々に対応付けられている。また、ラベル情報としての時間情報は、イベントの発生時点までの所要時間に加えて、イベントの発生時点からの経過時間をも表すことが好ましい。イベントの発生時点までの所要時間とイベントの発生時点からの経過時間とは、例えば、符号(+/−)によって区別される。一例として、所要時間が「+」、経過時間が「−」であれば、イベントの発生時点の5秒前は「+5秒」で表され、イベントの発生時点の5秒後は「−5秒」と表される。詳しくは後述するが、履歴情報及びラベル情報(時間情報)は、学習ブロック12において予測モデルの生成に用いられる。   Here, the time prediction unit 114 transmits time information representing a required time until the occurrence of the event to the learning block 12 as the label information together with the history information. Unlike the time information predicted by the time prediction unit 114, the time information as the label information is information representing the actual required time until the occurrence of the event is detected. When a plurality of pieces of history information are transmitted together in a learning block, time information as label information is associated with each of the plurality of pieces of history information. The time information as the label information preferably represents an elapsed time from the event occurrence time in addition to the required time to the event occurrence time. The required time until the event occurrence time and the elapsed time from the event occurrence time are distinguished by, for example, a sign (+/−). As an example, if the required time is “+” and the elapsed time is “−”, 5 seconds before the event occurrence time is represented by “+5 seconds”, and 5 seconds after the event occurrence time is “−5 seconds”. ". As will be described in detail later, the history information and the label information (time information) are used for generating a prediction model in the learning block 12.

モデル格納部115は、時間予測部114での所要時間の予測に使用される予測モデルを格納する。本実施形態では、予測ブロック11と学習ブロック12との間の通信により、学習ブロック12で生成された予測モデルは、学習ブロック12から予測ブロック11に送信(配信)され、モデル格納部115に格納(記憶)される。本実施形態では、モデル格納部115には、1つの予測モデルが格納されていることと仮定する。モデル格納部115は、学習ブロック12から新たな予測モデルを随時取得し、格納している予測モデルを随時更新する。ただし、モデル格納部115には、複数の予測モデルが格納されてもよい。   The model storage unit 115 stores a prediction model used for prediction of the required time in the time prediction unit 114. In the present embodiment, the prediction model generated in the learning block 12 is transmitted (distributed) from the learning block 12 to the prediction block 11 through communication between the prediction block 11 and the learning block 12 and stored in the model storage unit 115. (Memorized). In the present embodiment, it is assumed that one prediction model is stored in the model storage unit 115. The model storage unit 115 acquires a new prediction model from the learning block 12 as needed, and updates the stored prediction model as needed. However, the model storage unit 115 may store a plurality of prediction models.

入力情報処理部116は、ADAS情報入力部14、車両情報入力部15、及び位置情報入力部16に接続されている。ADAS情報入力部14、車両情報入力部15、及び位置情報入力部16は、それぞれADAS情報、車両情報、及び位置情報の入力インタフェースである。そのため、入力情報処理部116には、ADAS情報入力部14からADAS情報が入力され、車両情報入力部15から車両情報が入力され、位置情報入力部16から位置情報が入力される。入力情報処理部116は、ADAS情報、車両情報、及び位置情報を、移動体情報として第2取得部112に出力する。さらに、入力情報処理部116は、ADAS情報、車両情報、及び位置情報を、予測用情報として時間予測部114に出力する。すなわち、本実施形態では、移動体情報及び予測用情報の各々は、ADAS情報、車両情報、及び位置情報の全てを含む情報である。   The input information processing unit 116 is connected to the ADAS information input unit 14, the vehicle information input unit 15, and the position information input unit 16. The ADAS information input unit 14, the vehicle information input unit 15, and the position information input unit 16 are input interfaces for ADAS information, vehicle information, and position information, respectively. Therefore, ADAS information is input from the ADAS information input unit 14 to the input information processing unit 116, vehicle information is input from the vehicle information input unit 15, and position information is input from the position information input unit 16. The input information processing unit 116 outputs ADAS information, vehicle information, and position information to the second acquisition unit 112 as moving body information. Further, the input information processing unit 116 outputs ADAS information, vehicle information, and position information to the time prediction unit 114 as prediction information. That is, in this embodiment, each of the moving body information and the prediction information is information including all of ADAS information, vehicle information, and position information.

出力情報処理部117は、推定部113、及び報知部13に接続されている。出力情報処理部117には、推定部113の推定結果、つまり推定部113で推定されたイベントの発生箇所が入力される。出力情報処理部117は、推定部113で推定されたイベントの発生箇所を、報知部13に出力し、報知部13にて報知させる。本実施形態では、報知部13は、イベントの発生箇所を表示することにより報知する表示部を有している。そのため、出力情報処理部117は、推定部113の推定結果を、表示部にて表示可能な態様のデータとして報知部13に出力する。   The output information processing unit 117 is connected to the estimation unit 113 and the notification unit 13. The output information processing unit 117 receives the estimation result of the estimation unit 113, that is, the occurrence location of the event estimated by the estimation unit 113. The output information processing unit 117 outputs the occurrence location of the event estimated by the estimation unit 113 to the notification unit 13 and causes the notification unit 13 to notify it. In this embodiment, the alerting | reporting part 13 has a display part which alert | reports by displaying the generation | occurrence | production location of an event. Therefore, the output information processing unit 117 outputs the estimation result of the estimation unit 113 to the notification unit 13 as data in a form that can be displayed on the display unit.

報知部13は、推定部113で推定されたイベントの発生箇所を報知する。つまり、報知部13は、出力情報処理部117から、推定部113の推定結果を受け取ることにより、イベントの発生箇所を報知(本実施形態では表示)する。本実施形態では、報知部13は、3D−HUD131、2D−HUD132、メータ133、及びマルチインフォメーションディスプレイ134を、表示部の一例として有している。3D−HUD131及び2D−HUD132は、移動体100のウインドシールドに下方(ダッシュボード)から画像を投影することで、ウインドシールドで反射された画像を運転者に視認させる。特に、3D−HUD131は、移動体100の前方の路面上に奥行きをもって視認される画像を投影可能である。報知部13での具体的な表示態様については、「(3.2)予測動作」の欄で説明する。   The notification unit 13 notifies the occurrence location of the event estimated by the estimation unit 113. That is, the notification unit 13 receives the estimation result of the estimation unit 113 from the output information processing unit 117, thereby notifying the occurrence location of the event (displayed in the present embodiment). In this embodiment, the alerting | reporting part 13 has 3D-HUD131, 2D-HUD132, the meter 133, and the multi-information display 134 as an example of a display part. The 3D-HUD 131 and the 2D-HUD 132 project the image from below (dashboard) onto the windshield of the moving body 100, thereby allowing the driver to visually recognize the image reflected by the windshield. In particular, the 3D-HUD 131 can project an image that is visually recognized with depth on the road surface in front of the moving body 100. A specific display mode in the notification unit 13 will be described in the column “(3.2) Prediction operation”.

学習ブロック12は、蓄積部121と、生成部122と、を有している。学習ブロック12は、例えば、CPU及びメモリを主構成とするコンピュータシステムにて構成されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータシステムが学習ブロック12として機能する。プログラムは、ここでは学習ブロック12のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   The learning block 12 includes a storage unit 121 and a generation unit 122. The learning block 12 is composed of, for example, a computer system having a CPU and a memory as main components, and the computer system functions as the learning block 12 when the CPU executes a program stored in the memory. Here, the program is recorded in advance in the memory of the learning block 12, but may be provided by being recorded through a telecommunication line such as the Internet or a recording medium such as a memory card.

蓄積部121は、イベントが発生した際における移動体100の状況を表す履歴情報を含む複数の学習用データを蓄積する。本実施形態では、時間予測部114から学習ブロック12に送信される、ラベル情報(時間情報)が、履歴情報と共に学習用データとして蓄積部121に蓄積される。つまり、蓄積部121に蓄積される複数の学習用データの各々は、イベントが発生した際における履歴情報と、イベントの発生時点までの所要時間(又は発生時点からの経過時間)を表す時間情報と、を含んでいる。   The accumulating unit 121 accumulates a plurality of learning data including history information indicating the state of the moving object 100 when an event occurs. In the present embodiment, label information (time information) transmitted from the time prediction unit 114 to the learning block 12 is stored in the storage unit 121 as learning data together with history information. That is, each of the plurality of learning data stored in the storage unit 121 includes history information when an event occurs, and time information indicating a required time (or elapsed time from the occurrence time) until the event occurs. , Including.

このように、蓄積部121には、イベントの発生をトリガにして、時間情報(ラベル情報)が付加された状態の履歴情報が、学習用データとして蓄積される。学習用データは、イベントが発生する度に蓄積部121に蓄積され、蓄積部121には複数の学習用データが蓄積される。ここで、蓄積部121に蓄積された複数の学習用データは、生成部122での予測モデルの生成に用いられる学習用データセットである。つまり、複数の学習用データは、履歴情報にアノテーション処理が施されることにより、生成部122での機械学習に適した形に加工された学習用データセットを構成する。   As described above, the history information in the state to which the time information (label information) is added is stored as learning data in the storage unit 121 using the occurrence of the event as a trigger. The learning data is accumulated in the accumulation unit 121 every time an event occurs, and a plurality of learning data is accumulated in the accumulation unit 121. Here, the plurality of learning data stored in the storage unit 121 is a learning data set used for generating a prediction model in the generation unit 122. That is, the plurality of learning data forms a learning data set processed into a form suitable for machine learning in the generation unit 122 by performing annotation processing on the history information.

生成部122は、複数の学習用データを用いて、予測モデルを生成する。生成部122は、一定量以上の学習用データを用いて、機械学習アルゴリズムによって予測モデルを生成する。予測モデルは、上述したように、時間予測部114にてイベントの発生が予測される予測時点までの所要時間を予測するために使用される学習済みモデルである。生成部122で生成された予測モデルは、学習ブロック12から予測ブロック11に送信され、モデル格納部115に格納される。ここで、生成部122は、予測モデルの評価用のサンプルを有しており、予測モデルの評価が向上する度に、予測モデルを予測ブロック11に送信し、モデル格納部115に格納されている予測モデルを更新する。   The generation unit 122 generates a prediction model using a plurality of learning data. The generation unit 122 generates a prediction model by a machine learning algorithm using a certain amount or more of learning data. As described above, the prediction model is a learned model that is used to predict a required time to a prediction time point at which an occurrence of an event is predicted by the time prediction unit 114. The prediction model generated by the generation unit 122 is transmitted from the learning block 12 to the prediction block 11 and stored in the model storage unit 115. Here, the generation unit 122 has a sample for evaluating the prediction model, and transmits the prediction model to the prediction block 11 and stored in the model storage unit 115 every time the evaluation of the prediction model is improved. Update the prediction model.

(3)動作
次に、本実施形態に係るイベント予測システム1の動作について説明する。
(3) Operation Next, the operation of the event prediction system 1 according to the present embodiment will be described.

(3.1)学習動作
まず、学習ブロック12での予測モデルの生成に係るイベント予測システム1の動作について、図2に示すフローチャートを参照して説明する。
(3.1) Learning Operation First, the operation of the event prediction system 1 relating to the generation of the prediction model in the learning block 12 will be described with reference to the flowchart shown in FIG.

学習ブロック12は、予測ブロック11でのイベントの発生をトリガにして、予測ブロック11から履歴情報を取得する(S11)。さらに、このとき、学習ブロック12は、履歴情報に対応付けられたラベル情報(時間情報)を、履歴情報と併せて取得する。学習ブロック12は、取得した時間情報を、ラベル情報として履歴情報に付加するアノテーション処理を行う(S12)。学習ブロック12は、このようにして得られる、ラベル情報(時間情報)が付加された履歴情報を学習用データとし、この学習用データを、蓄積部121に蓄積する(S13)。   The learning block 12 acquires history information from the prediction block 11 using the occurrence of an event in the prediction block 11 as a trigger (S11). Further, at this time, the learning block 12 acquires label information (time information) associated with the history information together with the history information. The learning block 12 performs annotation processing for adding the acquired time information to the history information as label information (S12). The learning block 12 uses the history information to which the label information (time information) thus obtained is added as learning data, and stores this learning data in the storage unit 121 (S13).

学習ブロック12は、蓄積された学習用データの増加量を表す値(例えばビット数)を蓄積データ増加量とし、蓄積データ増加量と所定値Qとを比較する(S14)。蓄積データ増加量が所定値Q以上であれば(S14:Yes)、学習ブロック12は、生成部122にて予測モデルを生成する(S15)。このとき、生成部122は、蓄積部121に蓄積されている複数の学習用データを用いて、機械学習アルゴリズムによって予測モデルを生成する。生成部122で生成された予測モデルは、学習ブロック12から予測ブロック11に送信され、モデル格納部115に格納される。一方、蓄積データ増加量が所定値Q未満であれば(S14:No)、イベント予測システム1は、ステップS15を飛ばして、学習ブロック12での一連の処理を終了する。   The learning block 12 uses the value (for example, the number of bits) representing the increase amount of the accumulated learning data as the accumulated data increase amount, and compares the accumulated data increase amount with the predetermined value Q (S14). If the accumulated data increase amount is equal to or greater than the predetermined value Q (S14: Yes), the learning block 12 generates a prediction model in the generation unit 122 (S15). At this time, the generation unit 122 generates a prediction model by a machine learning algorithm using a plurality of learning data stored in the storage unit 121. The prediction model generated by the generation unit 122 is transmitted from the learning block 12 to the prediction block 11 and stored in the model storage unit 115. On the other hand, if the accumulated data increase amount is less than the predetermined value Q (S14: No), the event prediction system 1 skips step S15 and ends the series of processes in the learning block 12.

イベント予測システム1は、上記ステップS11〜S15の処理を、予測ブロック11にてイベントが発生する度に繰り返し行うことで、予測モデルを生成する。そして、学習ブロック12は、予測モデルの評価が向上する度に、予測モデルを予測ブロック11に送信し、モデル格納部115に格納されている予測モデルを更新する。   The event prediction system 1 generates a prediction model by repeatedly performing the processes of steps S11 to S15 each time an event occurs in the prediction block 11. The learning block 12 transmits the prediction model to the prediction block 11 and updates the prediction model stored in the model storage unit 115 whenever the evaluation of the prediction model is improved.

また、学習ブロック12は、イベント予測システム1の運用開始時においては、蓄積部121に予め複数の学習用データを蓄積しておくことにより、予測ブロック11から履歴情報を取得しなくても、予測モデルを生成可能に構成されていることが好ましい。予測モデルについても同様であって、イベント予測システム1の運用開始時においては、学習ブロック12及びモデル格納部115に、予めデフォルトの予測モデルが格納されていることが好ましい。   Further, when the event prediction system 1 starts operation, the learning block 12 stores a plurality of learning data in the storage unit 121 in advance, so that the learning block 12 can perform prediction without acquiring history information from the prediction block 11. It is preferable that the model can be generated. The same applies to the prediction model. When the operation of the event prediction system 1 is started, it is preferable that a default prediction model is stored in the learning block 12 and the model storage unit 115 in advance.

ここにおいて、ラベル情報としての時間情報は、上述したように、イベントの発生時点までの所要時間に加えて、イベントの発生時点からの経過時間をも表すことが好ましい。すなわち、学習ブロック12は、イベントの発生前の履歴情報だけでなく、イベントの発生後の履歴情報についても、イベントの発生時点からの経過時間を表すラベル情報(時間情報)を付加して、学習用データとして蓄積部121に蓄積することが好ましい。イベントの発生後の履歴情報を用いることにより、イベントの発生時点の特定精度が向上し、結果的に、生成部122で生成される予測モデルの評価が向上する。さらに、イベントの発生後の履歴情報を用いることにより、学習ブロック12にて、イベントの発生の有無の真偽について検証可能となる。要するに、急ブレーキの検知結果からイベントの発生が検出された場合でも、その後、移動体100の状況等から、事故、又はヒヤリ・ハット等ではないと判断される場合には、イベントが発生しなかったこととして、学習用データを破棄可能となる。例えば、運転者の運転が荒い場合等であって、急ブレーキの検知結果からイベントの発生が検出された後、移動体100が通常通りの移動(走行)を継続していると判断されると、学習ブロック12において、学習用データが破棄される。これにより、蓄積部121に蓄積される学習用データの質が向上する。   Here, as described above, the time information as the label information preferably represents the elapsed time from the event occurrence time in addition to the required time to the event occurrence time. That is, the learning block 12 adds not only the history information before the occurrence of the event but also the history information after the occurrence of the event by adding label information (time information) indicating the elapsed time from the occurrence of the event. It is preferable to store the data as storage data in the storage unit 121. By using the history information after the occurrence of the event, the identification accuracy at the time of occurrence of the event is improved, and as a result, the evaluation of the prediction model generated by the generation unit 122 is improved. Furthermore, by using the history information after the occurrence of the event, the learning block 12 can verify whether the event has occurred or not. In short, even if the occurrence of an event is detected from the detection result of the sudden braking, the event does not occur if it is later determined from the situation of the moving body 100 that it is not an accident or a near-miss, etc. As a result, the learning data can be discarded. For example, when it is determined that the moving body 100 continues to move (run) as usual after the occurrence of an event is detected from the sudden braking detection result, for example, when the driver's driving is rough. In the learning block 12, the learning data is discarded. Thereby, the quality of the learning data stored in the storage unit 121 is improved.

(3.2)予測動作
次に、予測ブロック11でのイベントの発生箇所の推定に係るイベント予測システム1の動作について、図3に示すフローチャートを参照して説明する。
(3.2) Prediction Operation Next, the operation of the event prediction system 1 relating to the estimation of the event occurrence location in the prediction block 11 will be described with reference to the flowchart shown in FIG.

予測ブロック11は、時間予測部114にて予測用情報を取得する(S21)。このとき、ADAS情報入力部14、車両情報入力部15、及び位置情報入力部16から入力情報処理部116に入力されるADAS情報、車両情報、及び位置情報が、予測用情報として時間予測部114に入力される。予測ブロック11は、取得した予測用情報、及びモデル格納部115に格納されている予測モデルを用いて、時間予測部114にて所要時間の予測を行う(S22)。ここで、予測用情報から特定される移動体100の状況が、例えば、3秒後にイベントが発生する可能性が高いと判断されるような状況にあれば、所要時間は3秒と予測される。予測用情報の取得(S21)及び所要時間の予測(S22)は、一定時間(例えば0.1秒)間隔で随時実行される。   The prediction block 11 acquires information for prediction in the time prediction unit 114 (S21). At this time, the ADAS information, the vehicle information, and the position information input from the ADAS information input unit 14, the vehicle information input unit 15, and the position information input unit 16 to the input information processing unit 116 are used as prediction information. Is input. The prediction block 11 uses the acquired prediction information and the prediction model stored in the model storage unit 115 to predict the required time in the time prediction unit 114 (S22). Here, if the situation of the moving body 100 specified from the prediction information is in a situation in which it is determined that an event is likely to occur after 3 seconds, for example, the required time is predicted to be 3 seconds. . The acquisition of the prediction information (S21) and the prediction of the required time (S22) are executed as needed at regular time intervals (for example, 0.1 seconds).

予測ブロック11は、予測した所要時間と規定時間S(例えば5秒)とを比較する(S23)。所要時間が規定時間S以下であれば(S23:Yes)、予測ブロック11は、イベントの発生箇所を推定するための処理を開始する。具体的には、予測ブロック11は、第1取得部111にて、イベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する第1取得処理(S24)を実行する。このとき、第1取得部111は、時間予測部114にて予測された所要時間の情報を、時間情報として時間予測部114から取得する。さらに、予測ブロック11は、第2取得部112にて、移動体100の状況を表す移動体情報を取得する第2取得処理(S25)を実行する。このとき、第2取得部112は、ADAS情報入力部14、車両情報入力部15、及び位置情報入力部16から入力情報処理部116に入力されるADAS情報、車両情報、及び位置情報を、予測用情報として取得する。   The prediction block 11 compares the predicted required time with a specified time S (for example, 5 seconds) (S23). If the required time is equal to or shorter than the specified time S (S23: Yes), the prediction block 11 starts a process for estimating the occurrence location of the event. Specifically, the prediction block 11 executes a first acquisition process (S24) in which the first acquisition unit 111 acquires time information indicating a required time until a prediction time point at which an occurrence of an event is predicted. At this time, the first acquisition unit 111 acquires information on the required time predicted by the time prediction unit 114 from the time prediction unit 114 as time information. Furthermore, the prediction block 11 performs the 2nd acquisition process (S25) which acquires the mobile body information showing the condition of the mobile body 100 in the 2nd acquisition part 112. FIG. At this time, the second acquisition unit 112 predicts ADAS information, vehicle information, and position information input from the ADAS information input unit 14, the vehicle information input unit 15, and the position information input unit 16 to the input information processing unit 116. Obtained as business information.

その後、予測ブロック11は、推定部113にて、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する推定処理(S26)を実行する。具体的には、推定部113は、まず時間情報及び移動体情報に基づいて、予測時点における移動体100の到達位置を予測する。イベントの発生が予測される予測時点までの所要時間がT〔s〕であって、移動体100の移動速度(走行速度)がV〔m/s〕であるとすれば、到達位置までの距離D〔m〕は、「D=VT」で求まる。所要時間Tは時間情報にて特定され、移動体100の移動速度は移動体情報に含まれる車両情報にて特定される。   Then, the prediction block 11 performs the estimation process (S26) which estimates the generation | occurrence | production location of an event in the estimation part 113 based on time information and mobile body information. Specifically, the estimation unit 113 first predicts the arrival position of the mobile object 100 at the prediction time point based on the time information and the mobile object information. If the time required to predict the occurrence of an event is T [s] and the moving speed (traveling speed) of the moving body 100 is V [m / s], the distance to the arrival position D [m] is obtained by “D = VT”. The required time T is specified by time information, and the moving speed of the moving body 100 is specified by vehicle information included in the moving body information.

そして、推定部113は、移動体100の周辺に存在しており、所要時間後に到達位置に存在する物体を、イベントの発生箇所として推定する。具体的には、推定部113は、算出した到達位置までの距離Dと、移動体情報に含まれるADAS情報、及び位置情報等の情報とを用いて、イベントの発生箇所を推定する。   And the estimation part 113 exists in the periphery of the mobile body 100, and estimates the object which exists in the arrival position after required time as an event generation | occurrence | production location. Specifically, the estimation unit 113 estimates an event occurrence location using the calculated distance D to the arrival position and information such as ADAS information and position information included in the moving body information.

一例として、図4に示すような状況での、推定部113によるイベントの発生箇所の推定処理について説明する。図4は、移動体100の運転者の視野を示す概念図である。図4の例では、移動体100(自車)が走行中の走行車線501、及び対向車線502の各々が2車線の直線道路を想定している。この例において、移動体100の左前方の走行車線501の路肩には、駐車中のトラック301が存在する。移動体100からトラック301までの距離は66〔m〕であると仮定する。   As an example, a process for estimating an event occurrence place by the estimation unit 113 in the situation shown in FIG. 4 will be described. FIG. 4 is a conceptual diagram showing the field of view of the driver of the moving body 100. In the example of FIG. 4, it is assumed that each of the traveling lane 501 in which the moving body 100 (own vehicle) is traveling and the opposite lane 502 are two-lane straight roads. In this example, a parked truck 301 exists on the shoulder of the traveling lane 501 on the left front side of the moving body 100. It is assumed that the distance from the moving body 100 to the track 301 is 66 [m].

この場合において、所要時間Tが4〔s〕、移動速度Vが16.67〔m/s〕であるとすれば、到達位置までの距離Dは66.68〔m〕となる。そうすると、ADAS情報に含まれる車間距離、相対速度等の情報から、推定部113は、予測時点における移動体100の到達位置(66.68〔m〕前方)には、停車中のトラック301が存在することを特定できる。この場合、推定部113は、イベントの対象がトラック301であると判断し、このトラック301をイベントの発生箇所と推定する。このように、推定部113は、移動体100の周辺に存在しており、所要時間後に到達位置に存在する物体(ここではトラック301)を、イベントの発生箇所として推定する。   In this case, if the required time T is 4 [s] and the moving speed V is 16.67 [m / s], the distance D to the reaching position is 66.68 [m]. Then, based on the information such as the inter-vehicle distance and the relative speed included in the ADAS information, the estimation unit 113 has the stopped truck 301 at the predicted position (66.68 [m] ahead) of the moving body 100 at the prediction time. You can identify what to do. In this case, the estimation unit 113 determines that the target of the event is the track 301, and estimates this track 301 as the event occurrence location. As described above, the estimation unit 113 estimates an object (here, the track 301) that exists in the vicinity of the moving body 100 and exists at the arrival position after the required time as an event occurrence location.

推定部113での推定処理(S26)が終わると、イベント予測システム1は、推定部113で推定されたイベントの発生箇所を、報知部13にて報知する(S27)。図4の例では、3D−HUD131により、イベントの発生箇所として推定されたトラック301の周囲に、マーカ401(ドットハッチングで示す領域)を表示する。これにより、運転者においては、トラック301の周囲に、立体的なマーカ401が重ねて表示されて見えるため、トラック301への注意が喚起される。すなわち、運転者の視界においては、実空間上に3D−HUD131が表示するマーカ401が合成された、拡張現実(AR:Augmented Reality)表示が実現される。   When the estimation process (S26) in the estimation unit 113 ends, the event prediction system 1 notifies the occurrence part of the event estimated by the estimation unit 113 in the notification unit 13 (S27). In the example of FIG. 4, the marker 401 (area indicated by dot hatching) is displayed around the track 301 estimated as the event occurrence location by the 3D-HUD 131. As a result, the driver is alerted to the truck 301 because the three-dimensional marker 401 appears to be displayed in an overlapping manner around the truck 301. That is, in the driver's field of view, augmented reality (AR) display in which the marker 401 displayed by the 3D-HUD 131 is synthesized in real space is realized.

これにより、運転者は、運転者の死角となるトラック301の陰からの歩行者、又は自転車等の飛び出しのように「見えない危険」が潜んでいることを確認できる。このように、本実施形態に係るイベント予測システム1によれば、より安全な運転を実現するように、運転者による移動体100の運転を支援可能である。   Accordingly, the driver can confirm that there is a “invisible danger” lurking like a pedestrian or a bicycle jumping out from behind the truck 301 that is a blind spot of the driver. Thus, according to the event prediction system 1 according to the present embodiment, it is possible to support the driving of the moving body 100 by the driver so as to realize safer driving.

一方、予測された所要時間が規定時間Sより大きければ(S23:No)、イベント予測システム1は、ステップS24〜S27を飛ばして、予測ブロック11での一連の処理を終了する。   On the other hand, if the predicted required time is longer than the prescribed time S (S23: No), the event prediction system 1 skips steps S24 to S27 and ends the series of processes in the prediction block 11.

イベント予測システム1は、上記ステップS21〜S27の処理を、一定時間(例えば0.1秒)間隔で繰り返し行うことで、イベントの発生箇所を推定する。そして、イベント予測システム1は、所要時間が規定時間S以下となる度に(S23:Yes)、イベントの発生箇所を推定し、報知を行う。   The event prediction system 1 estimates the occurrence location of the event by repeatedly performing the processing of steps S21 to S27 at regular time intervals (for example, 0.1 seconds). Then, the event prediction system 1 estimates and notifies the occurrence location of the event every time the required time is equal to or less than the specified time S (S23: Yes).

また、予測ブロック11でのイベントの発生箇所の推定に係るイベント予測システム1の動作は、図3に示す例に限らない。例えば、第1取得処理(S24)と、第2取得処理(S25)とは、順序が逆であってもよい。   Further, the operation of the event prediction system 1 related to the estimation of the event occurrence location in the prediction block 11 is not limited to the example shown in FIG. For example, the order of the first acquisition process (S24) and the second acquisition process (S25) may be reversed.

(4)補足事項
以下に、本実施形態に係るイベント予測システム1にて予測が可能なイベント(見えない危険)の例を幾つか挙げる。ここでは、イベント予測システム1は、移動体100(自車)を含めて、上方から俯瞰したような画像において、イベントの発生箇所を表示することと仮定する。
(4) Supplementary items Several examples of events (dangers that cannot be seen) that can be predicted by the event prediction system 1 according to the present embodiment are given below. Here, it is assumed that the event prediction system 1 displays an occurrence location of an event in an image as seen from above including the moving body 100 (own vehicle).

まず、図5A、図5B、及び図5Cは、対象物(ここでは停車中のトラック)の陰から、自転車、車両、又は歩行者等が飛び出し得る状況を示している。   First, FIG. 5A, FIG. 5B, and FIG. 5C have shown the condition where a bicycle, a vehicle, a pedestrian, etc. can jump out from the shadow of a target object (here, a stopped track).

図5Aの例では、移動体100である自車300Aが走行中の走行車線501A、及び対向車線502Aの各々が1車線であって、対向車線502Aの路肩に、駐車中の複数台のトラック301A,302A,303Aが存在する。さらに、対向車線502A側の歩道503Aからは、トラック302Aとトラック303Aとの間を通って、自転車304Aが走行車線501Aを横断しようとしている。図5Aのような状況では、イベント予測システム1は、例えば、複数台のトラック301A,302A,303Aの車間距離等の情報から、駐車中の複数台のトラック301A,302A,303Aの周辺に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、駐車中の複数台のトラック301A,302A,303Aの周囲の領域にマーカ401Aを表示する。図5Aに例示するような状況は、複数台のトラック301A,302A,303Aが駐車中である場合に限らず、例えば、複数台のトラック301A,302A,303Aが渋滞により、停車又は極低速で走行している場合等にも生じ得る。   In the example of FIG. 5A, each of the traveling lane 501A in which the host vehicle 300A that is the moving body 100 is traveling and the opposite lane 502A are one lane, and a plurality of parked trucks 301A are placed on the shoulders of the opposite lane 502A. , 302A, 303A. Further, from the sidewalk 503A on the opposite lane 502A side, the bicycle 304A is about to cross the travel lane 501A through between the track 302A and the track 303A. In the situation as shown in FIG. 5A, the event prediction system 1 “appears in the vicinity of a plurality of parked trucks 301A, 302A, 303A, for example, from information such as the inter-vehicle distances of the plurality of trucks 301A, 302A, 303A. Judge that there is no danger. Therefore, the event prediction system 1 displays the marker 401A in an area around the plurality of parked trucks 301A, 302A, and 303A. The situation illustrated in FIG. 5A is not limited to a case where a plurality of trucks 301A, 302A, and 303A are parked. For example, a plurality of trucks 301A, 302A, and 303A travel at a very low speed due to traffic congestion. It can also occur when you are.

図5Bの例では、移動体100である自車300Bが走行中の走行車線501B、及び対向車線502Bの各々が2車線である。ここで、信号機504Bが赤信号であるため、走行車線501Bにおける自車300Bの左前方には、停車中(信号待ち)の複数台のトラック301B,302Bが存在する。さらに、対向車線502Bには走行中のトラック303Bが存在する。この場合において、走行車線501B側の歩道503B上の駐車スペース505Bからは、トラック301Bとトラック302Bとの間を通って、車両304Bが対向車線502Bに出ようとしている。図5Bのような状況では、イベント予測システム1は、例えば、複数台のトラック301B,302Bの車間距離、信号機504B等の情報から、停車中のトラック301Bの周辺に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、停車中のトラック301Bの周囲の領域にマーカ401Bを表示する。   In the example of FIG. 5B, each of the traveling lane 501B and the opposite lane 502B in which the host vehicle 300B that is the moving body 100 is traveling has two lanes. Here, since the traffic light 504B has a red signal, there are a plurality of trucks 301B and 302B that are stopped (waiting for a signal) in front of the host vehicle 300B in the traveling lane 501B. Furthermore, there is a traveling track 303B in the oncoming lane 502B. In this case, from the parking space 505B on the sidewalk 503B on the side of the traveling lane 501B, the vehicle 304B is about to exit the opposite lane 502B through the space between the truck 301B and the truck 302B. In the situation as shown in FIG. 5B, for example, the event prediction system 1 has an “invisible danger” lurking around the stopped track 301B from information such as the inter-vehicle distances of the plurality of trucks 301B and 302B and the traffic light 504B. Judge that Therefore, the event prediction system 1 displays the marker 401B in the area around the stopped track 301B.

図5Cの例では、移動体100である自車300Cが走行中の走行車線501C、及び対向車線502Cの各々が1車線であって、走行車線501Cの路肩に、駐車中のトラック301Cが存在する。この場合において、トラック301Cの前方の横断歩道504Cを、対向車線502C側の歩道503Cに向けて、歩行者302Cが横断中である。図5Cのような状況では、イベント予測システム1は、例えば、トラック301Cの移動速度、横断歩道504C等の情報から、駐車中のトラック301Cの周辺に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、駐車中のトラック301Cの周囲の領域にマーカ401Cを表示する。   In the example of FIG. 5C, each of the traveling lane 501C in which the vehicle 300C that is the moving body 100 is traveling and the opposite lane 502C are one lane, and a parked truck 301C exists on the shoulder of the traveling lane 501C. . In this case, the pedestrian 302C is crossing the pedestrian crossing 504C ahead of the track 301C toward the side 503C on the opposite lane 502C side. In the situation as shown in FIG. 5C, for example, the event prediction system 1 determines from the information such as the moving speed of the truck 301C and the pedestrian crossing 504C that “invisible danger” is lurking around the parked truck 301C. . Therefore, the event prediction system 1 displays the marker 401C in the area around the parked truck 301C.

また、図6A、図6B、及び図6Cは、対象物(ここではトラック)により生じる死角に車両が存在する状況を示している。   Moreover, FIG. 6A, FIG. 6B, and FIG. 6C have shown the condition where the vehicle exists in the blind spot produced by the target object (here truck).

図6Aの例では、移動体100である自車300Dが走行中の走行車線501D、及び対向車線502Dの各々が1車線であって、自車300Dの前方の交差点には、左方から右折してくるトラック301Dが存在する。さらに、対向車線502Dには、同交差点内で右折待ちの車両302Dが存在する。図6Aのような状況では、イベント予測システム1は、例えば、トラック301D及び車両302D等の情報から、トラック301Dにて生じる死角に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、トラック301Dにより生じる死角領域にマーカ401Dを表示する。   In the example of FIG. 6A, each of the traveling lane 501D in which the host vehicle 300D as the moving body 100 is traveling and the opposite lane 502D are one lane, and turn right from the left at the intersection in front of the host vehicle 300D. There is an incoming track 301D. Further, on the opposite lane 502D, there is a vehicle 302D waiting for a right turn in the same intersection. In the situation as shown in FIG. 6A, the event prediction system 1 determines that “invisible danger” is lurking in the blind spot generated in the truck 301D from information such as the truck 301D and the vehicle 302D, for example. Therefore, the event prediction system 1 displays the marker 401D in the blind spot area generated by the track 301D.

図6Bの例では、移動体100である自車300Eが走行中の走行車線501E、及び対向車線502Eの各々が2車線であって、自車300Eの前方の交差点には、走行車線501Eにて右折待ちの複数台のトラック301E,302E,303Eが存在する。さらに、対向車線502Eには、同交差点内で右折待ちの車両304Eが存在する。図6Bのような状況では、イベント予測システム1は、例えば、複数台のトラック301E,302E,303E及び車両304E等の情報から、複数台のトラック301E,302E,303Eにより生じる死角に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、複数台のトラック301E,302E,303Eにより生じる死角領域にマーカ401Eを表示する。   In the example of FIG. 6B, each of the travel lane 501E in which the host vehicle 300E that is the moving body 100 is traveling and the opposite lane 502E are two lanes, and an intersection in front of the host vehicle 300E is at the travel lane 501E. There are a plurality of trucks 301E, 302E, 303E waiting for a right turn. Further, on the opposite lane 502E, there is a vehicle 304E waiting for a right turn at the intersection. In the situation as shown in FIG. 6B, for example, the event prediction system 1 uses the information such as the plurality of trucks 301E, 302E, 303E, and the vehicle 304E to detect the blind spots caused by the plurality of trucks 301E, 302E, 303E. "Is lurking. Therefore, the event prediction system 1 displays the marker 401E in a blind spot area generated by a plurality of tracks 301E, 302E, and 303E.

図6Cの例では、移動体100である自車300Fが走行中の走行車線501F、及び対向車線502Fの各々が2車線であって、自車300Fは交差点内で右折待ちをしている。さらに、同交差点には、対向車線502Fにて右折待ちの複数台のトラック301F,302F,303Fが存在する。さらに、対向車線502Fには、直進中の車両304Fが存在する。図6Cのような状況では、イベント予測システム1は、例えば、先頭のトラック301F及び車両304F等の情報から、先頭のトラック301Fにより生じる死角に「見えない危険」が潜んでいると判断する。そのため、イベント予測システム1は、トラック301Fにより生じる死角領域にマーカ401Fを表示する。   In the example of FIG. 6C, each of the traveling lane 501F in which the host vehicle 300F that is the moving body 100 is traveling and the opposite lane 502F are two lanes, and the host vehicle 300F waits for a right turn at the intersection. Furthermore, there are a plurality of trucks 301F, 302F, 303F waiting for a right turn in the opposite lane 502F at the intersection. Furthermore, there is a vehicle 304F traveling straight in the oncoming lane 502F. In the situation as shown in FIG. 6C, for example, the event prediction system 1 determines from the information such as the top track 301F and the vehicle 304F that the “invisible danger” lurks in the blind spot generated by the top track 301F. Therefore, the event prediction system 1 displays the marker 401F in the blind spot area generated by the track 301F.

(5)変形例
実施形態1は、本発明の様々な実施形態の一つに過ぎない。実施形態1は、本発明の目的を達成できれば、設計等に応じて種々の変更が可能である。また、イベント予測システム1と同様の機能は、イベント予測方法、コンピュータプログラム、又はプログラムを記憶した記憶媒体等で具現化されてもよい。一態様に係るイベント予測方法は、第1取得処理と、第2取得処理と、推定処理と、を有する。第1取得処理は、移動体100の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する処理である。第2取得処理は、移動体100の状況を表す移動体情報を取得する処理である。推定処理は、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する処理である。一態様に係る(コンピュータ)プログラムは、コンピュータシステムに、第1取得処理と、第2取得処理と、推定処理と、を実行させるためのプログラムである。
(5) Modifications Embodiment 1 is only one of various embodiments of the present invention. As long as the object of the present invention can be achieved, the first embodiment can be variously modified according to the design and the like. Moreover, the same function as the event prediction system 1 may be embodied by an event prediction method, a computer program, a storage medium storing the program, or the like. The event prediction method according to one aspect includes a first acquisition process, a second acquisition process, and an estimation process. The first acquisition process is a process of acquiring time information representing a required time until a predicted time point at which an event related to the driving of the moving body 100 is predicted to occur. The second acquisition process is a process for acquiring mobile object information representing the status of the mobile object 100. The estimation process is a process of estimating an event occurrence location based on time information and moving body information. A (computer) program according to one aspect is a program for causing a computer system to execute a first acquisition process, a second acquisition process, and an estimation process.

以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。   Hereinafter, modifications of the first embodiment will be listed. The modifications described below can be applied in appropriate combinations.

イベントの発生箇所の推定結果は、報知部13から報知される構成に限らず、例えば、移動体100を制御する車両制御システムに出力されてもよい。この場合、車両制御システムが、イベントの発生箇所の推定結果に応じて、ブレーキ、アクセル、ステアリング等を操作することにより、イベントの発生前に予め減速したり、イベントの発生箇所を回避したりすることができる。これにより、車両制御システムにて、自動運転(完全自動運転、及び一部自動運転の両方を含む)が実現可能となる。   The estimation result of the event occurrence location is not limited to the configuration notified from the notification unit 13, and may be output to, for example, a vehicle control system that controls the moving body 100. In this case, the vehicle control system operates the brake, accelerator, steering, etc. according to the estimation result of the event occurrence location, thereby decelerating in advance before the event occurrence or avoiding the event occurrence location. be able to. As a result, automatic operation (including both fully automatic operation and partial automatic operation) can be realized in the vehicle control system.

また、イベント予測システム1は、イベントの発生が予測される予測時点までの所要時間を表す時間情報に基づいてイベントの発生箇所を推定する機能があればよく、所要時間を予測する機能についてはイベント予測システム1に必須の機能ではない。そのため、イベント予測システム1は、例えば、他のシステムから所要時間を取得するように構成されていてもよい。すなわち、予測モデルを用いて所要時間を予測する時間予測部114、学習用データを蓄積する蓄積部121、及び予測モデルを生成する生成部122等については、イベント予測システム1に必須の構成ではない。   In addition, the event prediction system 1 only needs to have a function of estimating an occurrence location of an event based on time information indicating a required time until a prediction time point at which the occurrence of an event is predicted. This is not an essential function for the prediction system 1. Therefore, the event prediction system 1 may be configured to acquire the required time from another system, for example. That is, the time prediction unit 114 that predicts the required time using the prediction model, the storage unit 121 that accumulates learning data, the generation unit 122 that generates the prediction model, and the like are not essential components in the event prediction system 1. .

また、時間予測部114がラベル情報を学習ブロック12に送信する構成に限らず、予測ブロック11における時間予測部114以外の部位が、ラベル情報を学習ブロック12に送信してもよい。さらに、ラベル情報としての時間情報は、移動体100に設けられた予測ブロック11側で、履歴情報に付加されていてもよい。この場合、学習ブロック12は、予測ブロック11から受信したラベル情報付きの履歴情報を、随時、蓄積部121に蓄積する。また、予測ブロック11から学習ブロック12にラベル情報が送信される構成に限らず、学習ブロック12において、予測ブロック11から受信した履歴情報を用いて、ラベル情報を生成してもよい。この場合、ラベル情報の生成、及びラベル情報の履歴情報への付加は、いずれも学習ブロック12において実行されることになる。   Further, the configuration is not limited to the configuration in which the time prediction unit 114 transmits the label information to the learning block 12, and a part other than the time prediction unit 114 in the prediction block 11 may transmit the label information to the learning block 12. Furthermore, the time information as the label information may be added to the history information on the prediction block 11 side provided in the moving body 100. In this case, the learning block 12 accumulates the history information with label information received from the prediction block 11 in the accumulation unit 121 as needed. Further, the label information may be generated using the history information received from the prediction block 11 in the learning block 12 without being limited to the configuration in which the label information is transmitted from the prediction block 11 to the learning block 12. In this case, generation of label information and addition of label information to history information are both performed in the learning block 12.

また、実施形態1に係るイベント予測システム1は、移動体100とクラウド200とに分離したシステムで具現化されることに限らない。例えば、イベント予測システム1は1つの筐体に収納されていてもよいし、移動体100又はクラウド200に集約されてもよい。例えば、イベント予測システム1が移動体100に集約されている場合、イベント予測システム1は、移動体100において、スタンドアローンで予測モデルの生成をも行うことができる。この場合、例えば、移動体100に組み込まれているEEPROM(Electrically Erasable and Programmable Read-Only Memory)及びECU(Electronic Control Unit)がそれぞれ蓄積部及び生成部として機能する。イベント予測システム1の各構成要素(推定部113、及び時間予測部114等)は、2つ以上の装置に分散して設けられてもよい。例えば、時間予測部114が、移動体100とクラウド200とに分散して設けられてもよい。   Further, the event prediction system 1 according to the first embodiment is not limited to being embodied by a system separated into the mobile object 100 and the cloud 200. For example, the event prediction system 1 may be housed in one housing, or may be integrated into the mobile object 100 or the cloud 200. For example, when the event prediction system 1 is integrated into the mobile object 100, the event prediction system 1 can also generate a prediction model in a stand-alone manner in the mobile object 100. In this case, for example, an EEPROM (Electrically Erasable and Programmable Read-Only Memory) and an ECU (Electronic Control Unit) incorporated in the moving body 100 function as an accumulation unit and a generation unit, respectively. Each component (estimation part 113, time prediction part 114, etc.) of event prediction system 1 may be distributed and provided in two or more devices. For example, the time prediction unit 114 may be provided in a distributed manner between the mobile object 100 and the cloud 200.

また、学習ブロック12は、学習用データとなる履歴情報を、1台の移動体100から取得する構成に限らず、複数台の移動体100から取得(収集)してもよい。この場合、学習ブロック12は、複数台の移動体100から取得した履歴情報等を用いて予測モデルを生成し、生成した予測モデルを、複数台の移動体100に送信する。特に、学習ブロック12が多数台の移動体100から学習用データとなる履歴情報を収集する場合、収集された履歴情報の集合は、いわゆるビッグデータを構成する。   Further, the learning block 12 is not limited to the configuration in which the history information serving as learning data is acquired from one moving body 100, but may be acquired (collected) from a plurality of moving bodies 100. In this case, the learning block 12 generates a prediction model using history information acquired from the plurality of mobile bodies 100 and transmits the generated prediction model to the plurality of mobile bodies 100. In particular, when the learning block 12 collects history information as learning data from a large number of mobile bodies 100, the collected history information set constitutes so-called big data.

また、学習ブロック12は、例えば自動車の販売及びメンテナンス等を行う店舗に設置されていてもよい。この場合、学習ブロック12は、店舗でメンテナンスを受ける複数台の移動体100から、履歴情報を取得することができる。学習ブロック12で生成された予測モデルは、移動体100のメンテナンス時に予測ブロック11に送信される。これにより、移動体100では、メンテナンスの際に予測モデルの更新が可能となる。さらに、学習ブロック12は、例えば、複数の店舗を管理する販売会社又はメーカ等のサーバ装置で具現化されてもよい。この場合、学習ブロック12は、複数の店舗から収集した履歴情報を一元管理でき、これらの履歴情報を用いて予測モデルを生成できる。   The learning block 12 may be installed in a store that performs sales and maintenance of automobiles, for example. In this case, the learning block 12 can acquire history information from a plurality of moving bodies 100 that receive maintenance at the store. The prediction model generated in the learning block 12 is transmitted to the prediction block 11 when the mobile object 100 is maintained. Thereby, in the mobile body 100, the prediction model can be updated at the time of maintenance. Furthermore, the learning block 12 may be embodied by a server device such as a sales company or a manufacturer that manages a plurality of stores, for example. In this case, the learning block 12 can centrally manage history information collected from a plurality of stores, and can generate a prediction model using these history information.

また、予測用情報は、移動体100の状況を表す情報であればよく、第2取得部112が取得する移動体情報と同じ情報でなくてもよい。例えば、予測用情報における車両情報に含まれている移動体100の移動速度を、移動体情報においては、位置情報から算出される移動速度で代用してもよい。同様に、履歴情報は、移動体100の状況を表す情報であればよく、第2取得部112が取得する移動体情報と同じでなくてもよい。   Moreover, the information for prediction should just be the information showing the condition of the mobile body 100, and does not need to be the same information as the mobile body information which the 2nd acquisition part 112 acquires. For example, the moving speed of the moving body 100 included in the vehicle information in the prediction information may be substituted with the moving speed calculated from the position information in the moving body information. Similarly, the history information may be information indicating the status of the mobile object 100 and may not be the same as the mobile object information acquired by the second acquisition unit 112.

また、報知部13は、3D−HUD131にて拡張現実表示を行う構成に限らず、2D−HUD132、メータ133、又はマルチインフォメーションディスプレイ134等にて、例えば、テキスト表示、又はアニメーション表示を行ってもよい。また、報知部13は、カーナビゲーションシステムのディスプレイ等に、フロントカメラで撮影されたリアルタイムの映像にマーカを合成した映像を表示することで、拡張現実表示を行ってもよい。さらに、報知部13は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)等のウェアラブル端末からなる表示部を有していてもよい。   In addition, the notification unit 13 is not limited to the configuration in which the 3D-HUD 131 performs the augmented reality display, and the 2D-HUD 132, the meter 133, the multi-information display 134, or the like may perform, for example, text display or animation display. Good. Moreover, the alerting | reporting part 13 may perform an augmented reality display by displaying the image | video which synthesize | combined the marker with the real-time image | video image | photographed with the front camera on the display etc. of a car navigation system. Furthermore, the alerting | reporting part 13 may have a display part which consists of wearable terminals, such as a head mounted display (HMD: Head Mounted Display).

また、報知部13は、イベントの発生箇所を表示することにより報知する構成に限らず、例えば、音声、ハプティックデバイス、又はこれらと表示との組み合わせにより、イベントの発生箇所を報知する構成であってもよい。さらに、報知部13による報知の対象は移動体100の運転者に限らず、例えば、灯具類の点灯、又はクラクション等により、移動体100の後続車、及び移動体100の周辺の歩行者等に対して、報知部13が報知してもよい。   In addition, the notification unit 13 is not limited to the configuration for notifying by displaying the event occurrence location, but for example, is configured to notify the event occurrence location by voice, a haptic device, or a combination of these and display. Also good. Furthermore, the target of notification by the notification unit 13 is not limited to the driver of the moving body 100, for example, to the following vehicle of the moving body 100, pedestrians around the moving body 100, or the like by lighting of lamps or horns. On the other hand, the notification unit 13 may notify.

また、推定部113による推定及び報知部13による報知を実行するか否かは、例えば、運転者の状態(精神状態を含む)等に基づいて、切り替わってもよい。例えば、運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合、運転者は、イベントの発生の可能性に気付きにくくなることがある。そこで、例えば、車両情報に含まれる、移動体100にかかる加速度、及びドライバモニタの検出結果から、通常時よりも運転者の運転が荒い場合に、推定部113による推定を実行するように構成されてもよい。また、例えば、ドライバモニタの検出結果から、運転者がイベントの発生の可能性に気付いていないと判断される場合に、報知部13にて報知を実行するように構成されてもよい。さらに、運転者の状態等に基づいて、報知部13による報知を行うレベルを変化させてもよい。   Moreover, you may switch whether the estimation by the estimation part 113 and the alerting | reporting by the alerting | reporting part 13 are performed based on a driver | operator's state (a mental state is included) etc., for example. For example, when the driver is in a state where his / her concentration is reduced compared to the normal time due to fatigue, lack of sleep, etc., the driver may be less likely to notice the possibility of an event occurring. Therefore, for example, when the driver's driving is rougher than normal time based on the acceleration applied to the moving body 100 and the detection result of the driver monitor included in the vehicle information, the estimation unit 113 performs estimation. May be. Further, for example, when it is determined from the detection result of the driver monitor that the driver is not aware of the possibility of the occurrence of the event, the notification unit 13 may perform notification. Furthermore, you may change the level which alert | reports by the alerting | reporting part 13 based on a driver | operator's state.

また、推定部113は、移動体100の周辺に存在しており、所要時間後に到達位置に存在する物体を、イベントの発生箇所として推定する構成に限らず、交差点又は横断歩道等のイベントが発生する場所を、イベントの発生箇所として推定してもよい。   In addition, the estimation unit 113 is not limited to a configuration in which an object that exists in the vicinity of the moving body 100 and exists at the arrival position after the required time is estimated as an event occurrence location, but an event such as an intersection or a crosswalk occurs. You may estimate the place to perform as an event occurrence location.

また、イベント予測システム1で予測されるイベントは、運転者の死角になる対象物に起因したイベント(見えない危険)に限らない。イベント予測システム1は、例えば、事故が多発している地点、トンネルの出口及び入口付近、及び急カーブ等、移動体100の状況に依らずに予測可能なイベントの発生箇所を予測してもよい。   Further, the event predicted by the event prediction system 1 is not limited to an event (risk that cannot be seen) caused by an object that becomes a blind spot of the driver. The event prediction system 1 may predict the occurrence location of an event that can be predicted regardless of the state of the mobile object 100, such as a point where accidents frequently occur, the vicinity of the exit and entrance of the tunnel, and a sharp curve. .

また、イベント予測システム1は、車両と車両との間(車車間)、又は車両と信号機及び道路標識等のインフラ(infrastructure)との間(路車間)で、直接的に通信する、いわゆるV2X(Vehicle to Everything)の通信技術を利用してもよい。V2Xの通信技術によれば、例えば、時間予測部114での所要時間の予測に用いられる予測用情報等を、移動体100が、周辺の車両又はインフラから取得することが可能になる。さらに、報知部13の代わりに、インフラにてイベントの発生箇所を報知させることも可能になる。インフラにてイベントの発生箇所の推定等も行われてもよく、この場合、移動体100には、イベント予測システム1が搭載されなくてもよい。   In addition, the event prediction system 1 is a so-called V2X (direct communication) between vehicles (between vehicles) or between vehicles and infrastructure such as traffic lights and road signs (between roads and vehicles). Vehicle to Everything) communication technology may be used. According to the V2X communication technology, for example, it is possible for the mobile unit 100 to acquire prediction information and the like used to predict the required time in the time prediction unit 114 from surrounding vehicles or infrastructure. Further, instead of the notification unit 13, it is possible to notify the occurrence location of the event by infrastructure. The location where an event occurs may be estimated in the infrastructure, and in this case, the event prediction system 1 may not be mounted on the mobile object 100.

また、イベント予測システム1は、自動車に限らず、例えば、二輪車、電車、航空機、ドローン、建設機械、及び船舶等、自動車以外の移動体にも適用可能である。さらに、イベント予測システム1は、移動体に限らず、例えば、アミューズメント施設で用いられてもよいし、ヘッドマウントディスプレイ(HMD:Head Mounted Display)等のウェアラブル端末、医療設備、又は据置型の装置として用いられてもよい。   Moreover, the event prediction system 1 is applicable not only to a motor vehicle but to mobile bodies other than a motor vehicle, such as a two-wheeled vehicle, a train, an aircraft, a drone, a construction machine, and a ship. Furthermore, the event prediction system 1 is not limited to a mobile object, and may be used in an amusement facility, for example, as a wearable terminal such as a head mounted display (HMD), a medical facility, or a stationary device. May be used.

(実施形態2)
本実施形態に係るイベント予測システム1は、時間予測部114が移動体100を運転する運転者の属性ごとに異なる予測モデルを用いる点で、実施形態1に係るイベント予測システム1と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略する。
(Embodiment 2)
The event prediction system 1 according to the present embodiment is different from the event prediction system 1 according to the first embodiment in that the time prediction unit 114 uses a different prediction model for each attribute of the driver who drives the moving body 100. Hereinafter, the same configurations as those of the first embodiment are denoted by common reference numerals, and description thereof is omitted as appropriate.

すなわち、実施形態1では、時間予測部114は、万人に共通の予測モデルを用いて所要時間を予測しているが、本実施形態では、時間予測部114は、運転者の属性ごとに異なる予測モデルを用いて、所要時間を予測する。ここでいう「運転者の属性」は、運転者の年齢、性別、及び運転の癖(アクセル及びブレーキの踏み方等)等を含む。   That is, in the first embodiment, the time prediction unit 114 predicts the required time using a prediction model common to all people, but in the present embodiment, the time prediction unit 114 is different for each driver attribute. The time required is predicted using a prediction model. The “driver attribute” here includes the age, gender, driving habit (such as how to step on the accelerator and brake), and the like of the driver.

本実施形態においては、学習ブロック12は、学習用データとなる履歴情報を複数の運転者から取得する。生成部122は、運転者の属性ごとに予測モデルを生成する。生成部122は、一例として、レコメンドアルゴリズム等で用いられる協調フィルタリングのアルゴリズムを適用し、機械学習を行うことによって、運転者の属性ごとの予測モデルを生成する。   In the present embodiment, the learning block 12 acquires history information serving as learning data from a plurality of drivers. The generation unit 122 generates a prediction model for each driver attribute. As an example, the generation unit 122 applies a collaborative filtering algorithm used in a recommendation algorithm or the like and performs machine learning to generate a prediction model for each driver attribute.

このようにして生成された複数種類の予測モデルの中から、移動体100ごとに、適用する(モデル格納部115に格納する)予測モデルが選択される。つまり、予測ブロック11は、移動体100の運転者の属性に応じて、取得する予測モデルを決定する。これにより、時間予測部114は、運転者の属性ごとに異なる予測モデルを用いて所要時間を予測できる。   A prediction model to be applied (stored in the model storage unit 115) is selected for each moving object 100 from the plurality of types of prediction models generated in this way. That is, the prediction block 11 determines a prediction model to be acquired according to the attribute of the driver of the moving body 100. Thereby, the time prediction unit 114 can predict the required time using a different prediction model for each attribute of the driver.

本実施形態に係るイベント予測システム1によれば、万人に共通の予測モデルを用いる場合に比べて、時間予測部114での所要時間の予測精度が向上する。   According to the event prediction system 1 according to the present embodiment, the prediction accuracy of the required time in the time prediction unit 114 is improved as compared with a case where a prediction model common to all people is used.

実施形態2の変形例に係るイベント予測システム1では、1台の移動体100において複数の予測モデルが使い分けられる。すなわち、1台の移動体100を家族で共用している場合、又はカーシェアリング等においては、1台の移動体100を複数の運転者が運転する。本変形例によれば、このような場合に、1台の移動体100であっても、運転者ごとに異なる予測モデルが適用可能である。具体的には、運転者が変わる度に、予測ブロック11が運転者の属性に応じた予測モデルを学習ブロック12から取得する。又は、モデル格納部115に複数の予測モデルを格納し、これら複数の予測モデルから、時間予測部114が運転者の属性に応じて使用する予測モデルを選択してもよい。   In the event prediction system 1 according to the modification of the second embodiment, a plurality of prediction models are used properly in one mobile body 100. That is, when one moving body 100 is shared by a family, or in car sharing or the like, a plurality of drivers drive one moving body 100. According to this modification, in such a case, even with one mobile body 100, a different prediction model can be applied for each driver. Specifically, every time the driver changes, the prediction block 11 acquires a prediction model corresponding to the driver's attribute from the learning block 12. Or a some prediction model may be stored in the model storage part 115, and the prediction model which the time prediction part 114 uses according to a driver | operator's attribute from these several prediction models may be selected.

実施形態2に係るイベント予測システム1の構成(変形例を含む)は、実施形態1(変形例を含む)の構成と適宜組み合わせ可能である。   The configuration (including the modification) of the event prediction system 1 according to the second embodiment can be appropriately combined with the configuration of the first embodiment (including the modification).

上記各実施形態で示した図面は、イベント予測システム1の一例を説明するための概念図に過ぎず、実際の態様とは、各部の形状、サイズ、及び位置関係等が適宜異なる。   The drawings shown in the above embodiments are merely conceptual diagrams for explaining an example of the event prediction system 1, and the shape, size, positional relationship, and the like of each part are appropriately different from the actual aspects.

(まとめ)
以上説明したように、第1の態様に係るイベント予測システム(1)は、第1取得部(111)と、第2取得部(112)と、推定部(113)と、を備える。第1取得部(111)は、移動体(100)の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。第2取得部(112)は、移動体(100)の状況を表す移動体情報を取得する。推定部(113)は、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する。
(Summary)
As described above, the event prediction system (1) according to the first aspect includes the first acquisition unit (111), the second acquisition unit (112), and the estimation unit (113). A 1st acquisition part (111) acquires the time information showing the time required to the prediction time when generation | occurrence | production of the event relevant to a driving | running | working of a moving body (100) is estimated. A 2nd acquisition part (112) acquires the mobile body information showing the condition of a mobile body (100). The estimation unit (113) estimates the occurrence location of the event based on the time information and the moving body information.

この構成によれば、イベントの発生が予測される予測時点までの所要時間及び移動体(100)の状況に基づいて、イベントの発生箇所が推定される。したがって、イベント予測システム(1)では、運転者の死角になる対象物に起因したイベント(見えない危険)の発生についても予測可能である、という利点がある。そのため、イベント予測システム(1)によれば、運転者の運転の熟練度、運転のセンス、及び運転者の状態等による「見えない危険」の予見性のばらつきを小さく抑えることが可能になる。その結果、例えば運転の経験が比較的少ない運転者であっても、この種のイベントが発生する可能性を考慮した運転が可能になる。さらに、例えば運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合等においても、運転者は、この種のイベントが発生する可能性を考慮した運転が可能になる。さらには、単に運転者がよそ見をしている、又は運転者が注意散漫であるような場合等、運転者がイベントの発生に気付くのが遅れ得る場面において、運転者は、イベントが発生する可能性にいち早く気付くことが可能になり、より安全な運転が可能になる。また、イベント予測システム(1)は、予測時点までの所要時間という一次元のパラメータを用いてイベントの発生箇所の推定を行うため、イベントの発生箇所の推定に係る処理負荷を比較的小さく抑えることができる。   According to this configuration, the occurrence location of the event is estimated based on the required time until the predicted time when the occurrence of the event is predicted and the situation of the moving object (100). Therefore, in the event prediction system (1), there is an advantage that it is possible to predict the occurrence of an event (risk that cannot be seen) caused by an object that becomes a blind spot of the driver. Therefore, according to the event prediction system (1), it is possible to suppress the variation in predictability of “invisible danger” due to the driving skill of the driver, the driving sense, the driver's condition, and the like. As a result, for example, even a driver who has relatively little driving experience can perform driving considering the possibility of this type of event. Furthermore, for example, even when the driver is in a state of reduced concentration compared to normal times due to fatigue, lack of sleep, etc., the driver can drive considering the possibility of this type of event occurring. Become. In addition, an event may occur when the driver may be late in noticing the event, such as when the driver is just looking away or the driver is distracted. It becomes possible to notice the sex quickly, and safer driving becomes possible. In addition, since the event prediction system (1) estimates an event occurrence location using a one-dimensional parameter of a required time to the prediction time point, the processing load related to the estimation of the event occurrence location is kept relatively small. Can do.

第2の態様に係るイベント予測システム(1)は、第1の態様において、移動体情報は、移動体(100)の周辺の物体に関する情報と、移動体(100)の状態に関する情報と、移動体(100)の位置に関する情報と、の少なくとも1つを含む。   In the event prediction system (1) according to the second aspect, in the first aspect, the moving body information includes information on an object around the moving body (100), information on the state of the moving body (100), and movement. Information on the position of the body (100).

この構成によれば、イベント予測システム(1)は、ADAS情報、車両情報、位置情報の少なくとも1つを用いてイベントの発生箇所の推定を行うため、イベントの発生箇所の推定に係る処理負荷を比較的小さく抑えることができる。   According to this configuration, since the event prediction system (1) estimates an event occurrence location using at least one of ADAS information, vehicle information, and position information, the processing load related to the estimation of the event occurrence location is reduced. It can be kept relatively small.

第3の態様に係るイベント予測システム(1)は、第1又は2の態様において、推定部(113)は、時間情報及び移動体情報に基づいて、予測時点における移動体(100)の到達位置を予測するように構成されている。推定部(113)は、到達位置からイベントの発生箇所を推定するように構成されている。   In the event prediction system (1) according to the third aspect, in the first or second aspect, the estimation unit (113) determines the arrival position of the mobile object (100) at the prediction time point based on the time information and the mobile object information. Is configured to predict. The estimation unit (113) is configured to estimate the occurrence location of the event from the arrival position.

この構成によれば、予測時点における移動体(100)の到達位置から、イベントの発生箇所が推定されるので、イベントの発生箇所の推定精度が向上する。   According to this configuration, since the occurrence location of the event is estimated from the arrival position of the mobile object (100) at the prediction time, the estimation accuracy of the occurrence location of the event is improved.

第4の態様に係るイベント予測システム(1)は、第3の態様において、推定部(113)は、移動体(100)の周辺に存在しており、所要時間後に到達位置に存在する物体を、イベントの発生箇所として推定するように構成されている。   In the event prediction system (1) according to the fourth aspect, in the third aspect, the estimation unit (113) exists in the vicinity of the moving object (100), and detects an object present at the arrival position after the required time. It is configured to estimate the occurrence location of the event.

この構成によれば、所要時間後に到達位置に存在する物体が、イベントの発生箇所として推定されるので、例えば、イベントの対象となる物体が移動している場合でも、イベントの対象として推定可能となる。   According to this configuration, since the object existing at the arrival position after the required time is estimated as the event occurrence location, it can be estimated as the event target even when the event target object is moving, for example. Become.

第5の態様に係るイベント予測システム(1)は、第1〜4のいずれかの態様において、推定部(113)で推定されたイベントの発生箇所を報知する報知部(13)を更に備える。   The event prediction system (1) which concerns on a 5th aspect is further equipped with the alerting | reporting part (13) which alert | reports the generation | occurrence | production location of the event estimated in the estimation part (113) in any one of the aspects 1-4.

この構成によれば、イベントの発生箇所が報知されるので、運転者等においては、イベントの発生箇所に注意して運転すること等が可能となる。   According to this configuration, since the event occurrence location is notified, the driver or the like can drive while paying attention to the event occurrence location.

第6の態様に係るイベント予測システム(1)は、第5の態様において、報知部(13)は、イベントの発生箇所を表示することにより報知する表示部を有する。   In the event prediction system (1) according to the sixth aspect, in the fifth aspect, the notification unit (13) includes a display unit that notifies by displaying the occurrence location of the event.

この構成によれば、イベントの発生箇所が表示により報知されるので、運転者等においては、イベントの発生箇所の特定が容易になる。   According to this configuration, since the event occurrence location is notified by display, the driver or the like can easily identify the event occurrence location.

第7の態様に係るイベント予測システム(1)は、第1〜6のいずれかの態様において、所要時間を予測する時間予測部(114)を更に備える。時間予測部(114)は、移動体(100)に関する予測用情報と、予測モデルと、を用いて、所要時間を予測するように構成されている。   The event prediction system (1) which concerns on a 7th aspect is further equipped with the time estimation part (114) which estimates a required time in the aspect in any one of the 1st-6th. The time prediction unit (114) is configured to predict the required time using prediction information related to the moving object (100) and a prediction model.

この構成によれば、イベント予測システム(1)にて所要時間が予測されるので、イベント予測システム(1)に外部から所要時間を与える必要がなく、イベントの発生箇所を推定するための処理をイベント予測システム(1)のみで完結可能である。   According to this configuration, since the required time is predicted by the event prediction system (1), it is not necessary to provide the event prediction system (1) with the required time from the outside, and processing for estimating the occurrence location of the event is performed. It can be completed only by the event prediction system (1).

第8の態様に係るイベント予測システム(1)は、第7の態様において、時間予測部(114)は、移動体(100)を運転する運転者の属性ごとに異なる予測モデルを用いるように構成されている。   The event prediction system (1) according to the eighth aspect is configured such that, in the seventh aspect, the time prediction unit (114) uses a different prediction model for each attribute of the driver driving the mobile body (100). Has been.

この構成によれば、万人に共通の予測モデルを用いる場合に比べて、時間予測部(114)での所要時間の予測精度が向上する。   According to this configuration, the prediction accuracy of the required time in the time prediction unit (114) is improved as compared with the case where a prediction model common to all people is used.

第9の態様に係るイベント予測システム(1)は、蓄積部(121)と、生成部(122)と、を備える。蓄積部(121)は、移動体(100)の運転に関連するイベントが発生した際における移動体(100)の状況を表す履歴情報を含む複数の学習用データを蓄積する。生成部(122)は、複数の学習用データを用いて、イベントの発生が予測される予測時点までの所要時間を予測するための予測モデルを生成する。複数の学習用データの各々は、イベントの発生時点までの所要時間を表すラベル情報を更に含む。   The event prediction system (1) according to the ninth aspect includes a storage unit (121) and a generation unit (122). The accumulating unit (121) accumulates a plurality of learning data including history information indicating the state of the moving body (100) when an event related to the driving of the moving body (100) occurs. The generation unit (122) generates a prediction model for predicting a required time to a prediction time point at which an occurrence of an event is predicted, using a plurality of learning data. Each of the plurality of learning data further includes label information indicating a time required until the event occurs.

この構成によれば、イベントの発生が予測される予測時点までの所要時間を予測するための予測モデルが生成される。この予測モデルを用いることで、イベント予測システム(1)では、運転者の死角になる対象物に起因したイベント(見えない危険)の発生についても予測可能である、という利点がある。   According to this configuration, a prediction model for predicting a required time until a prediction time point at which an occurrence of an event is predicted is generated. By using this prediction model, the event prediction system (1) has an advantage that it is possible to predict the occurrence of an event (risk that cannot be seen) due to an object that becomes a blind spot of the driver.

第10の態様に係るイベント予測方法は、第1取得処理と、第2取得処理と、推定処理と、を有する。第1取得処理は、移動体(100)の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。第2取得処理は、移動体(100)の状況を表す移動体情報を取得する。推定処理は、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する。   The event prediction method according to the tenth aspect includes a first acquisition process, a second acquisition process, and an estimation process. A 1st acquisition process acquires the time information showing the required time to the prediction time when generation | occurrence | production of the event relevant to a driving | running | working of a moving body (100) is estimated. A 2nd acquisition process acquires the mobile body information showing the condition of a mobile body (100). In the estimation process, the occurrence location of the event is estimated based on the time information and the moving body information.

この態様によれば、イベントの発生が予測される予測時点までの所要時間及び移動体(100)の状況に基づいて、イベントの発生箇所が推定される。したがって、イベント予測方法では、運転者の死角になる対象物に起因したイベント(見えない危険)の発生についても予測可能である、という利点がある。そのため、イベント予測方法によれば、運転者の運転の熟練度、運転のセンス、及び運転者の状態等による「見えない危険」の予見性のばらつきを小さく抑えることが可能になる。その結果、例えば運転の経験が比較的少ない運転者であっても、この種のイベントが発生する可能性を考慮した運転が可能になる。さらに、例えば運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合等においても、運転者は、この種のイベントが発生する可能性を考慮した運転が可能になる。さらには、単に運転者がよそ見をしている、又は運転者が注意散漫であるような場合等、運転者がイベントの発生に気付くのが遅れ得る場面において、運転者は、イベントが発生する可能性にいち早く気付くことが可能になり、より安全な運転が可能になる。また、イベント予測方法は、予測時点までの所要時間という一次元のパラメータを用いてイベントの発生箇所の推定を行うため、イベントの発生箇所の推定に係る処理負荷を比較的小さく抑えることができる。   According to this aspect, the occurrence location of the event is estimated based on the required time until the predicted time when the occurrence of the event is predicted and the situation of the moving object (100). Therefore, the event predicting method has an advantage that it is possible to predict the occurrence of an event (invisible danger) caused by an object that becomes a blind spot of the driver. Therefore, according to the event prediction method, it is possible to suppress the variation in the predictability of “invisible danger” due to the driving skill of the driver, the driving sense, the driver's condition, and the like. As a result, for example, even a driver who has relatively little driving experience can perform driving considering the possibility of this type of event. Furthermore, for example, even when the driver is in a state of reduced concentration compared to normal times due to fatigue, lack of sleep, etc., the driver can drive considering the possibility of this type of event occurring. Become. In addition, an event may occur when the driver may be late in noticing the event, such as when the driver is just looking away or the driver is distracted. It becomes possible to notice the sex quickly, and safer driving becomes possible. In addition, since the event prediction method estimates an event occurrence location using a one-dimensional parameter called a required time to the prediction time, the processing load related to the estimation of the event occurrence location can be kept relatively small.

第11の態様に係るプログラムは、コンピュータシステムに、第1取得処理と、第2取得処理と、推定処理と、を実行させるためのプログラムである。第1取得処理は、移動体(100)の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する。第2取得処理は、移動体(100)の状況を表す移動体情報を取得する。推定処理は、時間情報及び移動体情報に基づいて、イベントの発生箇所を推定する。   A program according to an eleventh aspect is a program for causing a computer system to execute a first acquisition process, a second acquisition process, and an estimation process. A 1st acquisition process acquires the time information showing the required time to the prediction time when generation | occurrence | production of the event relevant to a driving | running | working of a moving body (100) is estimated. A 2nd acquisition process acquires the mobile body information showing the condition of a mobile body (100). In the estimation process, the occurrence location of the event is estimated based on the time information and the moving body information.

この態様によれば、イベントの発生が予測される予測時点までの所要時間及び移動体(100)の状況に基づいて、イベントの発生箇所が推定される。したがって、このプログラムでは、運転者の死角になる対象物に起因したイベント(見えない危険)の発生についても予測可能である、という利点がある。そのため、このプログラムによれば、運転者の運転の熟練度、運転のセンス、及び運転者の状態等による「見えない危険」の予見性のばらつきを小さく抑えることが可能になる。その結果、例えば運転の経験が比較的少ない運転者であっても、この種のイベントが発生する可能性を考慮した運転が可能になる。さらに、例えば運転者が疲労及び睡眠不足等により、通常時に比べて集中力が低下した状態にある場合等においても、運転者は、この種のイベントが発生する可能性を考慮した運転が可能になる。さらには、単に運転者がよそ見をしている、又は運転者が注意散漫であるような場合等、運転者がイベントの発生に気付くのが遅れ得る場面において、運転者は、イベントが発生する可能性にいち早く気付くことが可能になり、より安全な運転が可能になる。また、このプログラムは、予測時点までの所要時間という一次元のパラメータを用いてイベントの発生箇所の推定を行うため、イベントの発生箇所の推定に係る処理負荷を比較的小さく抑えることができる。   According to this aspect, the occurrence location of the event is estimated based on the required time until the predicted time when the occurrence of the event is predicted and the situation of the moving object (100). Therefore, this program has an advantage that it is possible to predict the occurrence of an event (invisible danger) caused by an object that becomes a blind spot of the driver. Therefore, according to this program, it becomes possible to suppress the variation in the predictability of “invisible danger” due to the driving skill of the driver, the driving sense, the driver's condition, and the like. As a result, for example, even a driver who has relatively little driving experience can perform driving considering the possibility of this type of event. Furthermore, for example, even when the driver is in a state of reduced concentration compared to normal times due to fatigue, lack of sleep, etc., the driver can drive considering the possibility of this type of event occurring. Become. In addition, an event may occur when the driver may be late in noticing the event, such as when the driver is just looking away or the driver is distracted. It becomes possible to notice the sex quickly, and safer driving becomes possible. In addition, since this program estimates the occurrence location of an event using a one-dimensional parameter that is the required time to the prediction time, the processing load related to the estimation of the occurrence location of the event can be kept relatively small.

第12の態様に係る移動体(100)は、第1〜9のいずれかの態様に係るイベント予測システム(1)を備える。   The mobile body (100) according to the twelfth aspect includes the event prediction system (1) according to any one of the first to ninth aspects.

この構成によれば、移動体(100)において、運転者の死角になる対象物に起因したイベント(見えない危険)の発生についても予測可能である、という利点がある。   According to this configuration, there is an advantage that in the moving body (100), it is possible to predict the occurrence of an event (risk that cannot be seen) due to an object that becomes a blind spot of the driver.

上記態様に限らず、実施形態1及び実施形態2に係るイベント予測システム1の種々の構成(変形例を含む)は、イベント予測方法、及び(コンピュータ)プログラムで具現化可能である。   The various configurations (including modifications) of the event prediction system 1 according to the first embodiment and the second embodiment are not limited to the above aspects, and can be realized by an event prediction method and a (computer) program.

第2〜第9の態様に係る構成については、イベント予測システム(1)に必須の構成ではなく、適宜省略可能である。   About the structure which concerns on a 2nd-9th aspect, it is not a structure essential to an event prediction system (1), and can be abbreviate | omitted suitably.

1 イベント予測システム
100 移動体
111 第1取得部
112 第2取得部
113 推定部
114 時間予測部
121 蓄積部
122 生成部
13 報知部
131 3D−HUD(表示部)
132 2D−HUD(表示部)
133 メータ(表示部)
134 マルチインフォメーションディスプレイ(表示部)
DESCRIPTION OF SYMBOLS 1 Event prediction system 100 Mobile body 111 1st acquisition part 112 2nd acquisition part 113 Estimation part 114 Time prediction part 121 Accumulation part 122 Generation part 13 Notification part 131 3D-HUD (display part)
132 2D-HUD (display unit)
133 Meter (display unit)
134 Multi-information display (display unit)

Claims (12)

移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する第1取得部と、
前記移動体の状況を表す移動体情報を取得する第2取得部と、
前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する推定部と、を備える
イベント予測システム。
A first acquisition unit that acquires time information representing a required time until a predicted time point at which an event related to driving of the mobile object is predicted to occur;
A second acquisition unit for acquiring mobile body information representing the status of the mobile body;
An event prediction system comprising: an estimation unit that estimates an occurrence location of the event based on the time information and the moving body information.
前記移動体情報は、前記移動体の周辺の物体に関する情報と、前記移動体の状態に関する情報と、前記移動体の位置に関する情報と、の少なくとも1つを含む
請求項1に記載のイベント予測システム。
The event prediction system according to claim 1, wherein the moving object information includes at least one of information related to an object around the moving object, information related to a state of the moving object, and information related to a position of the moving object. .
前記推定部は、前記時間情報及び前記移動体情報に基づいて、前記予測時点における前記移動体の到達位置を予測し、前記到達位置から前記イベントの発生箇所を推定するように構成されている
請求項1又は2に記載のイベント予測システム。
The estimation unit is configured to predict the arrival position of the moving object at the prediction time based on the time information and the moving object information, and to estimate the occurrence location of the event from the arrival position. Item 3. The event prediction system according to Item 1 or 2.
前記推定部は、前記移動体の周辺に存在しており、前記所要時間後に前記到達位置に存在する物体を、前記イベントの発生箇所として推定するように構成されている
請求項3に記載のイベント予測システム。
The event according to claim 3, wherein the estimation unit is configured to estimate an object that exists in the vicinity of the moving body and exists at the arrival position after the required time as the occurrence location of the event. Prediction system.
前記推定部で推定された前記イベントの発生箇所を報知する報知部を更に備える
請求項1〜4のいずれか1項に記載のイベント予測システム。
The event prediction system according to claim 1, further comprising a notification unit that notifies the occurrence location of the event estimated by the estimation unit.
前記報知部は、前記イベントの発生箇所を表示することにより報知する表示部を有する
請求項5に記載のイベント予測システム。
The event prediction system according to claim 5, wherein the notification unit includes a display unit that notifies by displaying the occurrence location of the event.
前記所要時間を予測する時間予測部を更に備え、
前記時間予測部は、前記移動体に関する予測用情報と、予測モデルと、を用いて、前記所要時間を予測するように構成されている
請求項1〜6のいずれか1項に記載のイベント予測システム。
A time prediction unit for predicting the required time;
The event prediction according to any one of claims 1 to 6, wherein the time prediction unit is configured to predict the required time using prediction information related to the moving object and a prediction model. system.
前記時間予測部は、前記移動体を運転する運転者の属性ごとに異なる前記予測モデルを用いるように構成されている
請求項7に記載のイベント予測システム。
The event prediction system according to claim 7, wherein the time prediction unit is configured to use the prediction model that is different for each attribute of a driver who drives the mobile body.
移動体の運転に関連するイベントが発生した際における前記移動体の状況を表す履歴情報を含む複数の学習用データを蓄積する蓄積部と、
前記複数の学習用データを用いて、前記イベントの発生が予測される予測時点までの所要時間を予測するための予測モデルを生成する生成部と、を備え、
前記複数の学習用データの各々は、前記イベントの発生時点までの所要時間を表すラベル情報を更に含む
イベント予測システム。
An accumulator that accumulates a plurality of learning data including history information representing the status of the moving object when an event related to driving of the moving object occurs;
A generation unit that generates a prediction model for predicting a required time until a prediction time point at which the occurrence of the event is predicted, using the plurality of learning data;
Each of the plurality of learning data further includes label information indicating a required time until the event occurs.
移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する第1取得処理と、
前記移動体の状況を表す移動体情報を取得する第2取得処理と、
前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する推定処理と、を有する
イベント予測方法。
A first acquisition process for acquiring time information representing a required time until a predicted time point at which an event related to driving of the moving object is predicted to occur;
A second acquisition process for acquiring mobile object information representing the status of the mobile object;
An event prediction method comprising: an estimation process for estimating an occurrence location of the event based on the time information and the moving body information.
コンピュータシステムに、
移動体の運転に関連するイベントの発生が予測される予測時点までの所要時間を表す時間情報を取得する第1取得処理と、
前記移動体の状況を表す移動体情報を取得する第2取得処理と、
前記時間情報及び前記移動体情報に基づいて、前記イベントの発生箇所を推定する推定処理と、
を実行させるためのプログラム。
Computer system,
A first acquisition process for acquiring time information representing a required time to a predicted time point at which an occurrence of an event related to driving of the moving object is predicted;
A second acquisition process for acquiring mobile object information representing the status of the mobile object;
Based on the time information and the mobile information, an estimation process for estimating the occurrence location of the event;
A program for running
請求項1〜9のいずれか1項に記載のイベント予測システムを備える
移動体。
A moving body comprising the event prediction system according to claim 1.
JP2017009546A 2017-01-23 2017-01-23 Event prediction system, event prediction method, program, and mobile Active JP6890265B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017009546A JP6890265B2 (en) 2017-01-23 2017-01-23 Event prediction system, event prediction method, program, and mobile
PCT/JP2018/001112 WO2018135509A1 (en) 2017-01-23 2018-01-17 Event prediction system, event prevention method, program, and recording medium having same recorded therein
DE112018000477.5T DE112018000477B4 (en) 2017-01-23 2018-01-17 Event prediction system, event prediction method, program and recording medium on which it is recorded
US16/512,328 US11003925B2 (en) 2017-01-23 2019-07-15 Event prediction system, event prediction method, program, and recording medium having same recorded therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017009546A JP6890265B2 (en) 2017-01-23 2017-01-23 Event prediction system, event prediction method, program, and mobile

Publications (2)

Publication Number Publication Date
JP2018120291A true JP2018120291A (en) 2018-08-02
JP6890265B2 JP6890265B2 (en) 2021-06-18

Family

ID=63043828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017009546A Active JP6890265B2 (en) 2017-01-23 2017-01-23 Event prediction system, event prediction method, program, and mobile

Country Status (1)

Country Link
JP (1) JP6890265B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021032115A (en) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 Vehicular learning control system, vehicular control device, and vehicular learning device
WO2022025244A1 (en) * 2020-07-31 2022-02-03 矢崎総業株式会社 Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and trained model generation system
JPWO2022176136A1 (en) * 2021-02-18 2022-08-25
JP7424335B2 (en) 2021-03-25 2024-01-30 Jfeスチール株式会社 Heating control method and device, hot-rolled steel plate manufacturing method, and transportation prediction model generation method
JP7491277B2 (en) 2021-08-26 2024-05-28 トヨタ自動車株式会社 car

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014257A (en) * 2010-06-29 2012-01-19 Toyota Motor Corp Alarm device
WO2012033173A1 (en) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP2016099834A (en) * 2014-11-21 2016-05-30 学校法人 芝浦工業大学 Traffic situation information provision system, traffic situation information provision method, traffic situation information provision program, and storage medium
JP2016110449A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014257A (en) * 2010-06-29 2012-01-19 Toyota Motor Corp Alarm device
WO2012033173A1 (en) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP2016099834A (en) * 2014-11-21 2016-05-30 学校法人 芝浦工業大学 Traffic situation information provision system, traffic situation information provision method, traffic situation information provision program, and storage medium
JP2016110449A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021032115A (en) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 Vehicular learning control system, vehicular control device, and vehicular learning device
US11326541B2 (en) 2019-08-22 2022-05-10 Toyota Jidosha Kabushiki Kaisha Vehicle learning control system, vehicle control device, and vehicle learning device
WO2022025244A1 (en) * 2020-07-31 2022-02-03 矢崎総業株式会社 Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and trained model generation system
JP2022026378A (en) * 2020-07-31 2022-02-10 矢崎総業株式会社 Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and trained model generation system
JP7281436B2 (en) 2020-07-31 2023-05-25 矢崎総業株式会社 Vehicle accident prediction system, vehicle accident prediction program, and trained model generation system
JPWO2022176136A1 (en) * 2021-02-18 2022-08-25
WO2022176136A1 (en) * 2021-02-18 2022-08-25 パイオニア株式会社 Information processing device, output control method, and output control program
JP7424335B2 (en) 2021-03-25 2024-01-30 Jfeスチール株式会社 Heating control method and device, hot-rolled steel plate manufacturing method, and transportation prediction model generation method
JP7491277B2 (en) 2021-08-26 2024-05-28 トヨタ自動車株式会社 car

Also Published As

Publication number Publication date
JP6890265B2 (en) 2021-06-18

Similar Documents

Publication Publication Date Title
JP6796798B2 (en) Event prediction system, event prediction method, program, and mobile
US11205340B2 (en) Networked vehicle control systems to facilitate situational awareness of vehicles
US11493920B2 (en) Autonomous vehicle integrated user alert and environmental labeling
WO2018135509A1 (en) Event prediction system, event prevention method, program, and recording medium having same recorded therein
US10509414B1 (en) Using emergency response system (EMS) vehicle telematics data to reduce accident risk
RU2719101C2 (en) Method and vehicle to assist drivers when changing lanes on a carriageway
US20200398743A1 (en) Method and apparatus for learning how to notify pedestrians
US8725309B2 (en) Safety driving support apparatus
JP6890265B2 (en) Event prediction system, event prediction method, program, and mobile
JP4913683B2 (en) Risk management system, server device, and risk management method
JP5573418B2 (en) Alarm device
US10336252B2 (en) Long term driving danger prediction system
US11820387B2 (en) Detecting driving behavior of vehicles
EP2963632A1 (en) Manoeuvre assistance
JP6653439B2 (en) Display control device, projection device, display control program, and recording medium
US11042154B2 (en) Transportation equipment and traveling control method therefor
JP6811429B2 (en) Event prediction system, event prediction method, program, and mobile
JP2010140186A (en) Route estimating apparatus and drive supporting apparatus
JP5200990B2 (en) Driving assistance device
JP2020101873A (en) Vehicle control device
US11926259B1 (en) Alert modality selection for alerting a driver
US11645038B1 (en) Augmented reality head-up display for audio event awareness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R151 Written notification of patent or utility model registration

Ref document number: 6890265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03