JP7041117B2 - Judgment method, computer, output device and system - Google Patents

Judgment method, computer, output device and system Download PDF

Info

Publication number
JP7041117B2
JP7041117B2 JP2019221961A JP2019221961A JP7041117B2 JP 7041117 B2 JP7041117 B2 JP 7041117B2 JP 2019221961 A JP2019221961 A JP 2019221961A JP 2019221961 A JP2019221961 A JP 2019221961A JP 7041117 B2 JP7041117 B2 JP 7041117B2
Authority
JP
Japan
Prior art keywords
danger
information
image
moving body
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019221961A
Other languages
Japanese (ja)
Other versions
JP2020042859A (en
Inventor
徹 若林
稔久 中野
公男 南
博史 天野
宜子 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JP2020042859A publication Critical patent/JP2020042859A/en
Application granted granted Critical
Publication of JP7041117B2 publication Critical patent/JP7041117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、危険判定方法、危険判定装置、危険出力装置及び危険判定システムに関する。 The present invention relates to a danger determination method, a danger determination device, a danger output device, and a danger determination system.

利用者が移動体(例えば車両等)で移動している際に、事故又はヒヤリハット等の危険事象の発生可能性が高い地点を利用者に対して事前に報知又は警告することにより、危険事象の発生を未然に防止する危険判定システムが知られている。このような危険判定システムでは、移動体の位置、挙動及び運転操作等の検出結果に基づいて、危険事象の発生可能性が高い地点(すなわち危険度が高い地点)を特定し、その特定した地点を地図データと対応付けて記憶している。 When the user is moving with a moving object (for example, a vehicle), the dangerous event is notified or warned in advance to the user at a point where a dangerous event such as an accident or a hiyari hat is likely to occur. A danger judgment system that prevents the occurrence is known. In such a danger determination system, a point where a dangerous event is likely to occur (that is, a point with a high degree of danger) is specified based on the detection result of the position, behavior, driving operation, etc. of the moving object, and the specified point is specified. Is stored in association with the map data.

例えば、特許文献1の危険判定システムでは、移動体に搭載されたカメラ及び位置センサによってそれぞれ取得した移動体周辺の画像とその画像を撮影した位置情報とを解析することにより、登録地点毎の危険事象をデータベースに登録する。利用者が移動体で登録地点を通過する際に、データベースに登録された当該登録地点での危険事象に基づいて当該登録地点に対応する危険度を判定し、利用者に対して危険を報知又は警告する。 For example, in the danger determination system of Patent Document 1, the danger for each registered point is analyzed by analyzing the image around the moving body acquired by the camera and the position sensor mounted on the moving body and the position information obtained by taking the image. Register the event in the database. When a user passes through a registration point with a moving object, the degree of danger corresponding to the registration point is determined based on the danger event at the registration point registered in the database, and the danger is notified to the user. Warning.

特開2014-154004号公報Japanese Unexamined Patent Publication No. 2014-154004

しかしながら、特許文献1の危険判定システムでは、利用者が移動体でデータベースに登録された登録地点以外の地点を通過する際には、当該地点に対応する危険度を判定することができないため、利用者に対して危険を報知又は警告することができない。 However, in the danger determination system of Patent Document 1, when a user passes through a point other than the registered point registered in the database as a moving object, the risk level corresponding to the point cannot be determined. It is not possible to notify or warn a person of danger.

そこで、本発明は、精度良く危険度を判定することができる危険判定方法、危険判定装置、危険出力装置及び危険判定システムを提供する。 Therefore, the present invention provides a danger determination method, a danger determination device, a danger output device, and a danger determination system capable of accurately determining the degree of danger.

本発明の一態様に係る危険判定方法は、移動体が位置する地点に対応する危険度を管理する危険判定システムに用いられる危険判定方法であって、前記危険判定システムは、危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を示す第1のセンサ情報とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部を備え、前記危険判定方法は、前記移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2のセンサ情報とが対応付けられた移動体情報を取得するステップと、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性に基づいて、前記現在地点に対応する前記危険度を判定するステップと、を含む。 The danger determination method according to one aspect of the present invention is a danger determination method used in a danger determination system that manages the degree of danger corresponding to a point where a moving object is located, and the danger determination system has generated a danger event. It is equipped with a danger occurrence information management unit that stores one or more danger occurrence information in which danger point information indicating a danger point and first sensor information indicating the occurrence status of the danger event at the danger point are associated with each other. , The danger determination method is a step of acquiring moving body information in which the current position information indicating the current position of the moving body and the second sensor information indicating the peripheral situation of the moving body at the current point are associated with each other. The danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information is not stored in the danger occurrence information management unit, and corresponds to a location other than the current location. When the danger occurrence information is stored in the danger occurrence information management unit, the second sensor information included in the moving body information and one or more of the danger occurrence information storage units are stored in the danger occurrence information management unit. The step includes a step of determining the degree of danger corresponding to the current position based on the similarity with the first sensor information included in the generation information.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, a method, an integrated circuit, or a computer program. And may be realized by any combination of recording media.

本発明の一態様に係る危険判定方法によれば、精度良く危険度を判定することができる。 According to the danger determination method according to one aspect of the present invention, the degree of danger can be determined with high accuracy.

実施の形態1に係る危険判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the risk determination system which concerns on Embodiment 1. FIG. 実施の形態1に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る移動体情報の一例を示す図である。It is a figure which shows an example of the mobile body information which concerns on Embodiment 1. FIG. 実施の形態1に係る危険発生情報の一例を示す図である。It is a figure which shows an example of the danger occurrence information which concerns on Embodiment 1. FIG. 実施の形態1に係る移動体装置の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る危険判定システムの動作の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of operation of the danger determination system which concerns on Embodiment 1. FIG. 実施の形態1に係る危険判定システムを適用したサービスの一例を説明するための図である。It is a figure for demonstrating an example of the service to which the danger determination system which concerns on Embodiment 1 is applied. 実施の形態2に係る危険判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the risk determination system which concerns on Embodiment 2. FIG. 実施の形態2に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る危険判定情報の一例を示す図である。It is a figure which shows an example of the danger determination information which concerns on Embodiment 2. FIG. 実施の形態2に係る危険判定システムの動作の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of operation of the danger determination system which concerns on Embodiment 2. FIG.

本発明の一態様に係る危険判定方法は、移動体が位置する地点に対応する危険度を管理する危険判定システムに用いられる危険判定方法であって、前記危険判定システムは、危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を示す第1のセンサ情報とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部を備え、前記危険判定方法は、前記移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2のセンサ情報とが対応付けられた移動体情報を取得するステップと、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性に基づいて、前記現在地点に対応する前記危険度を判定するステップと、を含む。 The danger determination method according to one aspect of the present invention is a danger determination method used in a danger determination system that manages the degree of danger corresponding to a point where a moving object is located, and the danger determination system has generated a danger event. It is equipped with a danger occurrence information management unit that stores one or more danger occurrence information in which danger point information indicating a danger point and first sensor information indicating the occurrence status of the danger event at the danger point are associated with each other. , The danger determination method is a step of acquiring moving body information in which the current position information indicating the current position of the moving body and the second sensor information indicating the peripheral situation of the moving body at the current point are associated with each other. The danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information is not stored in the danger occurrence information management unit, and corresponds to a location other than the current location. When the danger occurrence information is stored in the danger occurrence information management unit, the second sensor information included in the moving body information and one or more of the danger occurrence information storage units are stored in the danger occurrence information management unit. The step includes a step of determining the degree of danger corresponding to the current position based on the similarity with the first sensor information included in the generation information.

本態様によれば、移動体情報に含まれる現在地点情報が示す現在地点に対応する危険発生情報が危険発生情報管理部に格納されていない場合であっても、移動体情報に含まれる第2のセンサ情報と、現在地点以外の地点に対応する危険発生情報に含まれる第1のセンサ情報との類似性に基づいて、危険度を判定する。これにより、移動体が危険発生情報管理部に格納されている危険発生情報に対応する危険地点以外の地点を通過する場合であっても、精度良く危険度を判定することができ、例えば移動体の利用者に対して危険を報知又は警告等することができる。 According to this aspect, even if the danger occurrence information corresponding to the current position indicated by the current position information included in the moving body information is not stored in the danger occurrence information management unit, the second one included in the moving body information. The degree of danger is determined based on the similarity between the sensor information of the above and the first sensor information included in the danger occurrence information corresponding to the point other than the current point. As a result, even when the moving object passes through a point other than the danger point corresponding to the danger occurrence information stored in the danger occurrence information management unit, the danger level can be accurately determined, for example, the moving object. It is possible to notify or warn the user of the danger.

例えば、前記判定するステップでは、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報と、前記現在地点以外の地点に対応する前記危険発生情報とが前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2のセンサ情報と、前記現在地点以外の地点に対応する前記危険発生情報に含まれる前記第1のセンサ情報との類似性に基づいて、前記現在地点に対応する前記危険度を判定するように構成してもよい。 For example, in the determination step, the danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information and the danger occurrence information corresponding to a point other than the current location are the dangers. When stored in the generation information management unit, the second sensor information included in the moving object information and the first sensor information included in the danger occurrence information corresponding to a point other than the current point. It may be configured to determine the degree of risk corresponding to the current location based on the similarity.

本態様によれば、現在地点に対応する危険発生情報と現在地点以外の地点に対応する危険発生情報とが危険発生情報管理部に格納されている場合であって、移動体情報に含まれる第2のセンサ情報と、現在地点以外の地点に対応する危険発生情報に含まれる第1のセンサ情報との類似性が例えば最も高い場合には、現在地点以外の地点に対応する危険発生情報を用いて危険度を判定する。これにより、より一層精度良く危険度を判定することができる。 According to this aspect, when the danger occurrence information corresponding to the current location and the danger occurrence information corresponding to the location other than the current location are stored in the danger occurrence information management unit, the second is included in the moving object information. When the similarity between the sensor information of 2 and the first sensor information included in the danger occurrence information corresponding to the point other than the current point is the highest, for example, the danger occurrence information corresponding to the point other than the current point is used. To judge the degree of danger. As a result, the degree of danger can be determined more accurately.

例えば、前記危険発生情報は、さらに、前記危険地点情報と前記第1のセンサ情報とに対応付けられた前記危険事象の深刻度を含み、前記判定するステップでは、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性を求め、前記類似性と前記第1のセンサ情報に対応付けられた前記深刻度とに基づいて、前記現在地点に対応する前記危険度を判定するように構成してもよい。 For example, the danger occurrence information further includes the severity of the danger event associated with the danger point information and the first sensor information, and in the determination step, the said moving body information is included. The similarity between the second sensor information and the first sensor information included in one or more of the danger occurrence information stored in the danger occurrence information management unit is obtained, and the similarity and the first sensor information are obtained. It may be configured to determine the risk level corresponding to the current position based on the severity level associated with the sensor information.

本態様によれば、類似性と第1のセンサ情報に対応付けられた深刻度とに基づいて危険度を判定するので、より一層精度良く危険度を判定することができる。 According to this aspect, since the risk level is determined based on the similarity and the severity level associated with the first sensor information, the risk level can be determined more accurately.

例えば、前記第1のセンサ情報は、前記危険地点における前記危険事象の発生状況を撮影した第1の画像であり、前記第2のセンサ情報は、前記現在地点における前記移動体の周辺状況を撮影した第2の画像であり、前記判定するステップでは、前記第1の画像と前記第2の画像との類似性に基づいて、前記現在地点に対応する前記危険度を判定するように構成してもよい。 For example, the first sensor information is a first image of the occurrence situation of the dangerous event at the dangerous point, and the second sensor information is an image of the surrounding situation of the moving body at the current point. In the determination step, the risk level corresponding to the current position is determined based on the similarity between the first image and the second image. May be good.

本態様によれば、第1の画像と第2の画像との類似性が高い場合には、危険事象の発生状況と現在地点における移動体の周辺状況との類似性が高いと推定できる。そのため、第1の画像と第2の画像との類似性に基づいて危険度を判定することにより、精度良く危険度を判定することができる。 According to this aspect, when the similarity between the first image and the second image is high, it can be estimated that the similarity between the occurrence situation of the dangerous event and the surrounding situation of the moving object at the current position is high. Therefore, by determining the degree of danger based on the similarity between the first image and the second image, the degree of danger can be determined with high accuracy.

例えば、前記危険判定方法は、さらに、前記第1の画像に基づいて、前記危険事象が発生した際の前記危険地点における第1の交通状況を解析し、且つ、前記第2の画像に基づいて、前記現在地点における第2の交通状況を解析するステップを含み、前記判定するステップでは、解析した前記第1の交通状況と前記第2の交通状況との類似性に基づいて、前記現在地点に対応する前記危険度を判定するように構成してもよい。 For example, the danger determination method further analyzes the first traffic condition at the danger point when the danger event occurs based on the first image, and is based on the second image. In the step of determining, the step of analyzing the second traffic condition at the current location includes the step of analyzing the first traffic condition and the second traffic condition based on the similarity of the analyzed first traffic condition to the current location. It may be configured to determine the corresponding degree of risk.

本態様によれば、第1の交通状況と第2の交通状況との類似性が高い場合には、現在地点における危険事象の発生可能性が高いと推定できる。そのため、第1の交通状況と第2の交通状況との類似性に基づいて危険度を判定することにより、精度良く危険度を判定することができる。 According to this aspect, when the similarity between the first traffic condition and the second traffic condition is high, it can be estimated that the possibility of a dangerous event occurring at the current location is high. Therefore, by determining the degree of danger based on the similarity between the first traffic condition and the second traffic condition, the degree of danger can be determined accurately.

例えば、前記危険判定方法は、さらに、判定した前記現在地点に対応する前記危険度が所定の範囲内である場合に、前記移動体情報に含まれる前記現在地点情報を前記危険地点情報とし、且つ、前記移動体情報に含まれる前記第2のセンサ情報を前記第1のセンサ情報とした前記危険発生情報を生成するステップと、生成した前記危険発生情報を前記危険発生情報管理部に追加するステップと、を含むように構成してもよい。 For example, in the danger determination method, when the danger level corresponding to the determined current location is within a predetermined range, the current location information included in the moving object information is used as the danger location information, and , A step of generating the danger occurrence information using the second sensor information included in the moving body information as the first sensor information, and a step of adding the generated danger occurrence information to the danger occurrence information management unit. And may be configured to include.

本態様によれば、危険度が所定の範囲内である場合に、移動体情報を危険発生情報として危険発生情報管理部に追加するので、危険発生情報管理部における危険発生情報の蓄積量を増加させることができる。 According to this aspect, when the degree of danger is within a predetermined range, the moving object information is added to the danger occurrence information management unit as the danger occurrence information, so that the accumulation amount of the danger occurrence information in the danger occurrence information management department is increased. Can be made to.

例えば、前記取得するステップでは、ネットワークを介して、前記移動体に搭載された移動体装置から送信された前記移動体情報を受信し、前記危険判定方法は、さらに、判定した前記現在地点に対応する前記危険度が所定の範囲内である場合に、前記移動体情報を送信した前記移動体装置に前記危険度に関する危険度情報を送信するステップを含むように構成してもよい。 For example, in the acquisition step, the moving body information transmitted from the moving body device mounted on the moving body is received via the network, and the danger determination method further corresponds to the determined current position. When the risk level is within a predetermined range, the mobile device may be configured to include a step of transmitting risk level information regarding the risk level to the mobile device that has transmitted the mobile body information.

本態様によれば、危険度が所定の範囲内である場合に、移動体情報を送信した移動体装置に危険度情報を送信するので、現在地点を通過中の移動体の利用者に対して危険を報知又は警告等することができる。 According to this aspect, when the degree of danger is within a predetermined range, the degree of danger information is transmitted to the moving body device that has transmitted the moving body information, so that the user of the moving body passing through the current position is notified. It is possible to notify or warn of danger.

例えば、前記取得するステップでは、ネットワークを介して、前記移動体に搭載された移動体装置から送信された前記移動体情報を受信し、前記危険判定方法は、さらに、判定した前記現在地点に対応する前記危険度が所定の範囲内である場合であって、前記移動体情報を受信してから所定時間内に、別の移動体が前記移動体情報に含まれる前記現在地点情報が示す前記現在地点を通過すると判断した場合に、前記別の移動体に搭載された移動体装置に前記危険度に関する危険度情報を送信するステップを含むように構成してもよい。 For example, in the acquisition step, the moving body information transmitted from the moving body device mounted on the moving body is received via the network, and the danger determination method further corresponds to the determined current position. When the degree of danger is within a predetermined range, and within a predetermined time after receiving the moving body information, another moving body is included in the moving body information. It may be configured to include a step of transmitting risk information regarding the risk to a mobile device mounted on the other mobile when it is determined to pass the point.

本態様によれば、危険度が所定の範囲内である場合に、移動体情報を送信した移動体装置とは別の移動体装置に危険度情報を送信するので、例えば後続車両の利用者に対して危険を報知又は警告等することができる。 According to this aspect, when the degree of danger is within a predetermined range, the degree of danger information is transmitted to a moving body device different from the moving body device that has transmitted the moving body information. Therefore, for example, to a user of a following vehicle. It is possible to notify or warn of danger.

例えば、前記危険判定方法は、さらに、判定した前記現在地点に対応する前記危険度と前記現在地点情報とが対応付けられた危険判定情報を危険判定情報管理部に格納するステップを含み、前記判定するステップでは、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険判定情報が前記危険判定情報管理部に格納されている場合、前記危険判定情報に含まれる前記危険度を使用するように構成してもよい。 For example, the danger determination method further includes a step of storing the danger determination information in which the danger level corresponding to the determined current location and the current location information are associated with each other in the danger determination information management unit. In the step, when the danger determination information corresponding to the current location indicated by the current location information included in the moving object information is stored in the danger determination information management unit, the danger included in the danger determination information is stored. It may be configured to use degrees.

本態様によれば、現在地点に対応する危険判定情報が危険判定情報管理部に格納されている場合、危険判定情報に含まれる危険度を使用するので、危険度の判定処理を比較的短時間で行うことができる。 According to this aspect, when the danger judgment information corresponding to the current position is stored in the danger judgment information management unit, the danger degree included in the danger judgment information is used, so that the danger degree judgment process can be performed in a relatively short time. Can be done at.

例えば、前記移動体情報は、さらに、前記現在地点情報と前記第2のセンサ情報とに対応付けられた、前記移動体の走行状況を示す第3のセンサ情報を含み、前記判定するステップでは、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性を求め、前記類似性と前記第3のセンサ情報とに基づいて、前記現在地点に対応する前記危険度を判定するように構成してもよい。 For example, the moving body information further includes a third sensor information indicating a traveling state of the moving body, which is associated with the current position information and the second sensor information, and in the step of determining the determination. The similarity between the second sensor information included in the moving body information and the first sensor information included in one or more of the danger occurrence information stored in the danger occurrence information management unit is obtained. Based on the similarity and the third sensor information, the risk level corresponding to the current position may be determined.

本態様によれば、類似性と第3のセンサ情報とに基づいて危険度を判定するので、より一層精度良く危険度を判定することができる。 According to this aspect, since the risk level is determined based on the similarity and the third sensor information, the risk level can be determined more accurately.

また、本発明の一態様に係る危険判定装置は、移動体が位置する地点に対応する危険度を管理する危険判定装置であって、危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を示す第1のセンサ情報とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部と、前記移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2のセンサ情報とが対応付けられた移動体情報を受信する受信部と、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性に基づいて、前記現在地点に対応する前記危険度を判定する判定部と、を備える。 Further, the danger determination device according to one aspect of the present invention is a danger determination device that manages the degree of danger corresponding to the point where the moving body is located, and includes the danger point information indicating the danger point where the danger event has occurred and the above-mentioned danger point information. The danger occurrence information management unit that stores one or more danger occurrence information associated with the first sensor information indicating the occurrence status of the danger event at the danger point, and the current position indicating the current position of the moving body. A receiving unit that receives the moving body information in which the information is associated with the second sensor information indicating the surrounding situation of the moving body at the current position, and the current position information included in the moving body information indicates the above. The danger occurrence information corresponding to the current position is not stored in the danger occurrence information management unit, and the danger occurrence information corresponding to a point other than the current location is stored in the danger occurrence information management unit. In the case, the similarity between the second sensor information included in the moving body information and the first sensor information included in one or more of the danger occurrence information stored in the danger occurrence information management unit. Based on this, a determination unit for determining the degree of danger corresponding to the current location is provided.

本態様によれば、移動体情報に含まれる現在地点情報が示す現在地点に対応する危険発生情報が危険発生情報管理部に格納されていない場合であっても、移動体情報に含まれる第2のセンサ情報と、現在地点以外の地点に対応する危険発生情報に含まれる第1のセンサ情報との類似性に基づいて、危険度を判定する。これにより、移動体が危険発生情報管理部に格納されている危険発生情報に対応する危険地点以外の地点を通過する場合であっても、精度良く危険度を判定することができ、例えば移動体の利用者に対して危険を報知又は警告等することができる。 According to this aspect, even if the danger occurrence information corresponding to the current position indicated by the current position information included in the moving body information is not stored in the danger occurrence information management unit, the second one included in the moving body information. The degree of danger is determined based on the similarity between the sensor information of the above and the first sensor information included in the danger occurrence information corresponding to the point other than the current point. As a result, even when the moving object passes through a point other than the danger point corresponding to the danger occurrence information stored in the danger occurrence information management unit, the danger level can be accurately determined, for example, the moving object. It is possible to notify or warn the user of the danger.

また、本発明の一態様に係る危険判定システムは、危険判定装置と移動体に搭載された危険出力装置とを備え、前記移動体が位置する地点に対応する危険度を管理する危険判定システムであって、前記危険判定装置は、危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を示す第1のセンサ情報とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部と、前記移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2のセンサ情報とが対応付けられた移動体情報を受信する第1の受信部と、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2のセンサ情報と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1のセンサ情報との類似性に基づいて、前記現在地点に対応する前記危険度を判定する判定部と、前記危険度に関する危険度情報を前記危険出力装置に送信する第1の送信部と、を備え、前記危険出力装置は、前記移動体情報を前記危険判定装置に送信する第2の送信部と、前記危険判定装置から送信された前記危険度情報を受信する第2の受信部と、受信した前記危険度情報に基づいて、前記移動体の利用者に対して注意を喚起するための注意喚起情報を出力する出力部と、を備える。 Further, the danger determination system according to one aspect of the present invention is a danger determination system including a danger determination device and a danger output device mounted on the moving body, and managing the degree of danger corresponding to the point where the moving body is located. Therefore, the danger determination device provides danger occurrence information in which the danger point information indicating the danger point where the danger event has occurred and the first sensor information indicating the occurrence status of the danger event at the danger point are associated with each other. The danger occurrence information management unit that stores one or more, the current position information indicating the current position of the moving body, and the second sensor information indicating the surrounding situation of the moving body at the current position are associated with each other. The first receiving unit that receives the moving body information and the danger occurrence information corresponding to the current position indicated by the current position information included in the moving body information are not stored in the danger occurrence information management unit. Moreover, when the danger occurrence information corresponding to a point other than the current position is stored in the danger occurrence information management unit, the second sensor information included in the moving body information and the danger occurrence information management unit. A determination unit for determining the degree of danger corresponding to the current position based on the similarity with the first sensor information included in the one or more pieces of the danger occurrence information stored in the above, and the degree of danger. The danger output device includes a first transmission unit that transmits danger level information to the danger output device, and the danger output device includes a second transmission unit that transmits the moving object information to the danger determination device and the danger determination device. A second receiver that receives the risk information transmitted from, and an output that outputs attention information for calling attention to the user of the moving object based on the received risk information. It has a department.

本態様によれば、移動体情報に含まれる現在地点情報が示す現在地点に対応する危険発生情報が危険発生情報管理部に格納されていない場合であっても、移動体情報に含まれる第2のセンサ情報と、現在地点以外の地点に対応する危険発生情報に含まれる第1のセンサ情報との類似性に基づいて、危険度を判定する。これにより、移動体が危険発生情報管理部に格納されている危険発生情報に対応する危険地点以外の地点を通過する場合であっても、精度良く危険度を判定することができ、例えば移動体の利用者に対して危険を報知又は警告等することができる。 According to this aspect, even if the danger occurrence information corresponding to the current position indicated by the current position information included in the moving body information is not stored in the danger occurrence information management unit, the second one included in the moving body information. The degree of danger is determined based on the similarity between the sensor information of the above and the first sensor information included in the danger occurrence information corresponding to the point other than the current point. As a result, even when the moving object passes through a point other than the danger point corresponding to the danger occurrence information stored in the danger occurrence information management unit, the danger level can be accurately determined, for example, the moving object. It is possible to notify or warn the user of the danger.

また、本発明の一態様に係る危険出力装置は、上述した危険判定システムにおいて用いられる危険出力装置であって、移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2のセンサ情報とが対応付けられた移動体情報を危険判定装置に送信する第2の送信部と、前記危険判定装置から送信された危険度情報を受信する第2の受信部と、受信した前記危険度情報に基づいて、前記移動体の利用者に対して注意を喚起するための注意喚起情報を出力する出力部と、を備える。 Further, the danger output device according to one aspect of the present invention is a danger output device used in the above-mentioned danger determination system, and includes current position information indicating the current position of the moving body and the periphery of the moving body at the current position. A second transmitting unit that transmits the moving object information associated with the second sensor information indicating the situation to the danger determination device, and a second receiving unit that receives the danger level information transmitted from the danger determination device. And an output unit that outputs the attention-calling information for calling the attention to the user of the moving body based on the received danger level information.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized by a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, a method, an integrated circuit, or a computer program. Alternatively, it may be realized by any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that all of the embodiments described below show comprehensive or specific examples. The numerical values, shapes, materials, components, arrangement positions and connection forms of the components, steps, the order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claim indicating the highest level concept are described as arbitrary components.

(実施の形態1)
[1-1.危険判定システムの全体構成]
図1を参照しながら、実施の形態1に係る危険判定システム10の全体構成について説明する。図1は、実施の形態1に係る危険判定システム10の構成を示すブロック図である。
(Embodiment 1)
[1-1. Overall configuration of danger judgment system]
The overall configuration of the danger determination system 10 according to the first embodiment will be described with reference to FIG. 1. FIG. 1 is a block diagram showing a configuration of the danger determination system 10 according to the first embodiment.

図1に示すように、危険判定システム10は、サーバ装置101(危険判定装置の一例)及び複数の移動体装置102(危険出力装置の一例)を備えている。 As shown in FIG. 1, the danger determination system 10 includes a server device 101 (an example of a danger determination device) and a plurality of mobile devices 102 (an example of a danger output device).

サーバ装置101は、画像データベース103(画像管理部の一例)を備えている。画像データベース103には、1つ以上の危険発生情報が管理(格納)されている。危険発生情報は、危険地点において事故又はヒヤリハット等の危険事象に遭遇した移動体105の周辺状況(すなわち、危険事象の発生状況)を撮影した画像である危険地点画像(第1のセンサ情報及び第1の画像の一例)と、この危険地点画像の撮影日時、撮影位置及び撮影方向(すなわち、危険事象に遭遇した移動体105の進行方向)等の付随情報(危険地点を示す危険地点情報の一例)とが対応付けられたデータである。なお、i)種々のカメラでの画像の撮影方法、ii)撮影日時、撮影位置及び撮影方向等の取得方法、iii)撮影画像のサーバ装置101へのアップロード方法については、一般に開示されている任意の方法で良く、ここではその説明を省略する。 The server device 101 includes an image database 103 (an example of an image management unit). One or more danger occurrence information is managed (stored) in the image database 103. The danger occurrence information is a danger point image (first sensor information and a first sensor information) which is an image of the surrounding situation (that is, the occurrence situation of the danger event) of the moving body 105 that has encountered a dangerous event such as an accident or a hiyari hat at the danger point. 1) and incidental information (an example of danger point information indicating a danger point) such as the shooting date and time, shooting position and shooting direction of this danger point image (that is, the traveling direction of the moving body 105 that encountered a dangerous event). ) Is the data associated with it. It should be noted that i) a method of shooting an image with various cameras, ii) a method of acquiring a shooting date and time, a shooting position, a shooting direction, etc., and iii) a method of uploading the shot image to the server device 101 are arbitrarily disclosed. The method described above may be used, and the description thereof will be omitted here.

複数の移動体装置102の各々は、ネットワーク104を介してサーバ装置101に通信接続されており、対応する移動体105に搭載されている。移動体105は、例えば利用者によって運転される車両である。移動体装置102は、ネットワーク104を介して、移動体情報をサーバ装置101に送信する。移動体情報は、現在地点における移動体105の周辺状況を撮影した画像である現在地点画像(第2のセンサ情報及び第2の画像の一例)と、その現在地点画像に関する付随情報(移動体105の現在地点を示す現在地点情報の一例)とが対応付けられたデータである。 Each of the plurality of mobile devices 102 is communicatively connected to the server device 101 via the network 104, and is mounted on the corresponding mobile device 105. The mobile body 105 is, for example, a vehicle driven by a user. The mobile device 102 transmits the mobile information to the server device 101 via the network 104. The moving body information is an image of the current position (an example of the second sensor information and the second image) which is an image of the surrounding situation of the moving body 105 at the current position, and accompanying information (moving body 105) related to the current position image. It is the data associated with the current location information (an example) indicating the current location of.

サーバ装置101は、受信した現在地点画像とその付随情報とに基づいて、現在地点画像の撮影時点での現在地点における交通状況(第2の交通状況の一例)を解析し、且つ、画像データベース103に管理されている危険地点画像とその付随情報とに基づいて、危険事象が発生した際の危険地点における交通状況(第1の交通状況の一例)を解析する。サーバ装置101は、解析した2つの交通状況の類似性に基づいて現在地点画像の撮影時点で移動体105が置かれている状況の危険度を判定し、判定した危険度に関する危険度情報を移動体装置102へネットワーク104を介して送信する。なお、危険度とは、現在地点画像の撮影時点で移動体105が位置する現在地点において危険事象が発生する可能性を示す指標である。 The server device 101 analyzes the traffic condition (an example of the second traffic condition) at the current location at the time of taking the current location image based on the received current location image and its accompanying information, and also analyzes the image database 103. The traffic condition (an example of the first traffic condition) at the dangerous point when a dangerous event occurs is analyzed based on the dangerous point image and its accompanying information managed in. The server device 101 determines the risk level of the situation in which the moving body 105 is placed at the time of taking the current position image based on the similarity between the two analyzed traffic conditions, and moves the risk level information regarding the determined risk level. It is transmitted to the body device 102 via the network 104. The degree of danger is an index indicating the possibility that a dangerous event may occur at the current position where the moving body 105 is located at the time of taking the image of the current position.

移動体装置102は、受信した危険度情報に基づいて、移動体105(又は移動体装置102)の利用者に対して注意を喚起するための注意喚起情報を出力する。 The mobile device 102 outputs attention information for calling attention to the user of the mobile 105 (or the mobile device 102) based on the received risk information.

[1-2.サーバ装置の構成]
[1-2-1.サーバ装置の全体構成]
次に、図2~図4を参照しながら、サーバ装置101の全体構成について詳細に説明する。図2は、実施の形態1に係るサーバ装置101の構成を示すブロック図である。図3は、実施の形態1に係る移動体情報の一例を示す図である。図4は、実施の形態1に係る危険発生情報の一例を示す図である。
[1-2. Server device configuration]
[1-2-1. Overall configuration of server device]
Next, the overall configuration of the server device 101 will be described in detail with reference to FIGS. 2 to 4. FIG. 2 is a block diagram showing a configuration of the server device 101 according to the first embodiment. FIG. 3 is a diagram showing an example of mobile information according to the first embodiment. FIG. 4 is a diagram showing an example of danger occurrence information according to the first embodiment.

図2に示すように、サーバ装置101は、送受信部201(第1の送信部及び第1の受信部の一例)、危険発生情報管理部202、画像解析部203、危険度判定部204及び制御部205を備えている。 As shown in FIG. 2, the server device 101 includes a transmission / reception unit 201 (an example of a first transmission unit and a first reception unit), a danger occurrence information management unit 202, an image analysis unit 203, a risk level determination unit 204, and a control unit. The unit 205 is provided.

サーバ装置101は、具体的には図示されていないマイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)及びハードディスク等で構成される。これらのRAM、ROM及びハードディスクには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、サーバ装置101はその機能を果たす。 The server device 101 includes a microprocessor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, and the like, which are not specifically shown. Computer programs are stored in these RAMs, ROMs, and hard disks. When the microprocessor operates according to this computer program, the server device 101 fulfills its function.

なお、サーバ装置101の送受信部201、危険発生情報管理部202、画像解析部203、危険度判定部204及び制御部205等の各機能ブロックは、典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されても良いし、1以上の機能ブロック又は各機能ブロックの一部を含むように1チップ化されても良い。ここではLSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI又はウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現しても良い。LSIの製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続及び設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適用などが可能性としてありえる。最後に、サーバ装置101の各機能ブロックは、ソフトウェアで実現されても良いし、LSIとソフトウェアとの組み合わせで実現されても良い。また、ソフトウェアは耐タンパ化されていても良い。 Each functional block of the server device 101, such as the transmission / reception unit 201, the danger occurrence information management unit 202, the image analysis unit 203, the risk level determination unit 204, and the control unit 205, is typically an integrated circuit LSI (Large Scale). It is realized as Information). These may be individually integrated into one chip, or may be integrated into one chip so as to include one or more functional blocks or a part of each functional block. Although it is referred to as an LSI here, it may be referred to as an IC (Integrated Circuit), a system LSI, a super LSI, or an ultra LSI depending on the degree of integration. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. After manufacturing the LSI, an FPGA (Field Programmable Gate Array) that can be programmed or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used. Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology. The application of biotechnology may be possible. Finally, each functional block of the server device 101 may be realized by software or may be realized by a combination of LSI and software. Also, the software may be tamper resistant.

[1-2-2.送受信部]
送受信部201は、ネットワーク104を介して、移動体装置102から送信された移動体情報を受信する。
[1-2-2. Transmitter / receiver]
The transmission / reception unit 201 receives the mobile information transmitted from the mobile device 102 via the network 104.

ここで、図3を参照しながら、送受信部201が受信する移動体情報の一例について説明する。図3の(a)は、移動体情報に含まれる現在地点画像の一例であり、図3の(b)は、移動体情報に含まれる現在地点画像に関する付随情報の一例である。 Here, an example of mobile information received by the transmission / reception unit 201 will be described with reference to FIG. FIG. 3A is an example of the current position image included in the moving object information, and FIG. 3B is an example of incidental information regarding the current position image included in the moving object information.

図3の例では、ファイル名が「98765432.jpg」である現在地点画像が、「2014年12月12日12時12分12秒」に撮影され、撮影位置の緯度経度はそれぞれ「+35.682343」、「+139.773533」であり、撮影(進行)方向は「30度」であることを示している。ここで、緯度経度情報は60進数(度分秒)による座標を10進数に変換したものであり、撮影(進行)方向は、北向きを0度、東向きを90度、南向きを180度、西向きを270度とした場合の方角を角度で表現している。 In the example of FIG. 3, the current position image whose file name is "98765432.jpg" is taken at "12:12:12 on December 12, 2014", and the latitude and longitude of the shooting position are "+35.682343" respectively. , "+139.7735333", indicating that the shooting (advancing) direction is "30 degrees". Here, the latitude / longitude information is obtained by converting the coordinates in sexagesimal (degrees, minutes, seconds) into decimal numbers, and the shooting (traveling) direction is 0 degrees in the north direction, 90 degrees in the east direction, and 180 degrees in the south direction. , The direction when the west direction is 270 degrees is expressed by the angle.

また、図3の(a)に示すファイル名が「98765432.jpg」である現在地点画像は、移動体105である自車両が信号有りの交差点を青信号で直進する際に、前方の横断歩道の傍に歩行者が存在し、その横断歩道の直前に先行車両が差し掛かっている状況を撮影したものである。 In addition, the current location image in which the file name shown in FIG. 3A is "98765432.jpg" is the image of the current position of the pedestrian crossing in front of the moving body 105 when the own vehicle is going straight at an intersection with a traffic light at a green light. This is a photograph of a pedestrian nearby and a preceding vehicle approaching just before the pedestrian crossing.

さらに、送受信部201は、ネットワーク104を介して、危険度判定部204(後述する)により判定された危険度に関する危険度情報を移動体装置102に送信する。なお、危険度の判定方法については後で詳述する。 Further, the transmission / reception unit 201 transmits the danger level information regarding the risk level determined by the risk level determination unit 204 (described later) to the mobile device 102 via the network 104. The method for determining the degree of risk will be described in detail later.

[1-2-3.危険発生情報管理部]
危険発生情報管理部202は、上述した画像データベース103を含んでおり、危険発生情報を管理(格納)する。すなわち、危険発生情報管理部202は、危険事象に遭遇した移動体105の周辺状況を撮影した画像である危険地点画像を蓄積し、危険地点画像の撮影日時、撮影位置及び撮影(進行)方向等の付随情報と紐付けて管理する。
[1-2-3. Hazard Information Management Department]
The danger occurrence information management unit 202 includes the above-mentioned image database 103, and manages (stores) the danger occurrence information. That is, the danger occurrence information management unit 202 accumulates the danger point image which is an image of the surrounding situation of the moving body 105 that has encountered the danger event, and the shooting date and time, the shooting position, the shooting (progress) direction, etc. of the danger point image, etc. It is managed by associating it with the accompanying information of.

ここで、図4を参照しながら、危険発生情報管理部202が管理する危険発生情報の一例について説明する。図4の(a)は、危険発生情報に含まれる危険地点画像の一例であり、図4の(b)は、危険発生情報に含まれる危険地点画像に関する付随情報の一例である。 Here, an example of the danger occurrence information managed by the danger occurrence information management unit 202 will be described with reference to FIG. 4. FIG. 4A is an example of a danger point image included in the danger occurrence information, and FIG. 4B is an example of incidental information regarding the danger point image included in the danger occurrence information.

図4の例では、ファイル名「00000123.jpg」である危険地点画像が、「2014年12月1日8時30分00秒」に撮影され、撮影位置の緯度経度はそれぞれ「+35.711283」、「+139.704802」であり、撮影(進行)方向は「30度」であることを示している。ここで、緯度経度情報は60進数(度分秒)による座標を10進数に変換したものであり、撮影(進行)方向は、北向きを0度、東向きを90度、南向きを180度、西向きを270度とした場合の方角を角度で表現している。 In the example of FIG. 4, the danger point image having the file name “000000123.jpg” was taken at “8:30:00 on December 1, 2014”, and the latitude and longitude of the shooting positions were “+35.711283” respectively. , "+139.704802", indicating that the shooting (advancing) direction is "30 degrees". Here, the latitude / longitude information is obtained by converting the coordinates in sexagesimal (degrees, minutes, seconds) into decimal numbers, and the shooting (traveling) direction is 0 degrees in the north direction, 90 degrees in the east direction, and 180 degrees in the south direction. , The direction when the west direction is 270 degrees is expressed by the angle.

また、図4の(a)に示す各危険地点画像における危険事象について説明する。ファイル名が「00000123.jpg」である危険地点画像における危険事象は、移動体105である自車両が信号無しの交差点を直進する際に、左方から直進車両が飛び出す「出会い頭のヒヤリハット」である。ファイル名が「00445566.jpg」である危険地点画像における危険事象は、移動体105である自車両が信号有りの交差点を青信号で直進する際に、前方の横断歩道を赤信号で横断する歩行者がいたために、その横断歩道に差し掛かった先行車両が急ブレーキを踏む「追突のヒヤリハット」である。ファイル名が「77088099.jpg」である危険地点画像における危険事象は、移動体105である自車両が信号有りの交差点を青信号で右折する際に、対向車両が交差点に接近する前に右折を完了しようと急いだところ、右折先の横断歩道に横断中の歩行者がいる「対向横断者とのヒヤリハット」である。 Further, a dangerous event in each dangerous point image shown in FIG. 4A will be described. The dangerous event in the danger point image whose file name is "000000123.jpg" is a "hiyari hat of the encounter" in which the straight-ahead vehicle pops out from the left when the own vehicle, which is a moving body 105, goes straight on an intersection without a traffic light. .. The dangerous event in the danger point image whose file name is "00445566.jpg" is a pedestrian crossing the pedestrian crossing in front at a red light when the own vehicle, which is a moving body 105, goes straight at an intersection with a traffic light at a green light. The preceding vehicle approaching the pedestrian crossing suddenly brakes because of the pedestrian crossing. The dangerous event in the danger point image whose file name is "77088099.jpg" is that when the own vehicle, which is a moving body 105, turns right at an intersection with a traffic light at a green light, the right turn is completed before the oncoming vehicle approaches the intersection. When I hurried to try, there was a pedestrian crossing on the pedestrian crossing at the right turn, which was a "hearing hat with an oncoming crossing".

[1-2-4.画像解析部]
画像解析部203は、送受信部201が受信した移動体情報に含まれる現在地点画像に基づいて、現在地点画像の撮影時点での現在地点における交通状況を解析する。また、画像解析部203は、危険発生情報管理部202に格納された危険発生情報に含まれる危険地点画像に基づいて、危険事象が発生した際の危険地点における交通情報を解析する。
[1-2-4. Image analysis unit]
The image analysis unit 203 analyzes the traffic condition at the current location at the time of shooting the current location image based on the current location image included in the moving object information received by the transmission / reception unit 201. Further, the image analysis unit 203 analyzes the traffic information at the danger point when a danger event occurs, based on the danger point image included in the danger occurrence information stored in the danger occurrence information management unit 202.

ここで、交通状況とは、移動体装置102を搭載する移動体105が置かれている道路交通上の状況のことであり、具体的には道路形状を含む場所に関する状況、交通環境及び自車行動等のことである。さらに具体的には、道路形状を含む場所に関する状況とは、例えば交差点、単路(直線)、カーブ及び狭路等のことである。交通環境とは、例えば信号の燈色、標識の有無、歩行者及び対向車両の有無、先行車両の有無、並びに、車間距離等のことである。自車行動とは、例えば直進中、右左折中、停止中、後退中、並びに、走行速度及び加速度等のことである。 Here, the traffic condition is a road traffic situation in which the mobile body 105 on which the mobile body device 102 is placed is placed, and specifically, the situation regarding a place including the road shape, the traffic environment, and the own vehicle. It is an action, etc. More specifically, the situation regarding the place including the road shape is, for example, an intersection, a single road (straight line), a curve, a narrow road, or the like. The traffic environment is, for example, the color of a traffic light, the presence or absence of a sign, the presence or absence of pedestrians and oncoming vehicles, the presence or absence of a preceding vehicle, the distance between vehicles, and the like. The own vehicle behavior is, for example, going straight, turning left or right, stopping, reversing, running speed, acceleration, and the like.

次に、図3を参照しながら、現在地点画像に基づいて交通状況を解析する方法の一例について説明する。図3の(a)に示すように、送受信部201が例えばファイル名が「98765432.jpg」である現在地点画像を含む移動体情報を受信した場合、画像解析部203は、i)道路形状を含む場所に関する状況については信号有りの交差点であること、ii)交通環境については青信号であること、前方の横断歩道の傍に歩行者が存在すること、及び、その横断歩道の直前に先行車両が差し掛かっていること、iii)自車行動については直進中であることなどを解析する。 Next, an example of a method of analyzing the traffic condition based on the current position image will be described with reference to FIG. As shown in FIG. 3A, when the transmission / reception unit 201 receives the moving object information including the current position image whose file name is, for example, "98765432.jpg", the image analysis unit 203 i) changes the road shape. It is an intersection with a traffic light for the situation including the place, ii) There is a green light for the traffic environment, there are pedestrians near the pedestrian crossing in front, and the preceding vehicle is in front of the pedestrian crossing. Analyze the fact that you are approaching, iii) you are going straight for your own vehicle behavior.

ここで、現在地点画像に基づいて交通状況を解析する方法の一例について、さらに具体的に説明する。道路形状を含む場所に関する状況については、例えば路面上に描かれている区画線及び道路標示を現在地点画像から画像認識することにより検出可能である。区画線とは、例えば車両の走行レーンを示すための車線境界線等である。道路標示とは、例えば停止線、「止まれ」マーク、横断歩道、横断歩道の存在を示す菱形マーク、直進及び左右転回の矢印、並びに、車線変更の禁止を示すための破線等である。例えばこれらの道路標示が存在する場合には、道路が交差点であることを検出可能である。また、例えばこれらの道路標示が存在せず、且つ、区画線が直線である(又は曲がっている)場合には、道路が単路(又はカーブ)であることを検出可能である。また、例えば隣り合う区画線の間隔によって、道路が狭路であるか否かを検出可能である。 Here, an example of a method of analyzing the traffic condition based on the current position image will be described more specifically. The situation regarding the place including the road shape can be detected, for example, by recognizing the lane markings and road markings drawn on the road surface from the current position image. The lane marking is, for example, a lane boundary line for indicating a traveling lane of a vehicle. Road markings are, for example, stop lines, "stop" marks, pedestrian crossings, diamond marks indicating the presence of pedestrian crossings, straight-ahead and left-right turning arrows, and broken lines to indicate prohibition of lane changes. For example, when these road markings are present, it is possible to detect that the road is an intersection. Further, for example, when these road markings do not exist and the lane marking is straight (or curved), it is possible to detect that the road is a single road (or a curve). Further, it is possible to detect whether or not the road is a narrow road, for example, by the distance between adjacent lane markings.

さらに、交通環境については、信号、標識、歩行者及び他車両等の対象物の色特徴及び形状特徴を利用して、現在地点画像から画像認識することにより検出可能である。加えて、例えば前照灯と尾灯とを画像認識することにより、他車両が対向車両及び先行車両のいずれであるかを検出可能である。加えて、例えば先行車両のナンバープレート及びナンバープレート上の文字を画像認識することにより、画像中のナンバープレートのサイズと既知の撮影倍率とに基づいて車間距離を検出可能である。 Further, the traffic environment can be detected by recognizing an image from a current position image by using color characteristics and shape characteristics of an object such as a signal, a sign, a pedestrian, or another vehicle. In addition, for example, by recognizing the headlight and the taillight as images, it is possible to detect whether the other vehicle is an oncoming vehicle or a preceding vehicle. In addition, for example, by recognizing the license plate of the preceding vehicle and the characters on the license plate as an image, the inter-vehicle distance can be detected based on the size of the license plate in the image and the known shooting magnification.

さらに、自車行動については、時間的に近接する複数の現在地点画像における、例えば道路及びその周辺の建造物等の動きに注目することにより検出可能である。あるいは、時間的に近接する2個の現在地点画像の撮影位置の変化により検出しても良い。 Further, the behavior of the own vehicle can be detected by paying attention to the movement of, for example, a road and surrounding buildings in a plurality of images of current locations that are close to each other in time. Alternatively, it may be detected by a change in the shooting position of two current position images that are close to each other in time.

[1-2-5.危険度判定部]
危険度判定部204は、送受信部201が受信した現在地点画像と、危険発生情報管理部202に格納されている危険地点画像との類似性に基づいて、現在地点画像の撮影時点で移動体105が置かれている状況の危険度を判定する。より具体的には、危険度判定部204は、画像解析部203で解析した、現在地点画像の撮影時点での現在地点における交通状況と、危険事象が発生した際の危険地点における交通状況との類似性に基づいて、上述した危険度を判定する。さらに、危険度判定部204は、判定した危険度に関する危険度情報を生成する。
[1-2-5. Danger level judgment unit]
The danger level determination unit 204 is a moving body 105 at the time of shooting the current position image based on the similarity between the current position image received by the transmission / reception unit 201 and the danger point image stored in the danger occurrence information management unit 202. Determine the risk of the situation in which. More specifically, the risk determination unit 204 determines the traffic conditions at the current position at the time of taking the current position image analyzed by the image analysis unit 203 and the traffic conditions at the dangerous point when a dangerous event occurs. The risk level described above is determined based on the similarity. Further, the risk level determination unit 204 generates risk level information regarding the determined risk level.

次に、図3及び図4を参照しながら、危険度の判定方法の一例について説明する。例えば、危険発生情報管理部202が図4の(a)及び(b)にそれぞれ示す危険地点画像及びその付随情報を管理し、送受信部201が図3の(a)に示すファイル名が「98765432.jpg」である現在地点画像を受信した場合について説明する。この場合、危険度判定部204は、画像解析部203が解析した交通状況に基づいて、i)道路形状を含む場所に関する状況について信号有り交差点であること、ii)交通環境について青信号であること、前方の横断歩道の傍に歩行者が存在すること、及び、その横断歩道の直前に先行車両が差し掛かっていること、iii)自車行動について直進中であることなどを踏まえ、危険発生情報管理部202が管理するファイル名が「00445566.jpg」である危険地点画像と現在地点画像との類似性(類似度)を算出する。算出した類似度が例えば「0.8」である場合には、危険度判定部204は、ファイル名が「98765432.jpg」である現在地点画像の撮影時点で移動体105が置かれている状況の危険度が「0.8」であると判定する。なお、危険度は、例えば「0」から「1」までの点数(0.1刻みの粒度)であり、「0」は危険度が全くないことを、「1」は危険度が最も高いことを示している。 Next, an example of a method for determining the degree of danger will be described with reference to FIGS. 3 and 4. For example, the danger occurrence information management unit 202 manages the danger point image and its accompanying information shown in FIGS. 4A and 4B, respectively, and the transmission / reception unit 201 manages the file name shown in FIG. A case where the current position image of ".jpg" is received will be described. In this case, the risk determination unit 204 is, based on the traffic conditions analyzed by the image analysis unit 203, i) an intersection with a signal regarding the situation regarding the place including the road shape, and ii) a green light regarding the traffic environment. Danger Occurrence Information Management Department based on the fact that there are pedestrians near the pedestrian crossing in front, that the preceding vehicle is approaching just before the pedestrian crossing, and that iii) the vehicle is going straight ahead. The similarity (degree of similarity) between the danger point image and the current point image whose file name managed by 202 is "00445566.jpg" is calculated. When the calculated similarity is, for example, "0.8", the risk determination unit 204 is in a situation where the moving body 105 is placed at the time of shooting the current position image whose file name is "98765432.jpg". It is determined that the degree of danger of is "0.8". The degree of danger is, for example, a score from "0" to "1" (particle size in increments of 0.1), "0" means that there is no degree of danger, and "1" means that the degree of danger is the highest. Is shown.

ここで、危険地点画像と現在地点画像との類似性を算出する方法の一例について説明する。例えばCBIR(Content-Based Image Retrieval)と呼ばれる画像検索手法等を用いることにより、類似性を算出することができる。このCBIRは、色、物体形状及びテクスチャ(物体の表面の質感及び模様)等の画像特徴量の類似度に基づいて、与えられた画像に類似する画像をデータベースから検出する方法として知られている。このCBIRによれば、画像解析部203で解析した交通状況についての画像特徴量の類似度に基づいて、危険発生情報管理部202を検索することにより、類似性の高い危険地点画像が取得可能となる。 Here, an example of a method of calculating the similarity between the danger point image and the current position image will be described. For example, the similarity can be calculated by using an image retrieval method called CBIR (Content-Based Image Retrieval). This CBIR is known as a method of detecting an image similar to a given image from a database based on the similarity of image features such as color, object shape and texture (texture and pattern on the surface of the object). .. According to this CBIR, it is possible to obtain a highly similar danger point image by searching the danger occurrence information management unit 202 based on the similarity of the image feature amount for the traffic condition analyzed by the image analysis unit 203. Become.

また、判定した危険度に関する危険度情報の生成方法の一例について説明する。例えば判定した危険度(上述した危険度の判定方法の一例では「0.8」)をそのまま危険度情報として採用することができるが、危険度情報は、移動体105の利用者(例えば車両のドライバ)に対して注意を喚起するために出力できるものであれば何でも良く、例えば任意の文字情報又は音声等でも良い。なお、危険度を判定する毎にこの危険度情報を逐一生成する必要はなく、予め登録済みの文字情報又は音声等の中から任意の文字情報又は音声等を危険度情報として選択しても良い。ここで、例えば任意の文字情報又は音声等を危険度情報として採用する場合には、移動体105の利用者が危険度を理解できる文字情報又は音声等を採用することが望ましい。 In addition, an example of a method of generating risk information regarding the determined risk level will be described. For example, the determined risk level (“0.8” in the above-mentioned example of the risk level determination method) can be adopted as the risk level information as it is, but the risk level information is used by the user of the moving body 105 (for example, the vehicle). Anything that can be output to call attention to the driver) may be used, and for example, arbitrary character information or voice may be used. It is not necessary to generate this risk information one by one every time the risk level is determined, and any character information or voice may be selected as the risk level information from the character information or voice registered in advance. .. Here, for example, when arbitrary character information, voice, or the like is adopted as the risk level information, it is desirable to adopt character information, voice, or the like that allows the user of the mobile body 105 to understand the risk level.

[1-2-6.制御部]
制御部205は、上述した送受信部201、危険発生情報管理部202、画像解析部203及び危険度判定部204を管理及び制御することにより、サーバ装置101の機能を実現する。
[1-2-6. Control unit]
The control unit 205 realizes the function of the server device 101 by managing and controlling the transmission / reception unit 201, the danger occurrence information management unit 202, the image analysis unit 203, and the risk level determination unit 204 described above.

[1-3.移動体装置の構成]
[1-3-1.移動体装置の全体構成]
次に、図5を参照しながら、移動体装置102の全体構成について詳細に説明する。図5は、実施の形態1に係る移動体装置102の構成を示すブロック図である。
[1-3. Configuration of mobile device]
[1-3-1. Overall configuration of mobile device]
Next, the overall configuration of the mobile device 102 will be described in detail with reference to FIG. FIG. 5 is a block diagram showing a configuration of the mobile device 102 according to the first embodiment.

図5に示すように、移動体装置102は、送受信部501(第2の送信部及び第2の受信部の一例)、入力受付部502、出力部503及び制御部504を備えている。 As shown in FIG. 5, the mobile device 102 includes a transmission / reception unit 501 (an example of a second transmission unit and a second reception unit), an input reception unit 502, an output unit 503, and a control unit 504.

移動体装置102は、具体的には図示されていないマイクロプロセッサ、RAM、ROM及びハードディスク等で構成される。これらのRAM、ROM及びハードディスクには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、移動体装置102はその機能を果たす。 The mobile device 102 includes a microprocessor, RAM, ROM, a hard disk, and the like, which are not specifically shown. Computer programs are stored in these RAMs, ROMs, and hard disks. When the microprocessor operates according to this computer program, the mobile device 102 fulfills its function.

なお、送受信部501、入力受付部502、出力部503及び制御部504等の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、1以上の機能ブロック又は各機能ブロックの一部を含むように1チップ化されても良い。ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI又はウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現しても良い。LSIの製造後に、プログラムすることが可能なFPGA、又は、LSI内部の回路セルの接続及び設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適用などが可能性としてありえる。最後に、移動体装置102の各機能ブロックは、ソフトウェアで実現されても良いし、LSIとソフトウェアとの組み合わせで実現されても良い。また、ソフトウェアは耐タンパ化されていても良い。 Each functional block such as the transmission / reception unit 501, the input reception unit 502, the output unit 503, and the control unit 504 is typically realized as an LSI which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include one or more functional blocks or a part of each functional block. Although it is referred to as LSI here, it may be referred to as IC, system LSI, super LSI or ultra LSI depending on the degree of integration. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. After manufacturing the LSI, an FPGA that can be programmed or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used. Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology. The application of biotechnology may be possible. Finally, each functional block of the mobile device 102 may be realized by software or may be realized by a combination of LSI and software. Also, the software may be tamper resistant.

[1-3-2.送受信部]
送受信部501は、ネットワーク104を介して、入力受付部502が受け付けた移動体情報をサーバ装置101に送信する。
[1-3-2. Transmitter / receiver]
The transmission / reception unit 501 transmits the mobile information received by the input reception unit 502 to the server device 101 via the network 104.

また、送受信部501は、ネットワーク104を介して、サーバ装置101から送信された危険度情報を受信する。 Further, the transmission / reception unit 501 receives the risk information transmitted from the server device 101 via the network 104.

[1-3-3.入力受付部]
入力受付部502は、移動体情報を入力として受け付ける。より具体的には、入力受付部502は、現在地点において移動体105の周辺状況を撮影した画像である現在地点画像と、その現在地点画像に関する付随情報とを入力として受け付ける。
[1-3-3. Input reception section]
The input receiving unit 502 receives the moving body information as an input. More specifically, the input receiving unit 502 receives an image of the current position, which is an image of the surrounding situation of the moving body 105 at the current position, and incidental information about the image of the current position as inputs.

現在地点画像は、例えば車載カメラ、ドライブレコーダ又はスマートフォンのカメラ等で撮影された画像である。なお、i)種々のカメラでの画像の撮影方法、ii)撮影日時、撮影位置及び撮影(進行)方向等の取得方法については、一般に開示されている任意の方法で良く、ここではその説明を省略する。 The current location image is, for example, an image taken by an in-vehicle camera, a drive recorder, a smartphone camera, or the like. As for i) a method of shooting an image with various cameras, ii) a method of acquiring a shooting date and time, a shooting position, a shooting (traveling) direction, etc., any method generally disclosed may be used, and the description thereof will be described here. Omit.

[1-3-4.出力部]
出力部503は、送受信部501が受信した危険度情報に基づいて、移動体105(又は移動体装置102)の利用者に対して注意を喚起するための注意喚起情報を出力する。例えば注意喚起情報が文字情報である場合には、移動体105に搭載されたディスプレイ等(図示せず)へ注意喚起情報を出力することにより、利用者に対して注意を喚起するための文字情報(例えば「追突のヒヤリハットが発生する危険度は0.8です」と記載された文字列)がディスプレイに表示される。また、例えば注意喚起情報が音声である場合には、移動体105に搭載されたスピーカ等(図示せず)へ注意喚起情報を出力することにより、利用者に対して注意を喚起するための音声(例えば「追突のヒヤリハットが発生する危険度は0.8です」と発話した音声)がスピーカから出力される。
[1-3-4. Output section]
The output unit 503 outputs attention-calling information for calling attention to the user of the mobile body 105 (or the mobile body device 102) based on the danger level information received by the transmission / reception unit 501. For example, when the alert information is character information, the character information for alerting the user by outputting the alert information to a display or the like (not shown) mounted on the moving body 105 (not shown). (For example, a character string stating "The risk of a rear-end collision is 0.8") is displayed on the display. Further, for example, when the alert information is voice, the alert information is output to a speaker or the like (not shown) mounted on the moving body 105 to alert the user. (For example, a voice saying "The risk of a rear-end collision is 0.8") is output from the speaker.

[1-3-5.制御部]
制御部504は、上述した送受信部501、入力受付部502及び出力部503を管理及び制御することにより、移動体装置102の機能を実現する。
[1-3-5. Control unit]
The control unit 504 realizes the function of the mobile device 102 by managing and controlling the transmission / reception unit 501, the input reception unit 502, and the output unit 503 described above.

[1-4.危険判定システムの動作]
次に、図6を参照しながら、危険判定システム10の動作(危険判定方法)について説明する。図6は、実施の形態1に係る危険判定システム10の動作の流れを示すシーケンス図である。
[1-4. Operation of danger judgment system]
Next, the operation (danger determination method) of the danger determination system 10 will be described with reference to FIG. FIG. 6 is a sequence diagram showing an operation flow of the danger determination system 10 according to the first embodiment.

まず、移動体装置102は、入力受付部502で、移動体装置102を搭載する移動体105の周辺状況を撮影した現在地点画像と、その現在地点画像に関する付随情報とを入力として受け付ける(S601)。その後、移動体装置102は、受け付けた現在地点画像と付随情報とを、送受信部501を介してサーバ装置101へ送信する(S602)。 First, the mobile device 102 receives the current position image obtained by photographing the surrounding situation of the mobile body 105 on which the mobile device 102 is mounted and the accompanying information regarding the current position image as inputs (S601). .. After that, the mobile device 102 transmits the received current position image and accompanying information to the server device 101 via the transmission / reception unit 501 (S602).

サーバ装置101は、現在地点画像と付随情報とを、送受信部201を介して移動体装置102から受信する(S603)。その後、サーバ装置101は、画像解析部203で、受信した現在地点画像と付随情報とに基づいて、現在地点画像の撮影時点での現在地点における交通状況を解析する(S604)。その後、サーバ装置101は、危険度判定部204で、解析した交通状況に基づいて、危険発生情報管理部202が管理する危険地点画像と現在地点画像との類似性から、受信した現在地点画像の撮影時点で移動体105が置かれている状況の危険度を判定し、判定した危険度に関する危険度情報を生成する(S605)。 The server device 101 receives the current position image and accompanying information from the mobile device 102 via the transmission / reception unit 201 (S603). After that, the server device 101 analyzes the traffic condition at the current location at the time of shooting the current location image based on the received current location image and accompanying information by the image analysis unit 203 (S604). After that, the server device 101 receives the current position image from the similarity between the danger point image managed by the danger occurrence information management unit 202 and the current position image based on the traffic condition analyzed by the danger level determination unit 204. The risk level of the situation where the moving body 105 is placed at the time of shooting is determined, and the risk level information regarding the determined risk level is generated (S605).

このとき、現在地点(例えば図3の(a)に示すファイル名が「98765432.jpg」である現在地点画像に表された交差点A)に対応する危険地点画像が危険発生情報管理部202で管理されておらず、且つ、現在地点以外の地点(例えば図4の(a)に示すファイル名が「00445566.jpg」である危険地点画像に表された交差点B)に対応する危険地点画像が危険発生情報管理部202で管理されている場合には、危険度判定部204は、現在地点以外の地点(例えば上記交差点B)に対応する危険地点画像と現在地点画像との類似性に基づいて、危険度を判定する。 At this time, the danger point image corresponding to the current position (for example, the intersection A represented by the current position image whose file name is "98765432.jpg" shown in (a) of FIG. 3) is managed by the danger occurrence information management unit 202. The dangerous point image corresponding to a point other than the current point (for example, the intersection B shown in the dangerous point image whose file name shown in FIG. 4A is "00445566.jpg") is dangerous. When managed by the occurrence information management unit 202, the risk level determination unit 204 is based on the similarity between the danger point image corresponding to a point other than the current point (for example, the above intersection B) and the current position image. Determine the degree of risk.

また、現在地点(例えば上記交差点A)に対応する危険地点画像と、現在地点以外の地点(例えば上記交差点B)に対応する危険地点画像とが危険発生情報管理部202で管理されている場合には、危険度判定部204は、現在地点に対応する危険地点画像と現在地点以外の地点に対応する危険地点画像のうち、現在地点画像との類似性が最も高い危険地点画像を検索する。その結果、現在地点以外の地点(例えば上記交差点B)に対応する危険地点画像と現在地点画像との類似性が最も高い場合には、危険度判定部204は、現在地点以外の地点に対応する危険地点画像と現在地点画像との類似性に基づいて危険度を判定する。なお、現在地点に対応する危険地点画像と現在地点画像との類似性が最も高い場合には、危険度判定部204は、現在地点に対応する危険地点画像と現在地点画像との類似性に基づいて危険度を判定してもよい。 Further, when the danger point image corresponding to the current point (for example, the intersection A) and the danger point image corresponding to the point other than the current point (for example, the intersection B) are managed by the danger occurrence information management unit 202. Searches for a danger point image having the highest similarity to the current position image among the danger point image corresponding to the current point and the danger point image corresponding to a point other than the current point. As a result, when the similarity between the danger point image corresponding to the point other than the current position (for example, the intersection B) and the current position image is the highest, the risk determination unit 204 corresponds to the point other than the current position. The degree of danger is determined based on the similarity between the image of the danger point and the image of the current location. When the similarity between the danger point image corresponding to the current position and the current location image is the highest, the risk determination unit 204 is based on the similarity between the danger point image corresponding to the current location and the current location image. The degree of danger may be determined.

その後、サーバ装置101は、危険度が所定の範囲内である場合には、生成した危険度情報を、送受信部201を介して移動体装置102へ送信する(S606)。なお、所定の範囲内とは、例えば危険度が予め設定された閾値(例えば「0.5」)を超える場合などである。また、危険度情報の送信先となる移動体装置102は、例えばサーバ装置101が受信した移動体情報の送信元である移動体装置102である。 After that, when the risk level is within a predetermined range, the server device 101 transmits the generated risk level information to the mobile device 102 via the transmission / reception unit 201 (S606). The range within a predetermined range is, for example, a case where the degree of danger exceeds a preset threshold value (for example, “0.5”). Further, the mobile device 102 that is the transmission destination of the danger level information is, for example, the mobile device 102 that is the transmission source of the mobile information received by the server device 101.

移動体装置102は、サーバ装置101が判定した危険度に関する危険度情報を、送受信部501を介してサーバ装置101から受信する(S607)。その後、移動体装置102は、出力部503で、受信した危険度情報に基づいて、移動体105(又は移動体装置102)の利用者に対して注意を喚起するための注意喚起情報を出力する(S608)。 The mobile device 102 receives the risk information regarding the risk determined by the server device 101 from the server device 101 via the transmission / reception unit 501 (S607). After that, the mobile device 102 outputs the caution information for calling the user of the mobile 105 (or the mobile device 102) based on the received risk information on the output unit 503. (S608).

[1-5.危険判定システムの適用例]
次に、図7を参照しながら、実施の形態1に係る危険判定システム10を適用したサービスの一例について説明する。図7は、実施の形態1に係る危険判定システム10を適用したサービスの一例を説明するための図である。
[1-5. Application example of danger judgment system]
Next, an example of a service to which the danger determination system 10 according to the first embodiment is applied will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of a service to which the danger determination system 10 according to the first embodiment is applied.

図7の(a)に示すグループ700は、例えば企業、団体又は家庭等であり、その規模を問わない。グループ700には、複数の移動体装置102及び通信装置703が存在する。複数の移動体装置102の各々は、インターネットと直接接続可能な機器(例えば、通信モジュール付きのカーナビ、スマートフォン、タブレット又はパーソナルコンピュータ等)、あるいは、それ自身ではインターネットと直接接続不可能な機器(例えば、通信モジュールの無いカーナビ等)である。なお、複数の移動体装置102の各々は、それ自身ではインターネットと直接接続不可能な機器である場合、通信装置703を介してインターネットと接続可能となる機器であっても良い。また、グループ700には、複数の移動体装置102を使用するユーザ701が存在する。 The group 700 shown in FIG. 7A is, for example, a company, a group, a household, or the like, and the scale thereof does not matter. There are a plurality of mobile devices 102 and communication devices 703 in the group 700. Each of the plurality of mobile devices 102 is a device that can be directly connected to the Internet (for example, a car navigation system with a communication module, a smartphone, a tablet, a personal computer, etc.), or a device that cannot be directly connected to the Internet by itself (for example,). , Car navigation without communication module, etc.). If each of the plurality of mobile devices 102 is a device that cannot be directly connected to the Internet by itself, it may be a device that can be connected to the Internet via the communication device 703. Further, in the group 700, there is a user 701 who uses a plurality of mobile devices 102.

図7の(a)に示すデータセンタ運営会社710には、上述したサーバ装置101が存在する。サーバ装置101は、インターネットを介して様々な機器と連携する仮想化サーバであり、主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社710は、データ管理、サーバ装置101の管理、及び、それらを行うデータセンタの運営等を行っている。データセンタ運営会社710が行っている役務については後で詳述する。 The above-mentioned server device 101 exists in the data center operating company 710 shown in FIG. 7A. The server device 101 is a virtualization server that cooperates with various devices via the Internet, and mainly manages huge data (big data) and the like that are difficult to handle with a normal database management tool or the like. The data center operating company 710 manages data, manages the server device 101, and operates a data center that manages the data center. The services performed by the data center operating company 710 will be described in detail later.

ここで、データセンタ運営会社710は、データ管理及びサーバ装置101の運営等のみを行っている会社に限らない。図7の(b)に示すように、例えば、複数の移動体装置102のうちの一つの装置を開発・製造している装置メーカが、併せてデータ管理及びサーバ装置101の管理等を行っている場合は、装置メーカがデータセンタ運営会社710に該当する。 Here, the data center operating company 710 is not limited to a company that only manages data and operates the server device 101. As shown in FIG. 7 (b), for example, an apparatus maker who develops and manufactures one of a plurality of mobile apparatus 102 also manages data, server apparatus 101, and the like. If so, the equipment manufacturer corresponds to the data center operating company 710.

また、データセンタ運営会社710は一つの会社に限らない。図7の(c)に示すように、例えば、装置メーカと他の管理会社とが共同又は分担してデータ管理及びサーバ装置101の運営等を行っている場合は、両者又はいずれか一方がデータセンタ運営会社710に該当する。 Further, the data center operating company 710 is not limited to one company. As shown in FIG. 7 (c), for example, when the device manufacturer and another management company jointly or share data management and operation of the server device 101, either or both of them perform data. It corresponds to the center operating company 710.

図7の(a)に示すサービスプロバイダ720は、サーバ装置721を保有している。サーバ装置721は、その規模は問わず、例えば個人用パーソナルコンピュータ内のメモリ等であってもよい。なお、サービスプロバイダ720がサーバ装置721を保有していない場合もあり得る。 The service provider 720 shown in FIG. 7A has a server device 721. The scale of the server device 721 may be limited, for example, a memory in a personal personal computer or the like. It is possible that the service provider 720 does not have the server device 721.

次に、図7の(a)を参照しながら、危険判定システム10を適用したサービスにおける情報の流れについて説明する。 Next, the flow of information in the service to which the danger determination system 10 is applied will be described with reference to FIG. 7A.

まず、グループ700の移動体装置102は、移動体装置102を搭載する移動体105(図1参照)の周辺状況を撮影した現在地点画像と、その現在地点画像に関する付随情報とを、データセンタ運営会社710のサーバ装置101に送信する。これにより、サーバ装置101は、移動体装置102から送信された現在地点画像と付随情報とを集積する(図7に示す(A))。なお、現在地点画像と付随情報とは、インターネットを介して複数の移動体装置102自体から直接サーバ装置101に提供されても良い。また、現在地点画像と付随情報とは、複数の移動体装置102から通信装置703を介してサーバ装置101に提供されても良い。 First, the mobile device 102 of the group 700 operates a data center by capturing an image of the current position of the mobile body 105 (see FIG. 1) on which the mobile device 102 is mounted and incidental information related to the current position image. It is transmitted to the server device 101 of the company 710. As a result, the server device 101 collects the current position image and the accompanying information transmitted from the mobile device 102 ((A) shown in FIG. 7). The current location image and accompanying information may be provided directly to the server device 101 from the plurality of mobile devices 102 themselves via the Internet. Further, the current position image and the accompanying information may be provided from the plurality of mobile devices 102 to the server device 101 via the communication device 703.

次に、データセンタ運営会社710のサーバ装置101は、集積した現在地点画像と付随情報とを一定の単位でサービスプロバイダ720に提供する。ここで、データセンタ運営会社710が提供する情報の単位は、集積した現在地点画像と付随情報とを整理してサービスプロバイダ720に提供することの可能な単位でも良く、あるいは、サービスプロバイダ720が要求した単位でも良い。また、データセンタ運営会社710が提供する情報の単位は一定でなくても良く、状況に応じて提供する情報量が変化しても良い。 Next, the server device 101 of the data center operating company 710 provides the accumulated current position image and accompanying information to the service provider 720 in a fixed unit. Here, the unit of information provided by the data center operating company 710 may be a unit capable of organizing the accumulated current position image and accompanying information and providing the service provider 720, or the service provider 720 requests. It may be a unit that has been used. Further, the unit of information provided by the data center operating company 710 does not have to be constant, and the amount of information provided may change depending on the situation.

現在地点画像と付随情報とは、必要に応じてサービスプロバイダ720が保有するサーバ装置721に保存される(図7に示す(B))。その後、サービスプロバイダ720は、現在地点画像と付随情報とを、ユーザに提供するサービスに適合する情報(危険度情報又はそれに基づいて出力される注意喚起情報)に整理し、ユーザに提供する。提供先となるユーザは、複数の移動体装置102を使用するユーザ701でも良く、あるいは、外部のユーザ702でも良い。 The current location image and accompanying information are stored in the server device 721 owned by the service provider 720 as needed ((B) shown in FIG. 7). After that, the service provider 720 organizes the current location image and the accompanying information into information suitable for the service provided to the user (risk degree information or alert information output based on the risk information) and provides the user with the information. The user to be provided may be a user 701 who uses a plurality of mobile devices 102, or an external user 702.

なお、現在地点画像と付随情報とは、例えば、サービスプロバイダ720から直接ユーザ702(又はユーザ701)へ提供されても良く(図7に示す(E)又は(F))、あるいは、データセンタ運営会社710のサーバ装置101を再度経由してユーザ701に提供されても良い(図7に示す(C)及び(D))。また、データセンタ運営会社710のサーバ装置101は、現在地点画像と付随情報とを、ユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ720に提供しても良い。なお、ユーザ701とユーザ702とは、別のユーザでも同一のユーザでも良い。 The current location image and accompanying information may be provided directly from the service provider 720 to the user 702 (or the user 701) ((E) or (F) shown in FIG. 7), or the data center operation. It may be provided to the user 701 via the server device 101 of the company 710 again ((C) and (D) shown in FIGS. 7). Further, the server device 101 of the data center operating company 710 may organize the current location image and accompanying information into information suitable for the service provided to the user and provide the service provider 720. The user 701 and the user 702 may be different users or the same user.

[1-6.効果]
次に、実施の形態1に係る危険判定システム10により得られる効果について説明する。上述したように、危険度判定部204は、現在地点画像に関する付随情報が示す現在地点(例えば上記交差点A)に対応する危険発生情報が危険発生情報管理部202に格納されていない場合であっても、現在地点以外の地点(例えば上記交差点B)に対応する危険発生情報に含まれる危険地点画像と現在地点画像との類似性に基づいて、危険度を判定する。これにより、移動体105が危険発生情報管理部202で管理されている危険発生情報に対応する危険地点以外の地点(例えば上記交差点A)を通過する場合であっても、精度良く危険度を判定することができ、例えば移動体105の利用者に対して危険を報知又は警告等することができる。
[1-6. effect]
Next, the effect obtained by the danger determination system 10 according to the first embodiment will be described. As described above, the danger level determination unit 204 is a case where the danger occurrence information corresponding to the current position (for example, the above intersection A) indicated by the accompanying information regarding the current position image is not stored in the danger occurrence information management unit 202. Also, the degree of danger is determined based on the similarity between the danger point image included in the danger occurrence information corresponding to the point other than the current point (for example, the intersection B) and the current position image. As a result, even when the moving body 105 passes through a point other than the danger point corresponding to the danger occurrence information managed by the danger occurrence information management unit 202 (for example, the above intersection A), the danger level is accurately determined. For example, it is possible to notify or warn the user of the moving body 105 of the danger.

[1-7.実施の形態1の変形例]
[1-7-1.変形例1]
サーバ装置101が危険発生情報管理部202で管理する危険地点画像は、撮影された画像そのものである必要はなく、危険度判定部204で現在地点画像との類似度を算出しやすい画像へ加工しても良く、あるいは、そのように加工された1つ以上の危険地点画像を新たに元の危険地点画像と紐付けて管理しても良い。
[1-7. Modification of Embodiment 1]
[1-7-1. Modification 1]
The danger point image managed by the server device 101 in the danger occurrence information management unit 202 does not have to be the captured image itself, and is processed into an image in which the danger degree determination unit 204 can easily calculate the similarity with the current position image. Alternatively, one or more danger point images processed in this way may be newly associated with the original danger point image and managed.

具体的には、例えば道路形状を含む場所に関する状況、交通環境及び自車行動等の交通状況に関わる画像特徴量を浮き立たせた二値化画像へ加工しても良く、あるいは、その二値化画像を元の危険地点画像と紐付けて管理しても良い。 Specifically, for example, the image features related to the situation including the road shape, the traffic environment, and the behavior of the own vehicle may be processed into a binarized image that highlights the image features, or the binarization thereof. The image may be managed by associating it with the original danger point image.

さらには、交通状況に関する画像特徴量を、道路形状を含む場所に関する状況、交通環境及び自車行動などの別に応じた複数の二値化画像として元の危険地点画像と紐付けて管理しても良い。この場合、危険度判定部204は、元の危険地点画像と現在地点画像との類似性ではなく、例えば二値化画像に加工された危険地点画像と現在地点画像との類似性を算出することが望ましい。 Furthermore, even if the image feature amount related to the traffic situation is managed in association with the original danger point image as a plurality of binarized images according to the situation regarding the place including the road shape, the traffic environment, the behavior of the own vehicle, etc. good. In this case, the risk determination unit 204 calculates not the similarity between the original danger point image and the current location image, but the similarity between the danger point image processed into a binarized image and the current location image, for example. Is desirable.

[1-7-2.変形例2]
サーバ装置101が危険発生情報管理部202で管理する危険地点画像の付随情報は、撮影時に取得した値そのものである必要はなく、危険度判定部204で現在地点画像と危険地点画像との類似度を算出する上で意味がある(又は類似度を算出しやすい)粒度へ置き換えても良く、あるいは、その粒度の付随情報を新たに付与しても良い。
[1-7-2. Modification 2]
The accompanying information of the danger point image managed by the server device 101 in the danger occurrence information management unit 202 does not have to be the value itself acquired at the time of shooting, and the similarity between the current position image and the danger point image in the danger level determination unit 204. It may be replaced with a particle size that is meaningful in calculating (or it is easy to calculate the similarity), or ancillary information of the particle size may be newly added.

具体的には、撮影日時について意味がある(又は類似度を算出しやすい)粒度とは、例えば0時から1時間毎に24個の時間帯、午前/午後、月日、曜日、季節、祭日、いわゆるゴトー日(5日、10日、15日、20日、25日、30日)等である。また、撮影位置について意味がある(又は類似度を算出しやすい)粒度とは、例えば地図情報を一律の大きさの矩形状に分割した地域、又は、道路を所定距離毎に分割した道路区間等である。さらに、撮影(進行)方向について意味がある(又は類似度を算出しやすい)粒度とは、例えば東西南北の4方位、さらに北東/南東/北西/南西を加えた8方位、あるいは道路の上り/下り等である。 Specifically, the particle size that is meaningful (or easy to calculate the similarity) for the shooting date and time is, for example, 24 time zones, morning / afternoon, month / day, day of the week, season, and holidays every hour from 0:00. , So-called Goto days (5th, 10th, 15th, 20th, 25th, 30th) and the like. In addition, the particle size that is meaningful (or easy to calculate the similarity) for the shooting position is, for example, an area where map information is divided into rectangular shapes of a uniform size, or a road section where a road is divided into predetermined distances. Is. Furthermore, the particle size that is meaningful (or easy to calculate the similarity) in the shooting (traveling) direction is, for example, four directions of north, south, east, and west, eight directions including northeast / southeast / northwest / southwest, or up / of the road. Downhill, etc.

また、サーバ装置101が危険発生情報管理部202で管理する危険地点画像の付随情報は、撮影時点での交通状況に限定される必要はなく、現在地点画像を取得した移動体装置102を搭載する移動体105に関する種々の属性情報を含んでいても良い。この場合、危険度判定部204は、危険地点画像と現在地点画像との類似性ばかりでなく、これら種々の属性情報も含めた類似性を算出することが望ましい。ここで、種々の属性情報とは、例えば移動体105である自車両の重量、排気量及び車種等である。車種とは、例えばセダン、ワゴン又はトラック等である。これらの属性情報は移動体105毎に固定であり、例えば移動体105に応じて移動体装置102に予め設定しておくなどの方法により取得可能である。 Further, the accompanying information of the danger point image managed by the server device 101 in the danger occurrence information management unit 202 does not have to be limited to the traffic condition at the time of shooting, and the mobile device 102 that has acquired the current position image is mounted. It may include various attribute information about the moving body 105. In this case, it is desirable that the risk level determination unit 204 calculate not only the similarity between the danger point image and the current position image but also the similarity including these various attribute information. Here, the various attribute information is, for example, the weight, displacement, vehicle type, etc. of the own vehicle which is the moving body 105. The vehicle type is, for example, a sedan, a wagon, a truck, or the like. These attribute information are fixed for each moving body 105, and can be acquired by, for example, setting in advance in the moving body device 102 according to the moving body 105.

[1-7-3.変形例3]
サーバ装置101が危険発生情報管理部202で管理する危険地点画像の付随情報は、危険地点画像に映る事故又はヒヤリハット等の危険事象の内容を説明する情報を含んでも良い。さらに、サーバ装置101が危険度判定部204で生成する危険度情報は、危険事象の内容を説明する情報の一部又は全てを含んでいても良い。
[1-7-3. Modification 3]
The incidental information of the danger point image managed by the server device 101 by the danger occurrence information management unit 202 may include information explaining the content of the danger event such as an accident or a hiyari hat reflected in the danger point image. Further, the risk information generated by the server device 101 by the risk determination unit 204 may include a part or all of the information explaining the content of the danger event.

ここで、図4の(a)を参照しながら、危険事象の内容を説明する情報の一例について説明する。図4の(a)に示すように、ファイル名が「00000123.jpg」である危険地点画像について危険事象の内容を説明する情報は、例えば「出会い頭のヒヤリハット」などである。また、ファイル名が「00445566.jpg」である危険地点画像について危険事象の内容を説明する情報は、例えば「追突のヒヤリハット」などである。また、ファイル名が「77088099.jpg」である危険地点画像について危険事象の内容を説明する情報は、例えば「対向横断者とのヒヤリハット」などである。 Here, an example of information for explaining the content of the dangerous event will be described with reference to FIG. 4A. As shown in FIG. 4A, the information for explaining the content of the dangerous event for the dangerous point image whose file name is “000000123.jpg” is, for example, “Hiyari hat of encounter”. Further, the information for explaining the content of the dangerous event for the dangerous point image whose file name is "00445566.jpg" is, for example, "rear-end collision hiyari hat". Further, the information for explaining the content of the dangerous event for the dangerous point image whose file name is "77088099.jpg" is, for example, "Hiyari hat with an oncoming crossing person".

この場合における危険度情報の生成方法の一例について説明する。例えばサーバ装置101が、送受信部201で図3の(a)に示すファイル名が「98765432.jpg」である現在地点画像を受信し、さらに危険度判定部204で図4の(a)に示すファイル名が「00445566.jpg」である危険地点画像と現在地点画像との類似性に基づいて、危険度が「0.8」であると判定した場合には、危険度判定部204で生成される危険度情報は、例えば「追突のヒヤリハットが発生する危険度は0.8」などである。 An example of a method for generating risk information in this case will be described. For example, the server device 101 receives the current position image in which the file name shown in FIG. 3 (a) is "98765432.jpg" by the transmission / reception unit 201, and further, the risk level determination unit 204 shows it in FIG. 4 (a). When it is determined that the risk level is "0.8" based on the similarity between the danger point image whose file name is "00445566.jpg" and the current position image, it is generated by the risk level determination unit 204. The risk information is, for example, "the risk of a collision hire hat is 0.8".

[1-7-4.変形例4]
サーバ装置101が移動体装置102から受信する現在地点画像の付随情報は、現在地点画像の撮影に関する情報に限定される必要はなく、移動体105に別途搭載されるセンサ類から取得された、移動体105の走行状況を示す種々のセンサ情報(第3のセンサ情報の一例)を含んでいても良い。この場合、危険度判定部204は、危険地点画像と現在地点画像との類似性ばかりでなく、これら種々のセンサ情報も含めた類似性を算出することが望ましい。
[1-7-4. Modification 4]
The accompanying information of the current position image received by the server device 101 from the mobile device 102 does not have to be limited to the information related to the shooting of the current position image, and is a movement acquired from sensors separately mounted on the mobile body 105. Various sensor information (an example of the third sensor information) indicating the traveling state of the body 105 may be included. In this case, it is desirable that the risk level determination unit 204 calculate not only the similarity between the danger point image and the current position image but also the similarity including these various sensor information.

ここで、種々のセンサ情報とは、例えばGPS(Global Positioning System)等の位置センサ、加速度センサ及びジャイロ等の角速度センサから取得される移動体105の走行速度、加速度及び角速度等である。さらに、センサ情報は、上記のものに限定されず、例えば画像解析部203で交通状況を解析する上で必要となる任意の情報を含むことができる。例えば移動体105が車両である場合には、センサ情報は、ハンドル操作、ブレーキ操作、アクセル操作及びワイパー操作等を含んでいても良く、これらは、例えばCAN(Control Area Network)等の車両内のネットワークから取得可能である。 Here, the various sensor information is, for example, the traveling speed, acceleration, and angular velocity of the moving body 105 acquired from a position sensor such as GPS (Global Positioning System), an acceleration sensor, and an angular velocity sensor such as a gyro. Further, the sensor information is not limited to the above, and may include, for example, arbitrary information necessary for analyzing the traffic condition by the image analysis unit 203. For example, when the moving body 105 is a vehicle, the sensor information may include a steering wheel operation, a brake operation, an accelerator operation, a wiper operation, and the like, and these may be included in the vehicle such as CAN (Control Area Network). It can be obtained from the network.

また、サーバ装置101が移動体装置102から受信する現在地点画像の付随情報は、現在地点画像を取得した移動体装置102を搭載する移動体105に関する種々の属性情報を含んでいても良い。この場合、危険度判定部204は、危険地点画像と現在地点画像との類似性ばかりでなく、これら種々の属性情報も含めた類似性を算出することが望ましい。ここで、種々の属性情報とは、例えば移動体105である自車両の重量、排気量及び車種等である。車種とは、例えばセダン、ワゴン又はトラック等である。これらの属性情報は移動体105毎に固定であり、例えば移動体105に応じて移動体装置102に予め設定しておくなどの方法で取得可能である。 Further, the accompanying information of the current position image received by the server device 101 from the mobile device 102 may include various attribute information regarding the mobile body 105 on which the mobile device 102 that has acquired the current position image is mounted. In this case, it is desirable that the risk level determination unit 204 calculate not only the similarity between the danger point image and the current position image but also the similarity including these various attribute information. Here, the various attribute information is, for example, the weight, displacement, vehicle type, etc. of the own vehicle which is the moving body 105. The vehicle type is, for example, a sedan, a wagon, a truck, or the like. These attribute information are fixed for each moving body 105, and can be acquired by, for example, setting in advance in the moving body device 102 according to the moving body 105.

[1-7-5.変形例5]
サーバ装置101は、画像解析部203における交通状況の解析処理、及び、危険度判定部204における危険地点画像と現在地点画像との類似性の算出処理を、必ずしも個別に順次実施する必要はない。例えば、ディープラーニング(深層学習)と呼ばれる機械学習法等を用いることにより、交通状況の解析処理と類似性の算出処理とを同時並行で実施しても良い。
[1-7-5. Modification 5]
The server device 101 does not necessarily have to individually and sequentially perform the traffic condition analysis processing in the image analysis unit 203 and the similarity calculation processing between the danger point image and the current position image in the danger level determination unit 204. For example, by using a machine learning method called deep learning, the traffic condition analysis process and the similarity calculation process may be performed in parallel.

[1-7-6.変形例6]
サーバ装置101は、危険発生情報管理部202において、移動体105が遭遇した危険事象の深刻度も各危険地点画像の付随情報として紐付けて管理してもよい。この場合には、危険度判定部204において、最も類似性が高い危険地点画像と現在地点画像との類似度と、当該危険地点画像と紐付けて管理している深刻度とを例えば乗じることにより、現在地点画像の撮影時点で移動体105が置かれている状況の危険度を判定しても良い。
[1-7-6. Modification 6]
In the danger occurrence information management unit 202, the server device 101 may also manage the severity of the danger event encountered by the moving body 105 in association with the incidental information of each danger point image. In this case, in the risk determination unit 204, for example, by multiplying the similarity between the danger point image having the highest similarity and the current position image and the severity managed in association with the danger point image, for example. , The degree of danger of the situation where the moving body 105 is placed at the time of taking the image of the current position may be determined.

ここで、深刻度は、移動体105が遭遇した危険事象の深刻度合いを、予め決められた基準に基づいて表現したものであれば何でも良い。例えば、深刻度は、事故が起こったか否か、人的被害の大きさ、又は、支払われた保険金額の大きさ等の深刻度合いを、例えば「0」から「1」までの点数(0.1刻みの粒度)等へ変換したものである。なお、深刻度合いは、例えば警察又は運送事業者等が保有する事故又はヒヤリハット等の発生実績情報、あるいは、損保事業者等が保有する事故査定情報等から任意の方法で取得していれば良く、ここではその説明を省略する。 Here, the severity may be anything as long as the severity of the dangerous event encountered by the mobile body 105 is expressed based on a predetermined standard. For example, the severity is the degree of seriousness such as whether or not an accident has occurred, the magnitude of human damage, or the magnitude of the amount of insurance paid, for example, a score from "0" to "1" (0. It is converted to 1-step particle size) and the like. The degree of seriousness may be obtained by any method from, for example, accident record information such as accidents or hiyari hats held by police or transportation companies, or accident assessment information held by non-life insurance companies. The description thereof is omitted here.

[1-7-7.変形例7]
サーバ装置101は、危険度判定部204が判定した危険度が所定の範囲内である場合に、送受信部201が受信した現在地点画像を、危険発生情報管理部202において新たな危険地点画像として蓄積(追加)し、現在地点画像の付随情報と紐付けて管理しても良い。ここで、所定の範囲内とは、例えば予め設定された閾値(例えば「0.5」)を超える場合などである。
[1-7-7. Modification 7]
The server device 101 stores the current position image received by the transmission / reception unit 201 as a new danger point image in the danger occurrence information management unit 202 when the danger level determined by the danger level determination unit 204 is within a predetermined range. It may be (added) and managed by associating it with the accompanying information of the current location image. Here, the predetermined range is, for example, a case where a preset threshold value (for example, “0.5”) is exceeded.

[1-7-8.変形例8]
サーバ装置101が判定した危険度に関する危険度情報の送信先となる移動体装置102は、サーバ装置101が受信した現在地点画像の送信元である移動体装置102と同じである必要はない。例えば移動体105が車両である場合には、先行車両から送信された現在地点画像に基づいて判定した特定地点に対応する危険度に関する危険度情報を、同じ特定地点を少し遅れて(例えば、移動体情報を受信してから所定時間内に)通過すると判断された後続車両(別の移動体105)に搭載された移動体装置102へ送信してもよい。これにより、後続車両の利用者(ドライバ)に対して注意を喚起することができる。
[1-7-8. Modification 8]
The mobile device 102 that is the destination of the risk information regarding the risk determined by the server device 101 does not have to be the same as the mobile device 102 that is the source of the current position image received by the server device 101. For example, when the moving body 105 is a vehicle, the risk information regarding the degree of danger corresponding to the specific point determined based on the current position image transmitted from the preceding vehicle is slightly delayed from the same specific point (for example, moving). It may be transmitted to the moving body device 102 mounted on the following vehicle (another moving body 105) determined to pass (within a predetermined time after receiving the body information). As a result, it is possible to call attention to the user (driver) of the following vehicle.

(実施の形態2)
[2-1.危険判定システムの全体構成]
図8を参照しながら、実施の形態2に係る危険判定システム10Aの全体構成について説明する。図8は、実施の形態2に係る危険判定システム10Aの構成を示すブロック図である。なお、本実施の形態において、実施の形態1と同一の構成要素には同一の符号を付して、その説明を省略する。
(Embodiment 2)
[2-1. Overall configuration of danger judgment system]
The overall configuration of the danger determination system 10A according to the second embodiment will be described with reference to FIG. FIG. 8 is a block diagram showing a configuration of the danger determination system 10A according to the second embodiment. In the present embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

図8に示すように、危険判定システム10Aは、サーバ装置101A及び複数の移動体装置102を備えている。移動体装置102は、実施の形態1で説明したものと同様である。 As shown in FIG. 8, the danger determination system 10A includes a server device 101A and a plurality of mobile devices 102. The mobile device 102 is the same as that described in the first embodiment.

サーバ装置101Aは、実施の形態1で説明した画像データベース103に加えて、指標データベース106(指標管理部の一例)を備えている。指標データベース106には、過去に発生した事故又はヒヤリハット等の危険事象の危険度に関する危険指標(危険判定情報)が、危険事象の発生日時、発生位置及び発生方向(すなわち、移動体105の進行方向)等の付随情報と紐付けて管理(格納)されている。ここで、危険指標は、例えば警察又は運送事業者等が保有する事故又はヒヤリハット等の発生実績情報、あるいは、損保事業者等が保有する事故査定情報等から任意の方法で予め取得又は算出していれば良く、ここではその説明を省略する。 The server device 101A includes an index database 106 (an example of an index management unit) in addition to the image database 103 described in the first embodiment. In the index database 106, the danger index (danger determination information) regarding the degree of danger of a dangerous event such as an accident or a hiyari hat that has occurred in the past includes the date and time of occurrence of the dangerous event, the position of occurrence, and the direction of occurrence (that is, the traveling direction of the moving body 105). ) Etc. are linked and managed (stored). Here, the risk index is obtained or calculated in advance by any method from, for example, accident record information such as accidents or hiyari hats held by police or transportation companies, or accident assessment information held by non-life insurance companies. However, the description thereof will be omitted here.

サーバ装置101Aは、移動体装置102から受信した付随情報と、指標データベース106に管理されている危険指標との類似性に基づいて、現在地点画像の撮影時点で移動体105が置かれている状況の危険度である第1の危険度を決定する。さらに、サーバ装置101Aは、決定した第1の危険度に関する第1の危険度情報を、ネットワーク104を介して移動体装置102へ送信する。 The server device 101A is in a situation where the mobile body 105 is placed at the time of taking the current position image based on the similarity between the incidental information received from the mobile device 102 and the danger index managed in the index database 106. Determine the first risk level, which is the risk level of. Further, the server device 101A transmits the first risk level information regarding the determined first risk level to the mobile device 102 via the network 104.

また、サーバ装置101Aは、移動体装置102から受信した現在地点画像とその付随情報とに基づいて、現在地点画像の撮影時点での交通状況を解析し、画像データベース103に管理されている危険地点画像と現在地点画像との類似性から、現在地点画像の撮影時点で移動体105が置かれている状況の危険度である第2の危険度を判定する。さらに、サーバ装置101Aは、判定した第2の危険度が所定の範囲内である場合に、判定した第2の危険度に関する第2の危険度情報を新たな危険指標として指標データベース106に蓄積(追加)し、現在地点画像の付随情報と紐付けて管理する。ここで、所定の範囲内とは、例えば予め設定された閾値(例えば「0.5」)を超える場合などである。 Further, the server device 101A analyzes the traffic condition at the time of shooting the current position image based on the current position image received from the mobile device 102 and the accompanying information thereof, and the dangerous point managed in the image database 103. From the similarity between the image and the current position image, the second risk level, which is the risk level of the situation in which the moving body 105 is placed at the time of shooting the current position image, is determined. Further, when the determined second risk level is within a predetermined range, the server device 101A stores the second risk level information regarding the determined second risk level in the index database 106 as a new risk index (as a new risk index). Add) and manage by associating with the accompanying information of the current location image. Here, the predetermined range is, for example, a case where a preset threshold value (for example, “0.5”) is exceeded.

[2-2.サーバ装置の構成]
[2-2-1.サーバ装置の全体構成]
次に、図9を参照しながら、サーバ装置101Aの全体構成について詳細に説明する。図9は、実施の形態2に係るサーバ装置101Aの構成を示すブロック図である。
[2-2. Server device configuration]
[2-2-1. Overall configuration of server device]
Next, the overall configuration of the server device 101A will be described in detail with reference to FIG. FIG. 9 is a block diagram showing a configuration of the server device 101A according to the second embodiment.

図9に示すように、サーバ装置101Aは、送受信部201、危険発生情報管理部202、画像解析部203、危険度判定部204A及び制御部205Aに加えて、危険判定情報管理部206を備えている。 As shown in FIG. 9, the server device 101A includes a danger determination information management unit 206 in addition to the transmission / reception unit 201, the danger occurrence information management unit 202, the image analysis unit 203, the risk level determination unit 204A, and the control unit 205A. There is.

サーバ装置101Aは、具体的には図示されていないマイクロプロセッサ、RAM、ROM及びハードディスク等で構成される。これらのRAM、ROM及びハードディスクにはコンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、サーバ装置101Aはその機能を果たす。 The server device 101A is specifically composed of a microprocessor, RAM, ROM, a hard disk, or the like (not shown). Computer programs are stored in these RAMs, ROMs, and hard disks. When the microprocessor operates according to this computer program, the server device 101A fulfills its function.

なお、サーバ装置101Aの送受信部201、危険発生情報管理部202、画像解析部203、危険度判定部204A、制御部205A及び危険判定情報管理部206等の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、1以上の機能ブロック又は各機能ブロックの一部を含むように1チップ化されても良い。ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI又はウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現しても良い。LSIの製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続及び設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適用などが可能性としてありえる。最後に、各機能ブロックは、ソフトウェアで実現されても良いし、LSIとソフトウェアとの組み合わせで実現されても良い。また、ソフトウェアは耐タンパ化されていても良い。 The functional blocks of the server device 101A, such as the transmission / reception unit 201, the danger occurrence information management unit 202, the image analysis unit 203, the risk level determination unit 204A, the control unit 205A, and the danger determination information management unit 206, are typically integrated. It is realized as an LSI that is a circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include one or more functional blocks or a part of each functional block. Although it is referred to as LSI here, it may be referred to as IC, system LSI, super LSI or ultra LSI depending on the degree of integration. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. After manufacturing the LSI, a programmable FPGA or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used. Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology. The application of biotechnology may be possible. Finally, each functional block may be realized by software or may be realized by a combination of LSI and software. Also, the software may be tamper resistant.

[2-2-2.送受信部]
送受信部201は、実施の形態1で説明したものと同様であるが、危険度判定部204Aで決定された第1の危険度に関する第1の危険度情報を移動体装置102に送信する。
[2-2-2. Transmitter / receiver]
The transmission / reception unit 201 is the same as that described in the first embodiment, but transmits the first risk level information regarding the first risk level determined by the risk level determination unit 204A to the mobile device 102.

[2-2-3.危険発生情報管理部]
危険発生情報管理部202は、実施の形態1で説明したものと同様である。
[2-2-3. Hazard Information Management Department]
The danger occurrence information management unit 202 is the same as that described in the first embodiment.

[2-2-4.画像解析部]
画像解析部203は、実施の形態1で説明したものと同様である。
[2-2-4. Image analysis unit]
The image analysis unit 203 is the same as that described in the first embodiment.

[2-2-5.危険度判定部]
危険度判定部204Aは、送受信部201で受信した現在地点画像に関する付随情報と、危険判定情報管理部206に管理されている危険判定情報との類似性に基づいて、現在地点画像の撮影時点で移動体105が置かれている状況の危険度である第1の危険度を決定し、決定した第1の危険度に関する第1の危険度情報を生成する。なお、第1の危険度情報の生成方法については、実施の形態1で説明したものと同様である。
[2-2-5. Danger level judgment unit]
The danger level determination unit 204A is based on the similarity between the incidental information about the current position image received by the transmission / reception unit 201 and the danger determination information managed by the danger determination information management unit 206, at the time of shooting the current position image. The first risk level, which is the risk level of the situation in which the moving body 105 is placed, is determined, and the first risk level information regarding the determined first risk level is generated. The method of generating the first risk information is the same as that described in the first embodiment.

ここで、第1の危険度の決定方法の一例について説明する。危険判定情報管理部206が例えば後述する図10に示す危険判定情報を管理し、送受信部201が例えば図3の(b)に示すファイル名が「98765432.jpg」である現在地点画像の付随情報を受信したとする。この場合、例えば両者の時間帯が同じ12時台であること、両者の位置(緯度経度)及び進行方向が近接していることなどを踏まえ、危険度判定部204Aは、「2014年12月8日12時00分20秒」に発生した危険事象の危険判定情報と現在地点画像の付随情報との類似性に基づいて、第1の危険度が「0.9」であると決定する。 Here, an example of the first method for determining the degree of risk will be described. The danger determination information management unit 206 manages, for example, the danger determination information shown in FIG. 10, which will be described later, and the transmission / reception unit 201, for example, the accompanying information of the current position image whose file name shown in FIG. Is received. In this case, for example, based on the fact that the time zones of both are in the same 12 o'clock range, the positions (latitude and longitude) of both are close to each other, and the direction of travel is close to each other, the risk determination unit 204A is instructed to "December 8, 2014. Based on the similarity between the danger determination information of the dangerous event that occurred at "12:00:20 on the day" and the accompanying information of the current location image, it is determined that the first danger level is "0.9".

また、危険度判定部204Aは、画像解析部203で解析した交通状況に基づいて、危険発生情報管理部202に管理されている危険地点画像と現在地点画像との類似性から、送受信部201が受信した現在地点画像の撮影時点で移動体105が置かれている状況の危険度である第2の危険度を判定する。さらに、危険度判定部204Aは、判定した第2の危険度に関する第2の危険度情報を生成する。ここで、危険地点画像と現在地点画像との類似性の算出方法、第2の危険度の判定方法、及び、第2の危険度情報の生成方法については、実施の形態1で説明したものと同様である。 Further, in the danger level determination unit 204A, the transmission / reception unit 201 is based on the similarity between the danger point image managed by the danger occurrence information management unit 202 and the current position image based on the traffic condition analyzed by the image analysis unit 203. A second degree of danger, which is the degree of danger of the situation in which the moving body 105 is placed at the time of taking the received current position image, is determined. Further, the risk level determination unit 204A generates a second risk level information regarding the determined second risk level. Here, the method of calculating the similarity between the danger point image and the current position image, the method of determining the second degree of danger, and the method of generating the second degree of danger information are as described in the first embodiment. The same is true.

[2-2-6.危険判定情報管理部]
危険判定情報管理部206は、上述した指標データベース106を含んでおり、危険判定情報を管理(格納)する。すなわち、危険判定情報管理部206は、過去に発生した事故又はヒヤリハット等の危険事象の危険度に関する危険判定情報を蓄積し、発生日時、発生位置及び発生(進行)方向等の付随情報と紐付けて管理する。
[2-2-6. Danger Judgment Information Management Department]
The danger determination information management unit 206 includes the index database 106 described above, and manages (stores) the danger determination information. That is, the danger judgment information management unit 206 accumulates danger judgment information regarding the degree of danger of accidents or dangerous events such as hiyari hats that have occurred in the past, and associates them with incidental information such as the date and time of occurrence, the position of occurrence, and the direction of occurrence (progress). To manage.

ここで、図10を参照しながら、危険判定情報管理部206が管理する危険判定情報の一例について説明する。図10は、実施の形態2に係る危険判定情報の一例を示す図である。 Here, an example of the danger determination information managed by the danger determination information management unit 206 will be described with reference to FIG. 10. FIG. 10 is a diagram showing an example of danger determination information according to the second embodiment.

図10の例では、「2014年12月1日8時30分00秒」、「2014年12月5日12時45分30秒」、「2014年12月8日12時00分20秒」、「2014年12月10日14時00分45秒」にそれぞれ発生した事故又はヒヤリハット等の危険事象の危険判定情報が、それぞれの発生日時、発生位置及び発生(進行)方向と紐付けて管理されている。例えば「2014年12月1日8時30分00秒」には、緯度経度がそれぞれ「+35.711283」、「+139.704802」の地点を進行方向「30度」で走行中に、危険度が「0.5」である事故又はヒヤリハット等の危険事象が発生したことを示している。 In the example of FIG. 10, "December 1, 2014 8:30:00", "December 5, 2014 12:45:30", "December 8, 2014 12:00:20" , The danger judgment information of dangerous events such as accidents or hiyari hats that occurred at "14:00:45 on December 10, 2014" is managed in association with the date and time of occurrence, the position of occurrence, and the direction of occurrence (progress). Has been done. For example, at "8:30:00 on December 1, 2014", the degree of danger is high while traveling at the points where the latitude and longitude are "+35.711283" and "+139.704802" in the direction of travel "30 degrees", respectively. It indicates that a dangerous event such as an accident or a hiyari hat that is "0.5" has occurred.

なお、緯度経度情報は60進数(度分秒)による座標を10進数に変換したものであり、撮影(進行)方向は北向きを0度、東向きを90度、南向きを180度、西向きを270度とした場合の方角を角度で表現している。危険度は、例えば「0」から「1」までの点数(0.1刻みの粒度)であり、「0」は危険度が全くないことを、「1」は危険度が最も高いことを示している。危険度の表現方法はこの限りでなく、例えば危険度が最も高いことを表す上限値及び粒度(例えば、整数値のみや0.1刻みなど)等は任意に決めて採用することができる。 The latitude and longitude information is obtained by converting the coordinates in sexagesimal (degrees, minutes, seconds) into decimal numbers, and the shooting (traveling) direction is 0 degrees northward, 90 degrees eastward, 180 degrees southward, and westward. Is expressed as an angle when the degree is 270 degrees. The degree of danger is, for example, a score from "0" to "1" (particle size in increments of 0.1), "0" indicates that there is no degree of danger, and "1" indicates that the degree of danger is the highest. ing. The method of expressing the degree of danger is not limited to this, and for example, the upper limit value and the particle size (for example, only an integer value or increments of 0.1) indicating that the degree of danger is the highest can be arbitrarily determined and adopted.

また、危険判定情報管理部206は、危険度判定部204Aが判定した第2の危険度が所定の範囲内である場合に、第2の危険度に関する第2の危険度情報を新たな危険判定情報として蓄積(追加)し、現在地点画像の付随情報と紐付けて管理する。ここで、所定の範囲とは、例えば予め設定された閾値(例えば「0.5」)を超える場合などである。 Further, the danger determination information management unit 206 uses the second danger degree information regarding the second danger degree as a new danger determination when the second danger degree determined by the danger degree determination unit 204A is within a predetermined range. It is accumulated (added) as information and managed by associating it with the accompanying information of the current location image. Here, the predetermined range is, for example, a case where a preset threshold value (for example, “0.5”) is exceeded.

[2-2-7.制御部]
制御部205Aは、上述した送受信部201、危険発生情報管理部202、画像解析部203、危険度判定部204A及び危険判定情報管理部206を管理及び制御することにより、サーバ装置101Aの機能を実現する。
[2-2-7. Control unit]
The control unit 205A realizes the function of the server device 101A by managing and controlling the transmission / reception unit 201, the danger occurrence information management unit 202, the image analysis unit 203, the danger level determination unit 204A, and the danger determination information management unit 206 described above. do.

[2-3.移動体装置]
移動体装置102は、基本的には、実施の形態1で説明したものと同様である。移動体装置102の送受信部501(図5参照)は、現在地点画像とその付随情報とをサーバ装置101Aへ送信し、サーバ装置101Aからの第1の危険度情報を受信する。また、移動体装置102の出力部503(図5参照)は、受信した第1の危険度情報に基づいて注意喚起情報を出力する。
[2-3. Mobile device]
The mobile device 102 is basically the same as that described in the first embodiment. The transmission / reception unit 501 (see FIG. 5) of the mobile device 102 transmits the current position image and its accompanying information to the server device 101A, and receives the first risk information from the server device 101A. Further, the output unit 503 (see FIG. 5) of the mobile device 102 outputs the attention alert information based on the received first danger level information.

[2-4.危険判定システムの動作]
次に、図11を参照しながら、危険判定システム10Aの動作(危険判定方法)について説明する。図11は、実施の形態2に係る危険判定システム10Aの動作の流れを示すシーケンス図である。
[2-4. Operation of danger judgment system]
Next, the operation (danger determination method) of the danger determination system 10A will be described with reference to FIG. FIG. 11 is a sequence diagram showing an operation flow of the danger determination system 10A according to the second embodiment.

移動体装置102は、入力受付部502(図5参照)で、移動体装置102を搭載する移動体105の周辺状況を撮影した現在地点画像と、その現在地点画像に関する付随情報とを入力として受け付ける(S1101)。その後、移動体装置102は、受け付けた現在地点画像と付随情報とを、送受信部501を介してサーバ装置101Aへ送信する(S1102)。 The mobile device 102 receives, as input, an image of the current position obtained by photographing the surrounding situation of the mobile body 105 on which the mobile device 102 is mounted, and incidental information related to the image of the current position, in the input receiving unit 502 (see FIG. 5). (S1101). After that, the mobile device 102 transmits the received current position image and accompanying information to the server device 101A via the transmission / reception unit 501 (S1102).

サーバ装置101Aは、現在地点画像と付随情報とを、送受信部201を介して移動体装置102から受信する(S1103)。その後、サーバ装置101Aは、受信した現在地点画像に関する付随情報が示す現在地点に対応する危険判定情報が危険判定情報管理部206に管理されている場合、危険度判定部204Aで、危険判定情報と現在地点画像に関する付随情報との類似性に基づいて第1の危険度を決定し、決定した第1の危険度に関する第1の危険度情報を生成する(S1104)。その後、サーバ装置101Aは、第1の危険度が所定範囲内である場合には、生成した第1の危険度情報を、送受信部201を介して移動体装置102へ送信する(S1105)。 The server device 101A receives the current position image and accompanying information from the mobile device 102 via the transmission / reception unit 201 (S1103). After that, when the danger determination information corresponding to the current position indicated by the accompanying information regarding the received current position image is managed by the danger determination information management unit 206, the server device 101A uses the risk determination unit 204A to display the danger determination information. The first risk level is determined based on the similarity with the accompanying information regarding the current position image, and the first risk level information regarding the determined first risk level is generated (S1104). After that, when the first risk level is within the predetermined range, the server device 101A transmits the generated first risk level information to the mobile device 102 via the transmission / reception unit 201 (S1105).

移動体装置102は、第1の危険度情報を、送受信部501を介してサーバ装置101Aから受信する(S1106)。その後、移動体装置102は、出力部503で、受信した第1の危険度情報に基づいて、移動体105(又は移動体装置102)の利用者に対して注意を喚起するための注意喚起情報を出力する(S1107)。 The mobile device 102 receives the first danger level information from the server device 101A via the transmission / reception unit 501 (S1106). After that, the mobile device 102 uses the output unit 503 to call attention to the user of the mobile 105 (or the mobile device 102) based on the first danger level information received. Is output (S1107).

また、サーバ装置101Aは、画像解析部203で、受信した現在地点画像と付随情報とに基づいて、現在地点画像の撮影時点での交通状況を解析する(S1108)。その後、サーバ装置101Aは、危険度判定部204Aで、解析した交通状況に基づいて、危険発生情報管理部202が管理する危険地点画像と現在地点画像との類似性から、受信した現在地点画像の撮影時点で移動体105が置かれている状況の第2の危険度を判定し、判定した第2の危険度に関する第2の危険度情報を生成する(S1109)。その後、サーバ装置101Aは、危険判定情報管理部206で、判定した第2の危険度情報を新たな危険判定情報として蓄積(追加)し、現在地点画像の付随情報と紐付けて管理する(S1110)。 Further, the server device 101A analyzes the traffic condition at the time of taking the current position image by the image analysis unit 203 based on the received current position image and the accompanying information (S1108). After that, the server device 101A receives the current position image based on the similarity between the danger point image managed by the danger occurrence information management unit 202 and the current position image based on the traffic condition analyzed by the risk determination unit 204A. The second danger level of the situation where the moving body 105 is placed at the time of shooting is determined, and the second danger level information regarding the determined second danger level is generated (S1109). After that, the server device 101A accumulates (adds) the determined second danger degree information as new danger determination information by the danger determination information management unit 206, and manages it in association with the accompanying information of the current position image (S1110). ).

[2-5.危険判定システムの適用例]
実施の形態2に係る危険判定システム10Aの適用例は、実施の形態1で説明したものと同様である。
[2-5. Application example of danger judgment system]
The application example of the danger determination system 10A according to the second embodiment is the same as that described in the first embodiment.

[2-6.効果]
次に、実施の形態2に係る危険判定システム10Aにより得られる効果について説明する。上述したように、危険度判定部204Aは、危険判定情報と現在地点画像に関する付随情報との類似性に基づいて第1の危険度を決定する。この第1の危険度の決定処理は、危険地点画像と現在地点画像との類似性の算出処理に比べて短時間で実行することができるので、移動体装置105において注意喚起情報を迅速に出力することができる。
[2-6. effect]
Next, the effect obtained by the danger determination system 10A according to the second embodiment will be described. As described above, the risk level determination unit 204A determines the first risk level based on the similarity between the risk determination information and the accompanying information regarding the current position image. Since this first risk determination process can be executed in a shorter time than the similarity calculation process between the danger point image and the current position image, the mobile device 105 can quickly output the alert information. can do.

[2-7.実施の形態2の変形例]
[2-7-1.変形例1]
サーバ装置101Aが危険発生情報管理部202で管理する危険地点画像は、撮影された画像そのものである必要はなく、危険度判定部204Aで現在地点画像との類似度を算出しやすい画像へ加工しても良く、あるいは、そのように加工された1つ以上の危険地点画像を新たに元の危険地点画像と紐付けて管理しても良い。
[2-7. Modification of Embodiment 2]
[2-7-1. Modification 1]
The danger point image managed by the server device 101A in the danger occurrence information management unit 202 does not have to be the captured image itself, and is processed into an image in which the danger degree determination unit 204A can easily calculate the similarity with the current position image. Alternatively, one or more danger point images processed in this way may be newly associated with the original danger point image and managed.

具体的には、例えば道路形状を含む場所に関する状況、交通環境及び自車行動等の交通状況に関する画像特徴量を浮き立たせた二値化画像へ加工しても良く、あるいは、その二値化画像を元の危険地点画像と紐付けて管理しても良い。 Specifically, for example, the image features related to the situation including the road shape, the traffic environment, and the behavior of the own vehicle may be processed into a binarized image that highlights the image features, or the binarized image thereof. May be managed by associating it with the original danger point image.

さらには、交通状況に関する画像特徴量を、道路形状を含む場所に関する状況、交通環境及び自車行動等の別に応じた複数の二値化画像として元の危険地点画像と紐付けて管理しても良い。この場合、危険度判定部204Aは、元の危険地点画像と現在地点画像との類似性ではなく、例えば二値化画像に加工された危険地点画像と現在地点画像との類似性を算出することが望ましい。 Furthermore, even if the image feature amount related to the traffic situation is managed in association with the original danger point image as a plurality of binarized images according to the situation regarding the place including the road shape, the traffic environment, the behavior of the own vehicle, etc. good. In this case, the risk determination unit 204A calculates not the similarity between the original danger point image and the current position image, but the similarity between the danger point image processed into a binarized image and the current position image, for example. Is desirable.

[2-7-2.変形例2]
サーバ装置101Aが危険判定情報管理部206で管理する危険判定情報の付随情報は、予め取得した値そのものである必要はなく、危険度判定部204Aで現在地点画像の付随情報との類似度を算出する上で意味がある(又は類似度を算出しやすい)粒度へ置き換えても良く、あるいは、その粒度の付随情報を新たに付与しても良い。
[2-7-2. Modification 2]
The accompanying information of the danger judgment information managed by the server device 101A by the danger judgment information management unit 206 does not have to be the value itself acquired in advance, and the danger degree judgment unit 204A calculates the similarity with the incidental information of the current position image. It may be replaced with a particle size that is meaningful (or it is easy to calculate the similarity), or additional information of the particle size may be added.

具体的には、発生日時について意味がある(又は類似度を算出しやすい)粒度とは、例えば0時から1時間毎に24の時間帯、午前/午後、月日、曜日、季節、祭日、いわゆるゴトー日(5日、10日、15日、20日、25日、30日)等である。また、発生位置について意味がある(又は類似度を算出しやすい)粒度とは、例えば地図情報を一律の大きさの矩形状に分割した地域、又は、道路を所定距離毎に分割した道路区間等である。さらに、発生(進行)方向について意味がある(又は類似度を算出しやすい)粒度とは、例えば東西南北の4方位、さらに北東/南東/北西/南西を加えた8方位、あるいは道路の上り/下り等である。 Specifically, the particle size that is meaningful (or easy to calculate the similarity) for the date and time of occurrence is, for example, 24 time zones every hour from 0:00, morning / afternoon, month, day, day of the week, season, holiday, etc. So-called Goto days (5th, 10th, 15th, 20th, 25th, 30th) and the like. In addition, the particle size that is meaningful (or easy to calculate the similarity) for the position of occurrence is, for example, an area where map information is divided into rectangular shapes of a uniform size, or a road section where a road is divided into predetermined distances. Is. Furthermore, the particle size that is meaningful (or easy to calculate the similarity) in the direction of occurrence (progress) is, for example, four directions of north, south, east, and west, eight directions including northeast / southeast / northwest / southwest, or up / of the road. Downhill, etc.

また、サーバ装置101Aが危険判定情報管理部206で管理する危険判定情報の付随情報は、発生時点での交通状況に限定される必要はなく、その危険事象に遭遇した移動体105に関する種々の属性情報を含んでも良い。種々の属性情報とは、例えば移動体105である自車両の重量、排気量及び車種等である。車種とは、例えばセダン、ワゴン又はトラック等である。これらの属性情報は、例えば警察又は運送事業者等が保有する事故又はヒヤリハット等の発生実績情報、あるいは、損保事業者等が保有する事故査定情報等から任意の方法で取得していれば良く、ここではその説明を省略する。 Further, the incidental information of the danger determination information managed by the server device 101A in the danger determination information management unit 206 does not have to be limited to the traffic condition at the time of occurrence, and various attributes related to the moving body 105 that encountered the danger event. Information may be included. The various attribute information is, for example, the weight, displacement, vehicle type, etc. of the own vehicle, which is the moving body 105. The vehicle type is, for example, a sedan, a wagon, a truck, or the like. These attribute information may be obtained by any method from, for example, accident record information such as accidents or hiyari hats held by police or transportation companies, or accident assessment information held by non-life insurance companies. The description thereof is omitted here.

[2-7-3.変形例3]
サーバ装置101Aが危険判定情報管理部206で管理する危険判定情報の付随情報は、過去に発生した事故又はヒヤリハット等の危険事象の内容を説明する情報を含んでも良い。さらに、サーバ装置101Aが危険度判定部204Aで生成する第1の危険度情報は、危険事象の内容を説明する情報の一部又は全てを含んでも良い。
[2-7-3. Modification 3]
The incidental information of the danger determination information managed by the server device 101A by the danger determination information management unit 206 may include information explaining the contents of a dangerous event such as an accident or a hiyari hat that has occurred in the past. Further, the first risk information generated by the server device 101A by the risk determination unit 204A may include a part or all of the information explaining the content of the danger event.

ここで、図10を参照しながら、危険事象の内容を説明する情報の一例について説明する。図10に示すように、「2014年12月1日8時30分00秒」に発生した危険事象の内容を説明する情報は、例えば「出会い頭のヒヤリハット」などである。また、「2014年12月5日12時45分30秒」に発生した危険事象の内容を説明する情報は、例えば「追突のヒヤリハット」などである。また、「2014年12月8日12時00分20秒」に発生した危険事象の内容を説明する情報は、例えば「対向車両との右直事故」などである。さらに、「2014年12月10日14時00分45秒」に発生した危険事象の内容を説明する情報は、例えば「対向横断者とのヒヤリハット」などである。 Here, an example of information for explaining the content of the dangerous event will be described with reference to FIG. 10. As shown in FIG. 10, the information explaining the content of the dangerous event that occurred at “8:30:00 on December 1, 2014” is, for example, “a hiyari hat of the encounter”. Further, the information explaining the content of the dangerous event that occurred at "12:45:30 on December 5, 2014" is, for example, "rear-end collision hiyari hat". Further, the information explaining the content of the dangerous event that occurred at "12:00:20 on December 8, 2014" is, for example, "a right-handed accident with an oncoming vehicle". Further, the information explaining the content of the dangerous event that occurred at "14:00:45 on December 10, 2014" is, for example, "Hiyari hat with an oncoming crossing person".

この場合における第1の危険度情報の生成方法の一例について説明する。例えばサーバ装置101Aが、送受信部201で図3の(b)に示すファイル名が「98765432.jpg」である現在地点画像の付随情報を受信し、さらに危険度判定部204Aで「2014年12月8日12時00分20秒」に発生した危険事象の危険判定情報との類似性に基づいて、第1の危険度が「0.9」であると決定した場合には、危険度判定部204Aで生成される第1の危険度情報は、例えば「対向車両との右直事故が発生する危険度は0.9」などである。 An example of the first method of generating risk information in this case will be described. For example, the server device 101A receives the accompanying information of the current position image whose file name is "98765432.jpg" in the transmission / reception unit 201, and further, the risk determination unit 204A "December 2014". If it is determined that the first risk level is "0.9" based on the similarity with the risk judgment information of the dangerous event that occurred at "12:00:20 on the 8th", the risk level judgment unit The first risk information generated by the 204A is, for example, "the risk of a right-handed accident with an oncoming vehicle is 0.9".

[2-7-4.変形例4]
サーバ装置101Aは、画像解析部203における交通状況の解析処理、及び、危険度判定部204Aにおける危険地点画像と現在地点画像との類似性の算出処理を、必ずしも個別に順次実施する必要はない。例えば、ディープラーニング(深層学習)と呼ばれる機械学習法等を用いることにより、交通状況の解析処理と類似性の算出処理とを同時並行で実施しても良い。
[2-7-4. Modification 4]
The server device 101A does not necessarily have to individually and sequentially perform the traffic condition analysis process in the image analysis unit 203 and the similarity calculation process between the danger point image and the current point image in the risk level determination unit 204A. For example, by using a machine learning method called deep learning, the traffic condition analysis process and the similarity calculation process may be performed in parallel.

[2-7-5.変形例5]
サーバ装置101Aは、危険度判定部204Aが判定した第2の危険度が所定の範囲内である場合に、送受信部201が受信した現在地点画像を、危険発生情報管理部202において新たな危険地点画像として蓄積(追加)し、その付随情報と紐付けて管理しても良い。ここで、所定の範囲内とは、例えば予め設定された閾値(例えば「0.5」)を超える場合などである。
[2-7-5. Modification 5]
When the second danger level determined by the danger level determination unit 204A is within a predetermined range, the server device 101A uses the danger occurrence information management unit 202 to display the current position image received by the transmission / reception unit 201 as a new danger point. It may be accumulated (added) as an image and managed in association with the accompanying information. Here, the predetermined range is, for example, a case where a preset threshold value (for example, “0.5”) is exceeded.

[2-7-6.変形例6]
サーバ装置101Aは、危険度判定部204Aが判定した第2の危険度が所定の範囲内である場合に、危険度判定部204Aが第1の危険度を決定する際に参照した危険判定情報を書き換えてもよく、あるいは、危険判定情報管理部206から削除しても良い。ここで、所定の範囲内とは、例えば予め設定された閾値(例えば「0.5」)を下回る場合などである。
[2-7-6. Modification 6]
The server device 101A uses the risk determination information referred to when the risk determination unit 204A determines the first risk when the second risk determined by the risk determination unit 204A is within a predetermined range. It may be rewritten or deleted from the danger determination information management unit 206. Here, the predetermined range is, for example, a case where the threshold value is lower than a preset threshold value (for example, “0.5”).

[2-7-7.変形例7]
サーバ装置101Aが決定した第1の危険度に関する第1の危険度情報の送信先となる移動体装置102は、サーバ装置101Aが受信した現在地点画像の送信元である移動体装置102と同じである必要はない。例えば移動体105が車両である場合には、先行車両から送信された現在地点画像に基づいて決定した特定地点の第1の危険度に関する第1の危険度情報を、同じ特定地点を少し遅れて通過する後続車両に搭載された移動体装置102へ送信してもよい。これにより、後続車両の利用者(ドライバ)に対して注意を喚起することができる。
[2-7-7. Modification 7]
The mobile device 102 that is the destination of the first risk information regarding the first risk determined by the server device 101A is the same as the mobile device 102 that is the source of the current position image received by the server device 101A. It doesn't have to be. For example, when the moving body 105 is a vehicle, the first risk information regarding the first risk of the specific point determined based on the current position image transmitted from the preceding vehicle is slightly delayed from the same specific point. It may be transmitted to the moving body device 102 mounted on the following vehicle passing by. As a result, it is possible to call attention to the user (driver) of the following vehicle.

(他の変形例)
以上、一つ又は複数の態様に係る危険判定方法等について、上記実施の形態1及び2に基づいて説明したが、本開示は、これらの実施の形態1及び2に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思い付く各種変形を実施の形態1及び2に施したものや、異なる実施の形態又は変形例における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。例えば、上記実施の形態1及び2をそれぞれ組み合わせるとしても良い。
(Other variants)
The risk determination method and the like according to one or more embodiments have been described above based on the above embodiments 1 and 2, but the present disclosure is not limited to these embodiments 1 and 2. As long as it does not deviate from the gist of the present disclosure, one or a form constructed by applying various modifications that can be conceived by those skilled in the art to the first and second embodiments, and a combination of components in different embodiments or modifications is also possible. It may be included in the range of a plurality of embodiments. For example, the above embodiments 1 and 2 may be combined, respectively.

また例えば、上記各実施の形態では、移動体105を車両としたが、車両には、自動車、二輪車、電車又は自転車等が含まれる。また、移動体105は車両に限定されず、例えばスマートフォン又はタブレット等であっても良い。 Further, for example, in each of the above embodiments, the moving body 105 is used as a vehicle, and the vehicle includes an automobile, a two-wheeled vehicle, a train, a bicycle, and the like. Further, the moving body 105 is not limited to the vehicle, and may be, for example, a smartphone or a tablet.

上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしても良い。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしても良い。 A part or all of the components constituting each of the above devices may be composed of an IC card or a single module that can be attached to and detached from each device. The IC card or the module is a computer system composed of a microprocessor, ROM, RAM and the like. The IC card or the module may include the above-mentioned super multifunctional LSI. When the microprocessor operates according to a computer program, the IC card or the module achieves its function. This IC card or this module may have tamper resistance.

本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えばフレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリなどに記録したものとしても良い。また、これらの記録媒体に記録されている前記デジタル信号であるとしても良い。また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしても良い。また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。 The present invention may be the method shown above. Further, it may be a computer program that realizes these methods by a computer, or it may be a digital signal composed of the computer program. Further, the present invention also relates to a recording medium capable of computer-readable reading of the computer program or the digital signal, such as a flexible disk, a hard disk, a CD-ROM, MO, DVD, a DVD-ROM, a DVD-RAM, or a BD (Blu-ray). It may be recorded in a trademark) Disc), a semiconductor memory, or the like. Further, it may be the digital signal recorded on these recording media. Further, the present invention may transmit the computer program or the digital signal via a telecommunication line, a wireless or wired communication line, a network typified by the Internet, data broadcasting, or the like. Further, the present invention is a computer system including a microprocessor and a memory, in which the memory stores the computer program, and the microprocessor may operate according to the computer program. It is also carried out by another independent computer system by recording and transferring the program or the digital signal on the recording medium, or by transferring the program or the digital signal via the network or the like. It may be.

本発明に係る危険判定方法は、移動体が位置する地点に対応する危険度を管理する危険判定システム等に有用である。 The danger determination method according to the present invention is useful for a danger determination system or the like that manages the degree of danger corresponding to a point where a moving object is located.

10,10A 危険判定システム
101,101A,721 サーバ装置
102 移動体装置
103 画像データベース
104 ネットワーク
105 移動体
106 指標データベース
201,501 送受信部
202 危険発生情報管理部
203 画像解析部
204,204A 危険度判定部
205,205A,504 制御部
206 危険判定情報管理部
502 入力受付部
503 出力部
700 グループ
701,702 ユーザ
703 通信装置
710 データセンタ運営会社
720 サービスプロバイダ
10,10A Danger determination system 101, 101A, 721 Server device 102 Mobile device 103 Image database 104 Network 105 Mobile 106 Index database 201,501 Transmission / reception unit 202 Danger occurrence information management unit 203 Image analysis unit 204, 204A Danger level determination unit 205, 205A, 504 Control unit 206 Danger judgment information management unit 502 Input reception unit 503 Output unit 700 Group 701,702 User 703 Communication device 710 Data center operating company 720 Service provider

Claims (11)

コンピュータにより実行される判定方法であって、
前記コンピュータは、危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を撮影した画像から交通状況に関わる画像特徴量を抽出した第1の画像とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部を備え、
前記判定方法は、
移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を撮影した第2の画像とが対応付けられた移動体情報を取得するステップと、
前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性に基づいて、前記現在地点に対応する危険度を判定するステップと、を含み、
前記危険発生情報は、さらに、前記危険地点情報と前記第1の画像とに対応付けられた、前記危険事象の深刻度を含み、
前記深刻度は、事故発生の有無又は事故の被害の大きさの度合いであり、
前記判定するステップでは、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性を求め、前記類似性と前記第1の画像に対応付けられた前記深刻度とを用いた演算を実行することにより、前記現在地点に対応する前記危険度を判定する
判定方法。
It is a judgment method executed by a computer.
The computer corresponds to the danger point information indicating the danger point where the danger event has occurred and the first image obtained by extracting the image feature amount related to the traffic situation from the image taken of the occurrence situation of the danger event at the danger point. Equipped with a hazard information management unit that stores one or more attached hazard information
The determination method is
A step of acquiring the moving body information in which the current position information indicating the current position of the moving body and the second image obtained by capturing the surrounding situation of the moving body at the current position are associated with each other.
The danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information is not stored in the danger occurrence information management unit, and the danger corresponding to a point other than the current location. When the occurrence information is stored in the danger occurrence information management unit, the second image included in the moving body information and one or more of the danger occurrence information stored in the danger occurrence information management unit. Including a step of determining the degree of risk corresponding to the current location based on the similarity with the first image included.
The danger occurrence information further includes the severity of the danger event associated with the danger point information and the first image.
The severity is the presence or absence of an accident or the degree of damage caused by the accident.
In the determination step, the second image included in the moving body information is similar to the first image included in one or more danger occurrence information stored in the danger occurrence information management unit. A determination method for determining the degree of danger corresponding to the current position by obtaining the sex and executing an operation using the similarity and the severity associated with the first image.
前記判定するステップでは、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報と、前記現在地点以外の地点に対応する前記危険発生情報とが前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2の画像と、前記現在地点以外の地点に対応する前記危険発生情報に含まれる前記第1
の画像との類似性に基づいて、前記現在地点に対応する前記危険度を判定する
請求項1に記載の判定方法。
In the determination step, the danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information and the danger occurrence information corresponding to a point other than the current location are the danger occurrence information. When stored in the management unit, the second image included in the moving body information and the first image included in the danger occurrence information corresponding to a point other than the current point.
The determination method according to claim 1, wherein the degree of danger corresponding to the current position is determined based on the similarity with the image of.
前記判定方法は、さらに、
前記第1の画像に基づいて、前記危険事象が発生した際の前記危険地点における第1の交通状況を解析し、且つ、前記第2の画像に基づいて、前記現在地点における第2の交通状況を解析するステップを含み、
前記判定するステップでは、解析した前記第1の交通状況と前記第2の交通状況との類似性に基づいて、前記現在地点に対応する前記危険度を判定する
請求項1に記載の判定方法。
The determination method further comprises
Based on the first image, the first traffic condition at the dangerous point when the dangerous event occurs is analyzed, and based on the second image, the second traffic condition at the current point is analyzed. Includes steps to analyze
The determination method according to claim 1, wherein in the determination step, the degree of danger corresponding to the current location is determined based on the similarity between the analyzed first traffic condition and the second traffic condition.
前記判定方法は、さらに、
判定した前記現在地点に対応する前記危険度が所定の範囲内である場合に、前記移動体情報に含まれる前記現在地点情報を前記危険地点情報とし、且つ、前記移動体情報に含まれる前記第2の画像を前記第1の画像とした前記危険発生情報を生成するステップと、
生成した前記危険発生情報を前記危険発生情報管理部に追加するステップと、を含む
請求項1~3のいずれか1項に記載の判定方法。
The determination method further comprises
When the degree of danger corresponding to the determined current point is within a predetermined range, the current point information included in the moving body information is used as the dangerous point information, and the second item included in the moving body information. The step of generating the danger occurrence information using the image of 2 as the first image, and
The determination method according to any one of claims 1 to 3, comprising a step of adding the generated danger occurrence information to the danger occurrence information management unit.
前記取得するステップでは、ネットワークを介して、前記移動体に搭載された移動体装置から送信された前記移動体情報を受信し、
前記判定方法は、さらに、
判定した前記現在地点に対応する前記危険度が所定の範囲内である場合に、前記移動体情報を送信した前記移動体装置に前記危険度に関する危険度情報を送信するステップを含む
請求項1~4のいずれか1項に記載の判定方法。
In the acquisition step, the mobile information transmitted from the mobile device mounted on the mobile is received via the network.
The determination method further comprises
Claims 1 to 1, which include a step of transmitting risk information regarding the risk to the mobile device that has transmitted the mobile information when the risk corresponding to the determined current position is within a predetermined range. The determination method according to any one of 4.
前記取得するステップでは、ネットワークを介して、前記移動体に搭載された移動体装置から送信された前記移動体情報を受信し、
前記判定方法は、さらに、
判定した前記現在地点に対応する前記危険度が所定の範囲内である場合であって、前記移動体情報を受信してから所定時間内に、別の移動体が前記移動体情報に含まれる前記現在地点情報が示す前記現在地点を通過すると判断した場合に、前記別の移動体に搭載された移動体装置に前記危険度に関する危険度情報を送信するステップを含む
請求項1~4のいずれか1項に記載の判定方法。
In the acquisition step, the mobile information transmitted from the mobile device mounted on the mobile is received via the network.
The determination method further comprises
When the degree of danger corresponding to the determined current position is within a predetermined range, another moving body is included in the moving body information within a predetermined time after receiving the moving body information. Any of claims 1 to 4, which includes a step of transmitting risk information regarding the risk to a mobile device mounted on the other mobile when it is determined that the current location is to be passed as indicated by the current location information. The determination method according to item 1.
前記判定方法は、さらに、
判定した前記現在地点に対応する前記危険度と前記現在地点情報とが対応付けられた危険判定情報を危険判定情報管理部に格納するステップを含み、
前記判定するステップでは、前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険判定情報が前記危険判定情報管理部に格納されている場合、前記危険判定情報に含まれる前記危険度を使用する
請求項1~6のいずれか1項に記載の判定方法。
The determination method further comprises
Including a step of storing the danger determination information in which the danger level corresponding to the determined current location and the current location information are associated with each other in the danger determination information management unit.
In the determination step, when the danger determination information corresponding to the current location indicated by the current location information included in the moving object information is stored in the danger determination information management unit, it is included in the danger determination information. The determination method according to any one of claims 1 to 6, wherein the risk level is used.
前記移動体情報は、さらに、前記現在地点情報と前記第2の画像とに対応付けられた、前記移動体の走行状況を示すセンサ情報を含み、
前記判定するステップでは、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性を求め、前記類似性と前記センサ情報とに基づいて、前記現在地点に対応する前記危険度を判定する
請求項1~7のいずれか1項に記載の判定方法。
The moving body information further includes sensor information indicating a traveling state of the moving body, which is associated with the current position information and the second image.
In the determination step, the second image included in the moving body information is similar to the first image included in one or more of the danger occurrence information stored in the danger occurrence information management unit. The determination method according to any one of claims 1 to 7, wherein the property is determined, and the degree of danger corresponding to the current position is determined based on the similarity and the sensor information.
危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を撮影した画像から交通状況に関わる画像特徴量を抽出した第1の画像とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部と、
移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を撮影した第2の画像とが対応付けられた移動体情報を受信する受信部と、
前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性に基づいて、前記現在地点に対応する危険度を判定する判定部と、を備え、
前記危険発生情報は、さらに、前記危険地点情報と前記第1の画像とに対応付けられた、前記危険事象の深刻度を含み、
前記深刻度は、事故発生の有無又は事故の被害の大きさの度合いであり、
前記判定部は、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性を求め、前記類似性と前記第1の画像に対応付けられた前記深刻度とを用いた演算を実行することにより、前記現在地点に対応する前記危険度を判定する
コンピュータ。
Danger in which the danger point information indicating the danger point where the danger event has occurred is associated with the first image obtained by extracting the image feature amount related to the traffic situation from the image taken of the occurrence situation of the danger event at the danger point. The danger occurrence information management department that stores one or more occurrence information,
A receiving unit that receives the moving body information in which the current position information indicating the current position of the moving body and the second image obtained by capturing the surrounding situation of the moving body at the current position are associated with each other.
The danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information is not stored in the danger occurrence information management unit, and the danger corresponding to a point other than the current location. When the occurrence information is stored in the danger occurrence information management unit, the second image included in the moving body information and one or more of the danger occurrence information stored in the danger occurrence information management unit. A determination unit for determining the degree of danger corresponding to the current position based on the similarity with the included first image is provided.
The danger occurrence information further includes the severity of the danger event associated with the danger point information and the first image.
The severity is the presence or absence of an accident or the degree of damage caused by the accident.
The determination unit has similarities between the second image included in the moving body information and the first image included in one or more of the danger occurrence information stored in the danger occurrence information management unit. A computer that determines the degree of danger corresponding to the current location by performing an operation using the similarity and the degree of severity associated with the first image.
判定装置と移動体に搭載された出力装置とを備え、前記移動体が位置する地点に対応する危険度を管理するシステムであって、
前記判定装置は、
危険事象が発生した危険地点を示す危険地点情報と、前記危険地点における前記危険事象の発生状況を撮影した画像から交通状況に関わる画像特徴量を抽出した第1の画像とが対応付けられた危険発生情報を1つ以上格納している危険発生情報管理部と、
前記移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を撮影した第2の画像とが対応付けられた移動体情報を受信する第1の受信部と、
前記移動体情報に含まれる前記現在地点情報が示す前記現在地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されておらず、且つ、前記現在地点以外の地点に対応する前記危険発生情報が前記危険発生情報管理部に格納されている場合、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性に基づいて、前記現在地点に対応する前記危険度を判定する判定部と、
前記危険度に関する危険度情報を前記出力装置に送信する第1の送信部と、を備え、
前記出力装置は、
前記移動体情報を前記判定装置に送信する第2の送信部と、
前記判定装置から送信された前記危険度情報を受信する第2の受信部と、
受信した前記危険度情報に基づいて、前記移動体の利用者に対して注意を喚起するための注意喚起情報を出力する出力部と、を備え、
前記危険発生情報は、さらに、前記危険地点情報と前記第1の画像とに対応付けられた、前記危険事象の深刻度を含み、
前記深刻度は、事故発生の有無又は事故の被害の大きさの度合いであり、
前記判定部は、前記移動体情報に含まれる前記第2の画像と、前記危険発生情報管理部に格納されている1つ以上の前記危険発生情報に含まれる前記第1の画像との類似性を求め、前記類似性と前記第1の画像に対応付けられた前記深刻度とを用いた演算を実行することにより、前記現在地点に対応する前記危険度を判定する
システム。
It is a system equipped with a determination device and an output device mounted on a moving body, and manages the degree of danger corresponding to the point where the moving body is located.
The determination device is
Danger in which the danger point information indicating the danger point where the danger event has occurred is associated with the first image obtained by extracting the image feature amount related to the traffic situation from the image taken of the occurrence situation of the danger event at the danger point. The danger occurrence information management department that stores one or more occurrence information,
A first receiving unit that receives the moving body information in which the current position information indicating the current position of the moving body and the second image obtained by capturing the surrounding situation of the moving body at the current point are associated with each other.
The danger occurrence information corresponding to the current location indicated by the current location information included in the moving body information is not stored in the danger occurrence information management unit, and the danger corresponding to a point other than the current location. When the occurrence information is stored in the danger occurrence information management unit, the second image included in the moving body information and one or more of the danger occurrence information stored in the danger occurrence information management unit. A determination unit that determines the degree of danger corresponding to the current location based on the similarity with the first image included.
A first transmission unit for transmitting risk information regarding the risk to the output device is provided.
The output device is
A second transmission unit that transmits the mobile body information to the determination device, and
A second receiving unit that receives the risk information transmitted from the determination device, and
It is provided with an output unit that outputs attention-calling information for calling attention to the user of the moving object based on the received danger level information.
The danger occurrence information further includes the severity of the danger event associated with the danger point information and the first image.
The severity is the presence or absence of an accident or the degree of damage caused by the accident.
The determination unit has similarities between the second image included in the moving body information and the first image included in one or more of the danger occurrence information stored in the danger occurrence information management unit. A system for determining the degree of danger corresponding to the current position by performing an operation using the similarity and the degree of severity associated with the first image.
請求項10に記載のシステムにおいて用いられる出力装置であって、
移動体の現在地点を示す現在地点情報と、前記現在地点における前記移動体の周辺状況を示す第2の画像とが対応付けられた移動体情報を判定装置に送信する第2の送信部と、
前記判定装置から送信された危険度情報を受信する第2の受信部と、
受信した前記危険度情報に基づいて、前記移動体の利用者に対して注意を喚起するための注意喚起情報を出力する出力部と、を備える
出力装置。
An output device used in the system according to claim 10.
A second transmission unit that transmits to the determination device the moving body information in which the current position information indicating the current position of the moving body and the second image showing the surrounding situation of the moving body at the current position are associated with each other.
A second receiving unit that receives the risk information transmitted from the determination device, and
An output device including an output unit that outputs attention-calling information for calling attention to the user of the moving object based on the received danger level information.
JP2019221961A 2014-12-26 2019-12-09 Judgment method, computer, output device and system Active JP7041117B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014266431 2014-12-26
JP2014266431 2014-12-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015181078A Division JP6630521B2 (en) 2014-12-26 2015-09-14 Danger determination method, danger determination device, danger output device, and danger determination system

Publications (2)

Publication Number Publication Date
JP2020042859A JP2020042859A (en) 2020-03-19
JP7041117B2 true JP7041117B2 (en) 2022-03-23

Family

ID=56358084

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015181078A Expired - Fee Related JP6630521B2 (en) 2014-12-26 2015-09-14 Danger determination method, danger determination device, danger output device, and danger determination system
JP2019221961A Active JP7041117B2 (en) 2014-12-26 2019-12-09 Judgment method, computer, output device and system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015181078A Expired - Fee Related JP6630521B2 (en) 2014-12-26 2015-09-14 Danger determination method, danger determination device, danger output device, and danger determination system

Country Status (1)

Country Link
JP (2) JP6630521B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3159235B1 (en) * 2015-10-22 2021-08-04 Honda Research Institute Europe GmbH Method and system for assisting a driver of a vehicle in driving the vehicle and computer program
WO2018230492A1 (en) * 2017-06-16 2018-12-20 本田技研工業株式会社 Information processing device, information processing method, and program
JP6880455B2 (en) * 2017-10-26 2021-06-02 トヨタ自動車株式会社 Driving support device and driving support system
KR102030583B1 (en) * 2017-11-23 2019-10-11 (주)에이텍티앤 Artificial intelligence based traffic accident prediction system and method
JP2020008888A (en) * 2018-07-02 2020-01-16 株式会社デンソー Accident warning device
JP7143661B2 (en) * 2018-07-24 2022-09-29 トヨタ自動車株式会社 Information processing system, program, and control method
WO2020051168A1 (en) * 2018-09-04 2020-03-12 Cambridge Mobile Telematics Inc. Systems and methods for classifying driver behavior
JP7172341B2 (en) * 2018-09-19 2022-11-16 いすゞ自動車株式会社 Management system and information transmission method
JP7186749B2 (en) * 2020-08-12 2022-12-09 ソフトバンク株式会社 Management system, management method, management device, program and communication terminal
CN117496678A (en) * 2024-01-02 2024-02-02 广州市声讯电子科技股份有限公司 Emergency broadcast image-text alarm method, alarm system and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331900A (en) 2000-05-23 2001-11-30 Matsushita Electric Ind Co Ltd On-vehicle danger forecast alarm system and method
JP2004078320A (en) 2002-08-09 2004-03-11 Mitsui Sumitomo Insurance Co Ltd Risk informing server, risk informing system and route guidance device
JP2004333233A (en) 2003-05-02 2004-11-25 Alpine Electronics Inc Navigation apparatus
JP2010247656A (en) 2009-04-15 2010-11-04 Toyota Motor Corp Driving support system and method
JP2014154004A (en) 2013-02-12 2014-08-25 Fujifilm Corp Danger information processing method, device and system, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219836A (en) * 2006-02-16 2007-08-30 Mazda Motor Corp Vehicle travel support device
JP4900076B2 (en) * 2007-06-18 2012-03-21 トヨタ自動車株式会社 Vehicle travel support device
DE102011018157A1 (en) * 2011-04-19 2012-10-25 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Detection of a bus stop
JP2014154005A (en) * 2013-02-12 2014-08-25 Fujifilm Corp Danger information provision method, device, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331900A (en) 2000-05-23 2001-11-30 Matsushita Electric Ind Co Ltd On-vehicle danger forecast alarm system and method
JP2004078320A (en) 2002-08-09 2004-03-11 Mitsui Sumitomo Insurance Co Ltd Risk informing server, risk informing system and route guidance device
JP2004333233A (en) 2003-05-02 2004-11-25 Alpine Electronics Inc Navigation apparatus
JP2010247656A (en) 2009-04-15 2010-11-04 Toyota Motor Corp Driving support system and method
JP2014154004A (en) 2013-02-12 2014-08-25 Fujifilm Corp Danger information processing method, device and system, and program

Also Published As

Publication number Publication date
JP2016126756A (en) 2016-07-11
JP6630521B2 (en) 2020-01-15
JP2020042859A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP7041117B2 (en) Judgment method, computer, output device and system
US11935400B2 (en) Aggregated analytics for intelligent transportation systems
US11475677B2 (en) Method, apparatus, and system for generating synthetic image data for machine learning
US11060882B2 (en) Travel data collection and publication
US11664043B2 (en) Real-time verbal harassment detection system
US10147004B2 (en) Automatic image content analysis method and system
US11238637B1 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
US11282019B2 (en) Risk information processing method and server device
JP6109593B2 (en) Risk information processing method, apparatus and system, and program
EP3038021A1 (en) Risk determination method, risk determination device, risk determination system, and risk output device
US20120194681A1 (en) Automatic content analysis method and system
JP2011100298A (en) Information processing device, on-vehicle device, information processing system, information processing method, and program
JP2014154005A (en) Danger information provision method, device, and program
US11423589B1 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
US20210232281A1 (en) Vehicular telematic systems and methods for generating interactive animated guided user interfaces
JP2014137682A (en) Traffic information provision system using location information of mobile terminal
JP2008002910A (en) Drive record apparatus and drive recording means
JP2011107977A (en) Information processor, in-vehicle device, information processing system, information processing method, and program
EP4202884A1 (en) Method, apparatus, and system for determining a bicycle lane disruption index based on vehicle sensor data
JP2023045191A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150