JP2018173861A - Travel support system and computer program - Google Patents

Travel support system and computer program Download PDF

Info

Publication number
JP2018173861A
JP2018173861A JP2017072136A JP2017072136A JP2018173861A JP 2018173861 A JP2018173861 A JP 2018173861A JP 2017072136 A JP2017072136 A JP 2017072136A JP 2017072136 A JP2017072136 A JP 2017072136A JP 2018173861 A JP2018173861 A JP 2018173861A
Authority
JP
Japan
Prior art keywords
risk factor
surrounding environment
past
similarity
determination result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017072136A
Other languages
Japanese (ja)
Inventor
智明 廣田
Tomoaki Hirota
智明 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2017072136A priority Critical patent/JP2018173861A/en
Publication of JP2018173861A publication Critical patent/JP2018173861A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a travel support system and a computer program capable of outputting a determination result of risk factors without causing a user feel annoying.SOLUTION: The travel support system is configured to input pick-up images of the perimeter circumstance of a vehicle into a learning model which is sequentially generated by means of machine learning; to recognize the peripheral situation generated in the perimeter circumstance of the vehicle at each imaging timing of the input pick-up images; to determine risk factors existing in the peripheral circumstance of a moving body based on the recognized peripheral situation; and to output the determination result of the risk factors after changing the output mode based on whether any risk factor is generated in the peripheral situation similar to a previous peripheral situation in the perimeter circumstance of vehicle.SELECTED DRAWING: Figure 5

Description

本発明は、移動体の走行支援を行う走行支援装置及びコンピュータプログラムに関する。   The present invention relates to a travel support apparatus and a computer program that support travel of a moving object.

近年、例えば車両等の移動体に対する走行支援の一つとして、移動体の周辺にある危険因子を判定し、判定結果を案内することが行われている。危険因子とは移動体が走行する際に注意するべき因子であり、例えば移動体から視認することが難しい位置にある他車両や歩行者等の障害物、交差点付近の歩行者、交差道路から進入する他車両、車線の増減区間、道路に面する建物の出入口等がある。上記のような危険因子を判定する手段としては、例えば移動体の現在位置や方位と地図情報とを比較して判定することや、移動体に搭載されたカメラ、センサ或いは通信機器を用いて判定することが可能である。   In recent years, for example, as one of driving assistance for a moving body such as a vehicle, a risk factor around the moving body is determined, and the determination result is guided. A risk factor is a factor that should be noted when a moving object travels.For example, an obstacle such as another vehicle or a pedestrian that is difficult to see from the moving object, a pedestrian near an intersection, or an approach from an intersection road There are other vehicles, lane increase / decrease sections, building entrances facing the road, etc. As a means for determining the risk factor as described above, for example, the determination is made by comparing the current position and orientation of the moving object with map information, or using a camera, sensor or communication device mounted on the moving object. Is possible.

例えば特開2016−126756号公報には、車両の移動中において車両に設置された車載カメラ、ドライブレコーダ、スマートフォン等により撮像された車両周辺の現在地点画像を取得し、サーバ装置に予め登録された危険地点画像と現在地点画像との類似性から現在の状況の危険度を判定することが開示されている。   For example, in JP-A-2006-126756, a current position image around a vehicle captured by an in-vehicle camera, a drive recorder, a smartphone, or the like installed in the vehicle while the vehicle is moving is acquired and registered in advance in the server device. It is disclosed that the degree of danger in the current situation is determined from the similarity between the danger point image and the current point image.

特開2016−126756号公報(第15−16、21頁)JP, 2006-126756, A (15-15, 21 pages)

ここで、上記特許文献1では、現在地点画像と危険地点画像との類似性を判断し、現在地点画像と危険地点画像とが類似していれば危険度が高いと判定される。しかしながら、現在地点画像や危険地点画像には、危険因子となる虞の高い要素(例えば交差点に位置する歩行者、交差道路を走行する他車両)に加えて、危険因子となる虞の少ない要素(例えば、歩道を歩行する歩行者、対向車線を走行する他車両)を含む。上記特許文献1では、現在地点画像と危険地点画像との類似性を判断する場合に、危険因子となる虞の高い要素が類似していなかったとしても、危険因子となる虞の少ない要素が類似した結果、危険因子が存在しない可能性が高い場合においても危険度が高いと判定される問題があった。   Here, in Patent Document 1, the similarity between the current point image and the dangerous point image is determined, and if the current point image and the dangerous point image are similar, it is determined that the degree of risk is high. However, in addition to elements that are highly likely to be risk factors (for example, pedestrians located at intersections and other vehicles that run on intersection roads), elements that are less likely to be risk factors (such as pedestrians located at intersections and other vehicles traveling on intersection roads) For example, a pedestrian walking on a sidewalk and other vehicles traveling on the opposite lane). In Patent Document 1, when determining the similarity between the current point image and the dangerous point image, even if the elements that are likely to be risk factors are not similar, the elements that are less likely to be risk factors are similar. As a result, there is a problem that the risk is determined to be high even when there is a high possibility that the risk factor does not exist.

本発明は前記従来における問題点を解消するためになされたものであり、周辺環境を撮像した撮像画像を機械学習によって生成された学習モデルに入力することによってより正確な危険因子の判定を行うとともに、危険因子の判定結果の出力の際には運転者が危険であると予め認識できている状況では出力態様を変更することについても可能にした走行支援装置及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and more accurately determines risk factors by inputting captured images obtained by capturing the surrounding environment into a learning model generated by machine learning. An object of the present invention is to provide a driving support device and a computer program that can also change the output mode in a situation in which the driver can recognize in advance that the risk factor determination results are dangerous. To do.

前記目的を達成するため本発明に係る走行支援装置は、時間経過に伴って移動体の周辺環境を順次撮像した撮像画像を取得する周辺環境撮像手段と、取得した前記撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した前記撮像画像の各撮像タイミングにおいて前記移動体の周辺環境に生じている周辺状況を認識するとともに、認識された前記周辺状況に基づいて前記移動体の周辺環境にある危険因子を判定する危険因子判定手段と、前記危険因子判定手段の判定結果を出力する判定結果出力手段と、前記撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じているか否かを判定する類似判定手段と、を有し、前記判定結果出力手段は、前記類似判定手段の判定結果に応じて出力態様を変更する。
尚、「移動体」とは、車両に限定されず、歩行者、自転車等の道路を移動するものであれば良い。
また、「危険因子」とは、移動体が走行する際に注意するべき因子であり、例えば移動体から視認することが難しい位置にある他車両や歩行者等の障害物、交差点付近の歩行者、交差道路から進入する他車両、車線の増減区間、道路に面する建物の出入口等がある。
In order to achieve the above object, a driving support apparatus according to the present invention includes a surrounding environment imaging unit that acquires captured images obtained by sequentially capturing the surrounding environment of a moving body over time, and sequentially acquires the captured images by machine learning. By inputting into the generated learning model, the mobile unit recognizes the peripheral situation occurring in the peripheral environment of the mobile object at each imaging timing of the input captured image, and based on the recognized peripheral situation Comparing risk factors determining means for determining risk factors in the surrounding environment, judgment result output means for outputting the judgment results of the risk factor judging means, and surrounding conditions recognized at each imaging timing of the captured image Similarity determination means for determining whether or not the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the moving object Has the determination result output means changes an output mode in accordance with the determination result of the similarity determination unit.
The “moving body” is not limited to a vehicle, and may be anything that moves on a road such as a pedestrian or a bicycle.
The “risk factor” is a factor to be noted when the moving body travels. For example, other vehicles and obstacles such as pedestrians that are difficult to see from the moving body, pedestrians near the intersection, etc. There are other vehicles that enter from crossing roads, lane increase / decrease sections, and entrances to buildings facing the road.

また、本発明に係るコンピュータプログラムは、移動体の走行支援を行うプログラムである。具体的には、コンピュータを、時間経過に伴って移動体の周辺環境を順次撮像した撮像画像を取得する周辺環境撮像手段と、取得した前記撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した前記撮像画像の各撮像タイミングにおいて前記移動体の周辺環境に生じている周辺状況を認識するとともに、認識された前記周辺状況に基づいて前記移動体の周辺環境にある危険因子を判定する危険因子判定手段と、前記危険因子判定手段の判定結果を出力する判定結果出力手段と、前記撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じているか否かを判定する類似判定手段と、して機能させるとともに、前記判定結果出力手段は、前記類似判定手段の判定結果に応じて出力態様を変更する。   The computer program according to the present invention is a program for supporting traveling of a moving object. Specifically, the computer inputs peripheral environment imaging means for acquiring captured images obtained by sequentially capturing the surrounding environment of the moving body over time, and the acquired captured images are sequentially input to a learning model generated by machine learning. By recognizing the surrounding situation occurring in the surrounding environment of the moving body at each imaging timing of the input captured image, the risk factors in the surrounding environment of the moving body based on the recognized surrounding situation By comparing a peripheral situation recognized at each imaging timing of the captured image, and a risk factor determining unit that determines the risk factor, a determination result output unit that outputs a determination result of the risk factor determination unit, When functioning as similarity determination means for determining whether or not the risk factor in a surrounding situation similar to the past has occurred in the environment On the determination result output means changes an output mode in accordance with the determination result of the similarity determination unit.

前記構成を有する本発明に係る走行支援装置及びコンピュータプログラムによれば、時間経過に伴って周辺環境を撮像した撮像画像を順次機械学習によって生成された学習モデルに入力することによって、現在の移動体の状況に応じたより正確な危険因子の判定を行うことが可能となる。   According to the driving support apparatus and the computer program according to the present invention having the above-described configuration, a current moving body is obtained by sequentially inputting captured images obtained by capturing the surrounding environment as time passes into a learning model generated by machine learning. This makes it possible to more accurately determine risk factors according to the situation.

本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 本実施形態に係る危険因子判定処理プログラムのフローチャートである。It is a flowchart of the risk factor determination processing program according to the present embodiment. 本実施形態に係る学習モデルの概略を示した図である。It is the figure which showed the outline of the learning model which concerns on this embodiment. 周辺環境の全体類似度の算出方法を説明した図である。It is a figure explaining the calculation method of the whole similarity of surrounding environment. 周辺環境の特徴類似度の算出方法を説明した図である。It is a figure explaining the calculation method of the feature similarity of surrounding environment.

以下、本発明に係る走行支援装置についてナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。   Hereinafter, a driving support device according to the present invention will be described in detail with reference to the drawings based on an embodiment embodied in a navigation device. First, a schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to this embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図やナビゲーション装置1に設定された案内経路に関する情報等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスや危険因子に対する警告等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有している。また、ナビゲーション装置1は、CAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置された車外カメラ19が接続されている。   As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 that records various data, Based on the input information, the navigation ECU 13 that performs various arithmetic processes, the operation unit 14 that receives operations from the user, information about a map around the vehicle for the user, information on the guidance route set in the navigation device 1, etc. A liquid crystal display 15 that displays voice guidance for route guidance, warnings for risk factors, and the like, a DVD drive 17 that reads a DVD as a storage medium, a probe center and VICS (registered trademark: Vehicle Information and Communication) System) Communication module 1 that communicates with an information center such as a center. And, the has. In addition, the navigation device 1 is connected to an out-of-vehicle camera 19 installed on a vehicle on which the navigation device 1 is mounted via an in-vehicle network such as CAN.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which the navigation apparatus 1 has is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all the four types of sensors, and the navigation device 1 may include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や撮像画像DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12としてはハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクを有しても良い。また、地図情報DB31や撮像画像DB32は外部のサーバに格納させ、ナビゲーション装置1が通信により取得しても良い。   The data recording unit 12 reads an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 and a captured image DB 32 recorded on the hard disk, a predetermined program, and the like, and stores predetermined data on the hard disk. And a recording head (not shown) as a driver for writing. The data recording unit 12 may include a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. Further, the map information DB 31 and the captured image DB 32 may be stored in an external server, and the navigation device 1 may acquire them by communication.

ここで、地図情報DB31は、ナビゲーション装置1における経路探索や走行案内に用いられる地図情報が記憶される記憶手段である。例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等を含む。   Here, the map information DB 31 is a storage unit that stores map information used for route search and travel guidance in the navigation device 1. For example, link data related to roads (links), node data related to node points, facility data related to facilities, search data used for route search processing, map display data for displaying a map, intersection data related to each intersection, and points are searched. Search data and the like.

また、撮像画像DB32は、時間経過に伴って車外カメラ19によって順次撮像された撮像画像35が格納される記憶手段である。尚、車外カメラ19によって撮像された撮像画像35は累積的に撮像画像DB32に格納され、古い画像から順に削除される。   The captured image DB 32 is a storage unit that stores captured images 35 sequentially captured by the vehicle exterior camera 19 over time. The captured images 35 captured by the camera 19 outside the vehicle are cumulatively stored in the captured image DB 32 and are deleted in order from the oldest image.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の危険因子判定処理プログラム(図2参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、周辺環境撮像手段は、時間経過に伴って車両の周辺環境を順次撮像した撮像画像を取得する。危険因子判定手段は、取得した撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した撮像画像の各撮像タイミングにおいて車両の周辺環境に生じている周辺状況を認識するとともに、認識された周辺状況に基づいて車両の周辺環境にある危険因子を判定する。判定結果出力手段は、危険因子判定手段の判定結果を出力する。類似判定手段は、撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、車両の周辺環境において過去に類似する周辺状況における危険因子が生じているか否かを判定する。   On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. From the ROM 43 and the ROM 43 in which a RAM 42 storing route data when a route is searched, a control program, a risk factor determination processing program (see FIG. 2) described later, and the like are recorded. An internal storage device such as a flash memory 44 for storing the read program is provided. The navigation ECU 13 has various means as processing algorithms. For example, the surrounding environment imaging unit acquires a captured image obtained by sequentially imaging the surrounding environment of the vehicle with the passage of time. The risk factor determination means recognizes the surrounding situation occurring in the surrounding environment of the vehicle at each imaging timing of the input captured image by sequentially inputting the acquired captured image into a learning model generated by machine learning, Risk factors in the surrounding environment of the vehicle are determined based on the recognized surrounding situation. The determination result output means outputs the determination result of the risk factor determination means. The similarity determination unit determines whether or not there is a risk factor in the surrounding situation similar to the past in the surrounding environment of the vehicle by comparing the surrounding situation recognized at each imaging timing of the captured image.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有しても良い。また、マイクと音声認識装置を有しても良い。   The operation unit 14 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 may have a touch panel provided on the front surface of the liquid crystal display 15. Moreover, you may have a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、ナビゲーション装置1で設定されている案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、液晶ディスプレイ15の代わりに、HUDやHMDを用いても良い。また、本実施形態では特に、危険因子の判定結果の案内についても表示する。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route set in the navigation device 1, guidance information along the guidance route, news, weather forecast. , Time, mail, TV program, etc. are displayed. In place of the liquid crystal display 15, HUD or HMD may be used. In the present embodiment, the guidance of the risk factor determination result is also displayed.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、本実施形態では特に、危険因子の判定結果の案内についても出力する。   The speaker 16 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 13 and traffic information guidance. Further, in this embodiment, in particular, guidance on risk factor determination results is also output.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided instead of the DVD drive 17.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 18 is a communication device for receiving traffic information transmitted from a traffic information center such as a VICS center or a probe center, and corresponds to a mobile phone or DCM, for example.

また、車外カメラ19は、例えばCCD等の固体撮像素子を用いたカメラにより構成され、車両のルームミラーの裏側やフロントバンパ等に取り付けられるとともに光軸方向を水平より所定角度下方に向けて設置される。そして、車外カメラ19は、車両の進行方向前方の周辺環境を撮像する。また、ナビゲーションECU13は後述のように撮像された撮像画像を機械学習に入力することによって、車両周辺にある危険因子を判定する。尚、車外カメラ19は車両の側方や後方にも配置するように構成しても良い。また、車外カメラ19の設置位置は運転者の目の位置(視線開始点)と略同一となるように調整するのが望ましい。それによって、危険因子の判定をより適切に行うことが可能となる。   The vehicle exterior camera 19 is constituted by a camera using a solid-state imaging device such as a CCD, for example, and is installed on the rear side of a vehicle rearview mirror, a front bumper, etc., and installed with the optical axis direction downward from the horizontal by a predetermined angle. The And the camera 19 outside a vehicle images the surrounding environment ahead of the advancing direction of a vehicle. Moreover, navigation ECU13 determines the risk factor around a vehicle by inputting into the machine learning the captured image imaged as mentioned later. In addition, you may comprise the vehicle exterior camera 19 so that it may arrange | position also to the side and back of a vehicle. Further, it is desirable to adjust the installation position of the outside camera 19 so as to be substantially the same as the position of the driver's eyes (the line-of-sight start point). Thereby, it becomes possible to determine risk factors more appropriately.

本実施形態に係るナビゲーション装置1において上記機械学習によって判定される危険因子とは、車両が走行する際に注意するべき(案内を行うべき)因子である。例えば車両から視認することが難しい位置にある他車両や歩行者等の障害物、交差点付近の歩行者、交差道路から進入する他車両、車線の増減区間、道路に面する建物の出入口等がある。例えば、「道路に面する建物の出入口」については、歩行者が新たに道路上に出現する可能性のある地点であり、車両が走行する際に注意するべき場所となる。また、「車線の増減区間」については他車両が車線変更を行う可能性のある地点であり、車両が走行する際に注意するべき場所となる。   The risk factor determined by the machine learning in the navigation device 1 according to the present embodiment is a factor that should be noted (guided) when the vehicle travels. For example, there are obstacles such as other vehicles and pedestrians that are difficult to see from the vehicle, pedestrians near the intersection, other vehicles entering from the intersection road, lane increase / decrease sections, building entrances facing the road, etc. . For example, the “entrance / exit of a building facing the road” is a point where a pedestrian may newly appear on the road, and is a place to be noted when the vehicle travels. The “lane increase / decrease section” is a point where another vehicle may change lanes, and is a place to be careful when the vehicle travels.

続いて、上記構成を有する本実施形態に係るナビゲーション装置1においてCPU41が実行する危険因子判定処理プログラムについて図2に基づき説明する。図2は本実施形態に係る危険因子判定処理プログラムのフローチャートである。ここで、危険因子判定処理プログラムは、車両のACC(accessory power supply)がONされた後に所定時間(例えば1sec)間隔で繰り返し実行され、車外カメラ19で撮像した撮像画像に基づいて車両の周囲にある危険因子を判定し、判定結果を出力するプログラムである。また、以下の図2にフローチャートで示されるプログラムは、ナビゲーションECU13が備えているRAM42、ROM43等に記憶されており、CPU41により実行される。   Next, a risk factor determination processing program executed by the CPU 41 in the navigation device 1 according to this embodiment having the above-described configuration will be described with reference to FIG. FIG. 2 is a flowchart of the risk factor determination processing program according to the present embodiment. Here, the risk factor determination processing program is repeatedly executed at predetermined time intervals (for example, 1 sec) after the ACC (accessory power supply) of the vehicle is turned on, and around the vehicle based on the captured image captured by the outside camera 19. This program determines a certain risk factor and outputs the determination result. 2 is stored in the RAM 42, the ROM 43, and the like provided in the navigation ECU 13, and is executed by the CPU 41.

先ず、危険因子判定処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は直近に車外カメラ19で撮像された撮像画像を撮像画像DB32から取得し、機械学習によって生成された学習モデルに入力する。ここで、図3は本実施形態に係る学習モデルの概略を示した図である。特に本実施形態では機械学習として多層構造のニューラルネットワーク(CNN)を用いた機械学習(Deep Learning)を用いる。   First, in the risk factor determination processing program, in step (hereinafter abbreviated as S) 1, the CPU 41 acquires a captured image most recently captured by the outside camera 19 from the captured image DB 32 and generates a learning model generated by machine learning. To enter. Here, FIG. 3 is a diagram showing an outline of the learning model according to the present embodiment. In particular, in this embodiment, machine learning (Deep Learning) using a multilayered neural network (CNN) is used as machine learning.

図3に示すように車外カメラ19で撮像された撮像画像51を学習モデルに入力すると、先ず畳み込みニューラルネットワーク(以下、畳み込みCNNという)52に基づく画像処理が行われる。畳み込みCNN52では、『畳み込み層』と『プーリング層』を複数回繰り返した後に、危険因子を判定する為の特に重要な特徴マップ53が出力される。   As shown in FIG. 3, when a captured image 51 captured by the outside camera 19 is input to a learning model, first, image processing based on a convolutional neural network (hereinafter referred to as convolution CNN) 52 is performed. The convolution CNN 52 outputs a particularly important feature map 53 for determining risk factors after repeating the “convolution layer” and the “pooling layer” a plurality of times.

ここで、『畳み込み層』は入力した画像に対してフィルタをかける(畳み込む)層である。画像の畳み込みによって画像内のパターン(特徴)が検出できるようになる。また、畳み込むフィルタは複数とする。フィルタの数を複数とすることで入力した画像の様々な特徴を捉えることが可能となる。また、フィルタをかけることによって、出力される画像のサイズが小さくなる。出力された画像は特徴マップとも呼ばれる。また、この畳み込み層に用いるフィルタは設計者が設定する必要はなく、学習によって取得することが可能である。尚、学習が進むことによって、危険因子を判定する為の特に重要な特徴を抽出する為に適したフィルタが設定されることとなる。   Here, the “convolution layer” is a layer that filters (convolves) an input image. A pattern (feature) in an image can be detected by convolution of the image. In addition, a plurality of filters are convolved. By using a plurality of filters, various features of the input image can be captured. Further, the size of the output image is reduced by applying the filter. The output image is also called a feature map. Moreover, the filter used for this convolution layer does not need to be set by the designer, and can be acquired by learning. As the learning progresses, a filter suitable for extracting a particularly important feature for determining a risk factor is set.

一方、『プーリング層』は畳み込み層の直後に置かれ、抽出された特徴の位置感度を低下させる。具体的には、畳み込みの出力を粗くリサンプリングすることによって、画像の多少のずれによる違いを吸収する。プーリング層でも入力画像に比べて出力画像のサイズは小さくなる。   On the other hand, the “pooling layer” is placed immediately after the convolution layer, and lowers the position sensitivity of the extracted features. Specifically, the difference due to a slight shift of the image is absorbed by roughly re-sampling the output of the convolution. Even in the pooling layer, the size of the output image is smaller than that of the input image.

その後、畳み込みCNN52によって出力された特徴マップ53を、危険因子判定の為のニューラルネットワーク(以下、危険判定CNNという)54の入力層に対して入力する。そして、危険判定CNN54では、入力層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の中間層に対して入力する。そして、中間層においても同様に中間層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の出力層に対して入力する。そして、出力層において中間層から入力されたデータを用いて最終的な危険因子の判定を行い、判定結果が出力される。尚、危険判定CNN54は、学習が進むことによって、上記ウェイト(重み係数)がより適した値に適宜変更され、設定されることとなる。本実施形態では、特に中間層が車両の周辺状況(シーン)の認識を行う層であり、出力層が車両の周辺状況(シーン)から危険因子の判定を行う層となる。   Thereafter, the feature map 53 output by the convolution CNN 52 is input to an input layer of a neural network (hereinafter referred to as risk determination CNN) 54 for risk factor determination. The risk determination CNN 54 inputs data obtained by multiplying each neuron, which is output data after processing in the input layer, by a weight (weight coefficient), to the next intermediate layer. Similarly, in the intermediate layer, data obtained by multiplying each neuron by a weight (weighting factor), which is output data after processing in the intermediate layer, is input to the next output layer. Then, the final risk factor is determined using the data input from the intermediate layer in the output layer, and the determination result is output. The risk determination CNN 54 is appropriately changed and set to a more suitable value of the weight (weighting factor) as learning progresses. In the present embodiment, in particular, the intermediate layer is a layer that recognizes the surrounding situation (scene) of the vehicle, and the output layer is a layer that determines risk factors from the surrounding situation (scene) of the vehicle.

そして、S2においてCPU41は、上述した学習モデルの危険判定CNN54の中間層において、前記S1で入力された撮像画像51の撮像タイミングにおいて車両の周辺環境に生じている周辺状況(シーン)を認識する。例えば、図3に示すように中間層ではニューロンとして『手を振る人がいる』、『死角がある』、『コンビニがある』、『人通りが多い』、『前方車両あり』等が存在し、各ニューロンに対してニューロン値を特定することによってシーンの認識が行われる。ニューロン値は0から1までの間で特定され、ニューロン値が高いニューロンは周辺環境において重要な要素(特徴的な要素)となるシーンであり、一方でニューロン値が低いニューロンは、重要でない要素(特徴的でない要素)となるシーンであることを示す。例えば、図3に示す例では『手を振る人がいる』及び『死角がある』に対して高いニューロン値が特定されているので、車両の周辺環境において車両の近傍に手を振る人や死角が存在することを示しており、一方で『コンビニがある』、『人通りが多い』、『前方車両あり』に対して低いニューロン値が特定されているので、コンビニは車両周辺には存在せず、人通りは多くなく、前方車両もいないことを示している。尚、前記S2のシーンの認識結果は、認識した日時と紐付けてフラッシュメモリ44等に一定期間保存される。   In S <b> 2, the CPU 41 recognizes a surrounding situation (scene) generated in the surrounding environment of the vehicle at the imaging timing of the captured image 51 input in S <b> 1 in the intermediate layer of the risk determination CNN 54 of the learning model described above. For example, as shown in Fig. 3, there are neurons in the middle layer such as "There are people waving hands", "There are blind spots", "There are convenience stores", "There are many people", "There are vehicles ahead", etc. The scene is recognized by specifying the neuron value for each neuron. A neuron value is specified between 0 and 1, and a neuron having a high neuron value is an important element (characteristic element) in the surrounding environment, while a neuron having a low neuron value is an insignificant element ( This indicates that the scene is a non-characteristic element. For example, in the example shown in FIG. 3, since a high neuron value is specified for “there is a person waving” and “there is a blind spot”, the person or the blind spot waving near the vehicle in the surrounding environment of the vehicle On the other hand, low neuron values are specified for “There are convenience stores”, “Many people”, and “There are vehicles ahead”, so there are no convenience stores around the vehicle. It indicates that there is not much traffic and there is no vehicle ahead. The scene recognition result in S2 is stored in the flash memory 44 or the like for a certain period in association with the recognized date and time.

続いて、S3においてCPU41は、過去の一定期間(例えば直近20秒間)において前記S2で行われたシーンの認識結果をフラッシュメモリ44から読み出す。そして、図4に示すように今回実施された前記S2において認識されたシーン(以下、最新シーンという)と、読み出された過去のシーン(以下、過去シーンという)とを比較することによって、最新シーンと過去シーンとの全体の類似の度合いを示す全体類似度を算出する。即ち、前記S3で算出される全体類似度は、車両の周辺環境において生じている危険因子は考慮せずに、周辺環境全体の類似性を判定した値となる。尚、過去シーンは過去の一定期間に認識された全てのシーンを対象としてS3の処理を実行する。   Subsequently, in S <b> 3, the CPU 41 reads out the scene recognition result performed in S <b> 2 from the flash memory 44 during a past fixed period (for example, the latest 20 seconds). Then, as shown in FIG. 4, the latest scene is recognized by comparing the scene recognized in S2 (hereinafter referred to as the latest scene) and the read past scene (hereinafter referred to as the past scene). An overall similarity indicating the degree of overall similarity between the scene and the past scene is calculated. That is, the overall similarity calculated in S3 is a value obtained by determining the similarity of the entire surrounding environment without considering risk factors occurring in the surrounding environment of the vehicle. For the past scene, the process of S3 is executed for all scenes recognized in the past certain period.

以下に前記S3の全体類似度の算出方法について説明する。
先ずCPU41は、中間層に含む全てのニューロン毎に取得した最新シーンと過去シーンのニューロン値の差分を2乗し、全てのニューロンで合計する。その後、合計値を、中間層に含む全てのニューロンの数(N)で除した値を算出する。更に1から算出値を引いて100を乗じた値を全体類似度(%)とする。例えば、図4に示す例では以下の式(1)〜(3)により算出される。
(0.9−0.8)+(0.8−0.9)+(0.0−0.0)+(0.1−0.2)+・・・=X・・・・(1)
/N=X・・・・(2)
(1.0−X)×100=全体類似度[%]・・・・(3)
The method for calculating the overall similarity in S3 will be described below.
First, the CPU 41 squares the difference between the neuron values of the latest scene and the past scene acquired for every neuron included in the intermediate layer, and sums up all the neurons. Thereafter, a value obtained by dividing the total value by the number (N) of all neurons included in the intermediate layer is calculated. Further, a value obtained by subtracting the calculated value from 1 and multiplying by 100 is defined as the overall similarity (%). For example, in the example shown in FIG. 4, it calculates with the following formula | equation (1)-(3).
(0.9−0.8) 2 + (0.8−0.9) 2 + (0.0−0.0) 2 + (0.1−0.2) 2 +... = X 1 (1)
X 1 / N = X 2 (2)
(1.0−X 2 ) × 100 = Overall similarity [%] (3)

その後、S4においてCPU41は、前記S3で算出した全体類似度が全て閾値以下か否かを判定する。尚、閾値は適宜変更可能であるが例えば70%とする。   Thereafter, in S4, the CPU 41 determines whether or not the overall similarity calculated in S3 is less than or equal to a threshold value. The threshold can be changed as appropriate, but is set to 70%, for example.

そして、前記S3で算出した全体類似度が全て閾値以下であると判定された場合(S4:YES)、即ち車両の周辺環境において過去一定期間内に類似する周辺状況が生じていないと判定された場合については、S5へと移行する。   If it is determined that the overall similarity calculated in S3 is less than or equal to the threshold value (S4: YES), that is, it is determined that no similar situation has occurred in the past certain period in the surrounding environment of the vehicle. For the case, the process proceeds to S5.

それに対して、前記S3で算出した全体類似度が閾値より大きい過去シーンがあると判定された場合(S4:NO)、即ち車両の周辺環境において過去一定期間内に類似する周辺状況が生じていると判定された場合については、運転者は過去の同様のシーンでの警告によって既に今回のシーンが危険であると予め認識できていると推定する。従って、危険因子判定の判定結果を出力することなく当該危険因子判定処理プログラムを終了する。   On the other hand, when it is determined that there is a past scene in which the overall similarity calculated in S3 is larger than the threshold (S4: NO), that is, a surrounding situation similar in the past certain period occurs in the surrounding environment of the vehicle. In the case where it is determined that, the driver presumes that the current scene has already been recognized as dangerous by a warning in a similar scene in the past. Therefore, the risk factor determination processing program is terminated without outputting the risk factor determination result.

S5においてCPU41は、上述した図3に示す学習モデルの危険判定CNN54の出力層において、中間層から入力された車両の周辺状況(シーン)に基づいて、危険因子の判定を行う。尚、危険判定CNN54は、学習が進むことによって、中間層と出力層との間のウェイト(重み係数)がより適した値に適宜変更されるので、同じシーンが中間層から入力された場合であっても学習段階が異なっていれば異なる判定結果となる場合がある。例えば、初期段階では歩行者を重視したウェイト(重み係数)の設定により危険因子の判定が行われていたが、その後、学習が進むことによって他車両が重視されるウェイト(重み係数)の設定へと変更される場合がある。その場合には、同じシーンであっても初期段階では危険因子が無いと判定されていたのに、後期段階では危険因子があると判定される可能性がある。   In S <b> 5, the CPU 41 determines risk factors based on the surrounding situation (scene) of the vehicle input from the intermediate layer in the output layer of the risk determination CNN 54 of the learning model shown in FIG. 3 described above. The risk determination CNN 54 is a case where the weight (weighting factor) between the intermediate layer and the output layer is appropriately changed to a more suitable value as learning progresses, so that the same scene is input from the intermediate layer. Even if there are different learning stages, different determination results may be obtained. For example, in the initial stage, risk factors are determined by setting weights (weighting factors) that place importance on pedestrians, but after that, as the learning proceeds, setting of weights (weighting factors) that place importance on other vehicles is performed. May be changed. In that case, even if it is the same scene, it may be determined that there is no risk factor at an early stage, but it may be determined that there is a risk factor at a later stage.

その後、S6においてCPU41は、上記S5の危険因子の判定の結果、車両の周辺環境に少なくとも一以上の危険因子があるか否かを判定する。   Thereafter, in S6, the CPU 41 determines whether or not there is at least one risk factor in the surrounding environment of the vehicle as a result of the determination of the risk factor in S5.

そして、車両の周辺環境に危険因子があると判定された場合(S6:YES)には、S7へと移行する。それに対して、車両の周辺環境に危険因子がないと判定された場合(S6:NO)には、危険因子判定の判定結果を出力することなく当該危険因子判定処理プログラムを終了する。   And when it determines with there being a risk factor in the surrounding environment of a vehicle (S6: YES), it transfers to S7. On the other hand, when it is determined that there is no risk factor in the surrounding environment of the vehicle (S6: NO), the risk factor determination processing program is terminated without outputting the determination result of the risk factor determination.

S7においてCPU41は、直近に行われた危険判定CNN54の危険因子の判定処理における中間層の各ニューロンのニューロン値と、中間層と出力層との間のウェイト(重み係数)を取得する。   In S7, the CPU 41 obtains the neuron value of each neuron in the intermediate layer and the weight (weighting factor) between the intermediate layer and the output layer in the risk factor determination process of the risk determination CNN 54 performed most recently.

その後、S8においてCPU41は、過去の一定期間(例えば直近20秒間)において前記S2で行われたシーンの認識結果をフラッシュメモリ44から読み出す。そして、今回実施された前記S2において認識されたシーン(最新シーン)と、読み出された過去のシーン(過去シーン)について、特に前記S6の危険因子判定処理において車両周辺に存在すると判定された危険因子に対応するニューロンを比較することによって、最新シーンと過去シーンとの類似の度合いを示す特徴類似度を算出する。尚、前記S8で算出される特徴類似度は、前記S3と異なり、特に車両の周辺環境において生じている危険因子に関するシーンについての類似性(即ち、過去に類似する危険因子が生じているか)を判定した値となる。即ち、前記S8では、過去一定期間において周辺環境全体としては類似している状況が無かったとしても、類似する危険因子(例えば、交差点に歩行者がいる、交差道路から交差点に進入する他車両がある等)が生じている場合には、高い特徴類似度が算出される。尚、過去シーンは過去の一定期間に認識された全てのシーンを対象としてS8の処理を実行する。   Thereafter, in S8, the CPU 41 reads from the flash memory 44 the scene recognition result performed in S2 in the past fixed period (for example, the latest 20 seconds). The risk determined to exist in the vicinity of the vehicle, particularly in the risk factor determination process of S6, with respect to the scene (latest scene) recognized in S2 and the read past scene (past scene) read this time. By comparing the neurons corresponding to the factors, the feature similarity indicating the degree of similarity between the latest scene and the past scene is calculated. Note that the feature similarity calculated in S8 differs from S3 in that it is similar to a scene related to a risk factor occurring in the surrounding environment of the vehicle (that is, whether a risk factor similar to the past has occurred). The determined value. That is, in S8, even if there is no situation similar to the entire surrounding environment in the past certain period, similar risk factors (for example, there are pedestrians at the intersection, other vehicles entering the intersection from the intersection road) If there is a certain feature), a high feature similarity is calculated. For the past scene, the process of S8 is executed for all the scenes recognized in the past certain period.

以下に前記S8の特徴類似度の算出方法について説明する。
先ずCPU41は、最新シーンと過去シーンについて、出力層との間のウェイト(重み係数)が閾値以上のニューロンのニューロン値を取得する。尚、中間層と出力層との間のウェイト(重み係数)は、出力層における危険因子の判定との結びつきを示すものであり、ウェイトが高いニューロンは危険因子の判定結果に強く影響する、即ち前記S6の危険因子判定処理において車両周辺に存在すると判定された危険因子と対応する(関係の強い)ニューロンとなる。ウェイトの閾値は例えば0.6とする。尚、ニューロン毎のウェイトの値は学習が進むにつれて適宜変更されるので、ウェイトが閾値以上のニューロンについても学習段階に応じて変化することとなる。例えば、図5に示す例では『手を振る人がいる』、『死角がある』、『コンビニがある』、『人通りが多い』が出力層との間のウェイト(重み係数)が閾値以上のニューロンとなる。
The method for calculating the feature similarity in S8 will be described below.
First, the CPU 41 obtains the neuron values of the neurons whose weight (weight coefficient) between the output layer and the output layer is greater than or equal to the threshold for the latest scene and the past scene. Note that the weight (weighting factor) between the intermediate layer and the output layer indicates the connection with the risk factor determination in the output layer, and a neuron with a high weight strongly influences the risk factor determination result, that is, It becomes a neuron corresponding (strongly related) to the risk factor determined to be present around the vehicle in the risk factor determination process of S6. The weight threshold is set to 0.6, for example. Note that the value of the weight for each neuron is appropriately changed as learning progresses, so that the neuron whose weight is equal to or greater than the threshold also changes according to the learning stage. For example, in the example shown in FIG. 5, “there is a person waving”, “there is a blind spot”, “there is a convenience store”, and “there is a lot of traffic”, the weight (weight coefficient) between the output layer is greater than the threshold Become neurons.

次に、CPU41は、ニューロン毎に取得したニューロン値の差分を2乗し、対象となる全てのニューロンで合計する。その後、合計値を、ニューロン値を取得したニューロンの数(図5に示す例では4)で除した値を算出する。更に1から算出値を引いて100を乗じた値を特徴類似度(%)とする。例えば、図5に示す例では以下の式(4)〜(6)により算出される。
(0.9−0.8)+(0.8−0.9)+(0.0−0.0)+(0.1−0.2)=0.03・・・・(4)
0.03/4=0.0075・・・・(5)
(1.0−0.0075)×100=99.25(特徴類似度[%])・・・・(6)
Next, the CPU 41 squares the difference between the neuron values acquired for each neuron, and sums up all the target neurons. Thereafter, a value obtained by dividing the total value by the number of neurons from which the neuron value is obtained (4 in the example shown in FIG. 5) is calculated. Further, a value obtained by subtracting the calculated value from 1 and multiplying by 100 is defined as the feature similarity (%). For example, in the example shown in FIG. 5, it calculates with the following formula | equation (4)-(6).
(0.9-0.8) 2 + (0.8-0.9) 2 + (0.0-0.0) 2 + (0.1-0.2) 2 = 0.03 ...・ (4)
0.03 / 4 = 0.0075 (5)
(1.0−0.0075) × 100 = 99.25 (feature similarity [%]) (6)

但し、前記S8で算出した特徴類似度は前記S3で算出した全体類似度に応じて補正しても良い。即ち、危険因子と関連する部分では強い類似性を示したとしても全体として類似していない場合には、特徴類似度を下げる補正を行っても良い。例えば、全体類似度が70%より低い場合(例えば50%)には、その差分(70%−50%=20%)を特徴類似度に乗じた値だけ特徴類似度を下げるようにしても良い。   However, the feature similarity calculated in S8 may be corrected according to the overall similarity calculated in S3. That is, even if strong similarity is shown in the part related to the risk factor, if the similarity is not similar as a whole, correction for lowering the feature similarity may be performed. For example, when the overall similarity is lower than 70% (for example, 50%), the feature similarity may be lowered by a value obtained by multiplying the feature similarity by the difference (70% −50% = 20%). .

また、危険因子と関連する部分では類似性が低かったとしても全体として高い類似性を示した場合には、特徴類似度を上げる補正を行っても良い。例えば、全体類似度が70%より高い場合(例えば90%)には、その差分(90%−70%=20%)を特徴類似度に乗じた値だけ特徴類似度を上げるようにしても良い。   Further, even if the similarity is low in the part related to the risk factor, if the similarity is high as a whole, a correction for increasing the feature similarity may be performed. For example, when the overall similarity is higher than 70% (for example, 90%), the feature similarity may be increased by a value obtained by multiplying the feature similarity by the difference (90% −70% = 20%). .

次に、S9においてCPU41は、前記S8で算出された過去シーン毎の特徴類似度の内、最も高い特徴類似度の値に基づいて、危険因子の判定結果の出力態様を選択する。具体的には、特徴類似度が高い場合には、車両の周辺環境において過去に類似する周辺状況における危険因子が生じていると判定される。従って、運転者は過去の同様のシーンでの警告によって既に今回のシーンが危険であると予め認識できている可能性が高いと推定し、特徴類似度が低い場合、即ち車両の周辺環境において過去に類似する周辺状況における危険因子が生じていない場合よりも簡易な出力態様とする。例えば、特徴類似度が70%未満では液晶ディスプレイ15による表示とスピーカ16による音声を危険因子の出力態様として選択する。一方、特徴類似度が70%以上では液晶ディスプレイ15による表示のみを危険因子の出力態様として選択する。   Next, in S9, the CPU 41 selects an output mode of the risk factor determination result based on the highest feature similarity value among the feature similarities for each past scene calculated in S8. Specifically, when the feature similarity is high, it is determined that a risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the vehicle. Therefore, the driver estimates that there is a high possibility that the current scene has already been recognized as dangerous by a warning in a similar scene in the past, and if the feature similarity is low, that is, in the surrounding environment of the vehicle, The output mode is simpler than the case where no risk factor is generated in the surrounding situation similar to. For example, when the feature similarity is less than 70%, the display by the liquid crystal display 15 and the sound by the speaker 16 are selected as the risk factor output mode. On the other hand, when the feature similarity is 70% or more, only the display on the liquid crystal display 15 is selected as the risk factor output mode.

その後、S10においてCPU41は、危険因子の判定結果を出力する。具体的には、前記S9で選択された出力態様によって行われる。例えば、前記S8で算出された特徴類似度が70%未満の場合には、危険因子が存在することへの警告マークを液晶ディスプレイ15に表示するとともに、「車両の前方に注意してください」との音声案内を行う。一方、前記S8で算出された特徴類似度が70%以上の場合には、危険因子が存在することへの警告マークを液晶ディスプレイ15に表示することのみ行う。   Thereafter, in S10, the CPU 41 outputs a risk factor determination result. Specifically, it is performed according to the output mode selected in S9. For example, when the feature similarity calculated in S8 is less than 70%, a warning mark indicating the presence of a risk factor is displayed on the liquid crystal display 15 and “Please be careful in front of the vehicle”. Voice guidance is performed. On the other hand, when the feature similarity calculated in S8 is 70% or more, only a warning mark that the risk factor exists is displayed on the liquid crystal display 15.

尚、危険因子がどのような種類のものであるかを機械学習によって判別できるのであれば、より具体的に危険因子を特定する案内(例えば「車両の前方死角にある交差道路に注意してください」)を行っても良い。また、危険因子の位置についても案内しても良い。一方、危険因子の出力としては車両制御を行っても良い。その場合には、例えば特徴類似度が70%以上の場合には減速制御を行い、特徴類似度が70%未満の場合にはより強い制御である停止制御を行っても良い。また、自動運転車両に対して適用することも可能である。その場合には、例えば危険因子を避ける走行経路を設定する等の制御が可能である。   In addition, if machine learning can determine what kind of risk factor, guidance for specifying the risk factor more specifically (for example, "Please pay attention to the intersection road in the front blind spot of the vehicle" )). Moreover, you may guide also about the position of a risk factor. On the other hand, vehicle control may be performed as the output of risk factors. In this case, for example, deceleration control may be performed when the feature similarity is 70% or more, and stop control that is stronger control may be performed when the feature similarity is less than 70%. It can also be applied to an autonomous driving vehicle. In that case, control such as setting a travel route that avoids risk factors is possible.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1及びナビゲーション装置1で実行されるコンピュータプログラムでは、車両の周辺環境を撮像した撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した撮像画像の各撮像タイミングにおいて車両の周辺環境に生じている周辺状況を認識するとともに、認識された周辺状況に基づいて移動体の周辺環境にある危険因子を判定し(S5)、車両の周辺環境において過去に類似する周辺状況における危険因子が生じているか否かに基づいて出力態様を変更して危険因子の判定結果を出力する(S10)ので、現在の車両の状況に応じたより正確な危険因子の判定を行うことが可能となる。また、危険因子の判定結果の出力の際にはユーザが危険であると予め認識できている状況では出力態様を変更することが可能であり、ユーザに煩わしさを感じさせることが無い。   As described in detail above, in the navigation device 1 and the computer program executed by the navigation device 1 according to the present embodiment, captured images obtained by capturing the surrounding environment of the vehicle are sequentially input to a learning model generated by machine learning. By recognizing the surrounding situation occurring in the surrounding environment of the vehicle at each imaging timing of the input captured image, and determining the risk factor in the surrounding environment of the moving body based on the recognized surrounding situation (S5), Since the risk factor in the surrounding environment similar to the past has occurred in the surrounding environment of the vehicle, the output mode is changed and the risk factor determination result is output (S10). An accurate risk factor can be determined. Further, when the risk factor determination result is output, the output mode can be changed in a situation where the user can recognize in advance that the risk is dangerous, and the user is not bothered.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では機械学習として特に多層構造の畳み込みニューラルネットワークを用いた機械学習(Deep Learning)を用いているが、その他の機械学習を用いることも可能である。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, machine learning (Deep Learning) using a convolutional neural network having a multilayer structure is used as the machine learning, but other machine learning can also be used.

また、本実施形態では前記S4において車両の周辺環境において全体類似度が閾値以上の場合(S4:YES)については、危険因子の判定結果の出力を行わない構成としているが、危険因子の判定結果の出力を行っても良い。但し、出力態様は前記S10と比較して簡易な態様とするのが望ましい。   In this embodiment, when the overall similarity is equal to or greater than the threshold value in the surrounding environment of the vehicle in S4 (S4: YES), the risk factor determination result is not output. May be output. However, it is desirable that the output mode be a simple mode as compared with S10.

また、本実施形態では危険因子判定処理プログラム(図2)はナビゲーション装置1が実施しているが、ナビゲーション装置以外の車載器が実施する構成としても良い。また、車載器が全ての処理を実施するのではなく、一部の処理を外部サーバが実施することとしても良い。   In the present embodiment, the risk factor determination processing program (FIG. 2) is executed by the navigation device 1, but may be configured by an on-vehicle device other than the navigation device. Moreover, it is good also as an external server performing some processes instead of an onboard equipment performing all the processes.

また、本発明に係る走行支援装置を具体化した実施例について上記に説明したが、走行支援装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the embodiment which actualized the driving support device according to the present invention has been described above, the driving support device can also have the following configuration, and in that case, the following effects can be obtained.

例えば、第1の構成は以下のとおりである。
時間経過に伴って移動体の周辺環境を順次撮像した撮像画像(51)を取得する周辺環境撮像手段(41)と、取得した前記撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した前記撮像画像の各撮像タイミングにおいて前記移動体の周辺環境に生じている周辺状況を認識するとともに、認識された前記周辺状況に基づいて前記移動体の周辺環境にある危険因子を判定する危険因子判定手段(41)と、前記危険因子判定手段の判定結果を出力する判定結果出力手段(41)と、前記撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における危険因子が生じているか否かを判定する類似判定手段(41)と、を有し、前記判定結果出力手段は、前記類似判定手段の判定結果に応じて出力態様を変更する。
上記構成を有する走行支援装置によれば、時間経過に伴って周辺環境を撮像した撮像画像を順次機械学習によって生成された学習モデルに入力することによって、現在の移動体の状況に応じたより正確な危険因子の判定を行うことが可能となる。また、危険因子の判定結果の出力の際にはユーザが危険であると予め認識できている状況では出力態様を変更することが可能であり、ユーザに煩わしさを感じさせることが無い。
For example, the first configuration is as follows.
Peripheral environment imaging means (41) that acquires captured images (51) that sequentially capture the surrounding environment of the moving body over time, and the acquired captured images are sequentially input to a learning model generated by machine learning. To recognize a surrounding situation occurring in the surrounding environment of the moving body at each imaging timing of the input captured image and determine a risk factor in the surrounding environment of the moving body based on the recognized surrounding situation The risk factor determination means (41) that performs the determination, the determination result output means (41) that outputs the determination result of the risk factor determination means, and the peripheral situation recognized at each imaging timing of the captured image, Similarity determination means (41) for determining whether or not a risk factor in a surrounding situation similar to the past has occurred in the surrounding environment of the moving object, Judgment result output means changes an output mode in accordance with the determination result of the similarity determination unit.
According to the driving support apparatus having the above-described configuration, a captured image obtained by capturing the surrounding environment as time elapses is sequentially input to a learning model generated by machine learning. Risk factors can be determined. Further, when the risk factor determination result is output, the output mode can be changed in a situation where the user can recognize in advance that the risk is dangerous, and the user is not bothered.

また、第2の構成は以下のとおりである。
前記機械学習は、多層構造のニューラルネットワークを用いた機械学習であって、前記類似判定手段(41)は、中間層におけるニューロンの値を過去の撮像タイミングとの間で比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における危険因子が生じているか否かを判定する。
上記構成を有する走行支援装置によれば、多層構造のニューラルネットワークを用いた機械学習によって、画像の特徴をより深いレベルで学習し、非常に高い精度で特徴を認識できるので、危険因子のより正確な判定が可能となる。また、中間層におけるニューロンの値を比較することによって、移動体の周辺環境において過去に類似する周辺状況が生じているか否かを正確に判定することが可能となる。
The second configuration is as follows.
The machine learning is machine learning using a neural network having a multilayer structure, and the similarity determination means (41) compares the neuron value in the intermediate layer with a past imaging timing, thereby moving the movement. It is determined whether or not there are risk factors in the surrounding environment similar to the past in the surrounding environment of the body.
According to the driving support apparatus having the above-described configuration, image features can be learned at a deeper level and machine features can be recognized with very high accuracy by machine learning using a multi-layered neural network. Judgment is possible. Further, by comparing the values of neurons in the intermediate layer, it is possible to accurately determine whether or not a surrounding situation similar to the past has occurred in the surrounding environment of the moving body.

また、第3の構成は以下のとおりである。
前記類似判定手段(41)は、中間層におけるニューロンの内、前記危険因子判定手段(41)により判定された危険因子に対応するニューロンの値を、過去の撮像タイミングとの間で比較する。
上記構成を有する走行支援装置によれば、特に判定された危険因子と結びつきが強い要素との比較によって過去に類似する周辺状況が生じているか否かを判定するので、移動体の周辺環境において過去に類似する周辺状況が生じているか否かを正確に判定することが可能となる。
The third configuration is as follows.
The similarity determination means (41) compares the neuron value corresponding to the risk factor determined by the risk factor determination means (41) among the neurons in the intermediate layer with the past imaging timing.
According to the driving support apparatus having the above-described configuration, it is determined whether or not a surrounding situation similar to the past has occurred by comparing with the determined risk factor and an element that is strongly associated with the past. It is possible to accurately determine whether or not a surrounding situation similar to is occurring.

また、第4の構成は以下のとおりである。
前記類似判定手段(41)は、中間層におけるニューロンの内、出力層との間の重み係数が閾値以上のニューロンを、前記危険因子判定手段により判定された危険因子に対応するニューロンとする。
上記構成を有する走行支援装置によれば、中間層におけるニューロンの内、特に判定された危険因子と結びつきが強いニューロンとの比較によって過去に類似する周辺状況が生じているか否かを判定するので、移動体の周辺環境において過去に類似する周辺状況が生じているか否かを正確に判定することが可能となる。
The fourth configuration is as follows.
The similarity determination unit (41) sets a neuron having a weight coefficient between the output layer and a neuron corresponding to the risk factor determined by the risk factor determination unit among the neurons in the intermediate layer.
According to the driving support device having the above configuration, since it is determined whether or not a peripheral situation similar to the past has occurred by comparison with a neuron in the intermediate layer that is particularly strongly associated with the determined risk factor, It is possible to accurately determine whether or not a surrounding situation similar to the past has occurred in the surrounding environment of the moving object.

また、第5の構成は以下のとおりである。
前記類似判定手段(41)は、中間層におけるニューロンの値を過去の撮像タイミングとの間で比較することによって、該過去の撮像タイミングで認識された周辺状況との類似度を算出し、算出された類似度が閾値以上の場合に、前記移動体の周辺環境において過去に類似する周辺状況における危険因子が生じていると判定する。
上記構成を有する走行支援装置によれば、ニューロン値の比較に基づいて算出された類似度を用いることによって、移動体の周辺環境において過去に類似する周辺状況が生じているか否かを正確に判定することが可能となる。
The fifth configuration is as follows.
The similarity determination means (41) calculates the similarity with the surrounding situation recognized at the past imaging timing by comparing the value of the neuron in the intermediate layer with the past imaging timing. If the similarity is equal to or greater than the threshold value, it is determined that a risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the moving body.
According to the driving support apparatus having the above configuration, by using the similarity calculated based on the comparison of the neuron values, it is accurately determined whether or not a surrounding situation similar to the past has occurred in the surrounding environment of the moving body. It becomes possible to do.

また、第6の構成は以下のとおりである。
前記判定結果出力手段(41)は、前記移動体の周辺環境において過去に類似する周辺状況における危険因子が生じていると判定された場合には判定結果を出力しない、或いは前記移動体の周辺環境において過去に類似する周辺状況における危険因子が生じていないと判定された場合よりも簡易化して出力する。
上記構成を有する走行支援装置によれば、ユーザが現在の周辺状況を危険であると予め認識できている可能性の高い状況では危険因子の出力態様をより簡易な出力態様へと変更することにより、ユーザに煩わしさを感じさせることが無い。
The sixth configuration is as follows.
The determination result output means (41) does not output a determination result when it is determined that a risk factor in a surrounding situation similar to the past has occurred in the surrounding environment of the moving body, or the surrounding environment of the moving body Is output in a simplified manner as compared with the case where it is determined that the risk factors in the surrounding situation similar to the past have not occurred.
According to the driving support device having the above configuration, by changing the output mode of the risk factor to a simpler output mode in a situation where the user is likely to recognize the current surrounding situation as dangerous in advance. , The user does not feel bothered.

1 ナビゲーション装置
13 ナビゲーションECU
19 車外カメラ
31 地図情報DB
32 撮像画像DB
33 2次元地図情報
34 3次元地図情報
41 CPU
42 RAM
43 ROM
51 撮像画像
52 畳み込みCNN
54 危険判定CNN
1 Navigation device 13 Navigation ECU
19 Outside camera 31 Map information DB
32 Captured image DB
33 2D map information 34 3D map information 41 CPU
42 RAM
43 ROM
51 Captured image 52 Convolution CNN
54 Danger judgment CNN

Claims (7)

時間経過に伴って移動体の周辺環境を順次撮像した撮像画像を取得する周辺環境撮像手段と、
取得した前記撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した前記撮像画像の各撮像タイミングにおいて前記移動体の周辺環境に生じている周辺状況を認識するとともに、認識された前記周辺状況に基づいて前記移動体の周辺環境にある危険因子を判定する危険因子判定手段と、
前記危険因子判定手段の判定結果を出力する判定結果出力手段と、
前記撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じているか否かを判定する類似判定手段と、を有し、
前記判定結果出力手段は、前記類似判定手段の判定結果に応じて出力態様を変更する走行支援装置。
A surrounding environment imaging means for acquiring a captured image obtained by sequentially capturing the surrounding environment of the moving body over time;
The acquired captured images are sequentially input to a learning model generated by machine learning, thereby recognizing and recognizing the surrounding situation occurring in the surrounding environment of the moving body at each imaging timing of the input captured image. A risk factor judging means for judging a risk factor in the surrounding environment of the mobile body based on the surrounding situation;
Determination result output means for outputting the determination result of the risk factor determination means;
Similarity determination means for determining whether or not the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the mobile body by comparing the surrounding situation recognized at each imaging timing of the captured image; Have
The determination result output unit is a driving support device that changes an output mode according to a determination result of the similarity determination unit.
前記機械学習は、多層構造のニューラルネットワークを用いた機械学習であって、
前記類似判定手段は、中間層におけるニューロンの値を過去の撮像タイミングとの間で比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じているか否かを判定する請求項1に記載の走行支援装置。
The machine learning is machine learning using a neural network having a multilayer structure,
The similarity determination means determines whether or not the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the moving body by comparing the neuron value in the intermediate layer with the past imaging timing. The driving support device according to claim 1 for determination.
前記類似判定手段は、中間層におけるニューロンの内、前記危険因子判定手段により判定された危険因子に対応するニューロンの値を、過去の撮像タイミングとの間で比較する請求項2に記載の走行支援装置。   The driving support according to claim 2, wherein the similarity determination unit compares a value of a neuron corresponding to the risk factor determined by the risk factor determination unit among neurons in the intermediate layer with a past imaging timing. apparatus. 前記類似判定手段は、中間層におけるニューロンの内、出力層との間の重み係数が閾値以上のニューロンを、前記危険因子判定手段により判定された危険因子に対応するニューロンとする請求項3に記載の走行支援装置。   4. The similarity determination unit according to claim 3, wherein among the neurons in the intermediate layer, a neuron whose weight coefficient between the output layer and the output layer is greater than or equal to a threshold value is a neuron corresponding to the risk factor determined by the risk factor determination unit. Driving support device. 前記類似判定手段は、
中間層におけるニューロンの値を過去の撮像タイミングとの間で比較することによって、該過去の撮像タイミングで認識された周辺状況との類似度を算出し、
算出された類似度が閾値以上の場合に、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じていると判定する請求項2乃至請求項4のいずれかに記載の走行支援装置。
The similarity determination means includes
By comparing the neuron value in the intermediate layer with the past imaging timing, the similarity with the surrounding situation recognized at the past imaging timing is calculated,
The travel according to any one of claims 2 to 4, wherein when the calculated similarity is equal to or greater than a threshold value, it is determined that the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the moving body. Support device.
前記判定結果出力手段は、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じていると判定された場合には判定結果を出力しない、或いは前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じていないと判定された場合よりも簡易化して出力する請求項1乃至請求項5のいずれかに記載の走行支援装置。   The determination result output means does not output the determination result when it is determined that the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the moving body, or the past in the surrounding environment of the moving body The driving support device according to any one of claims 1 to 5, wherein the output is simplified and output as compared with a case where it is determined that the risk factor is not generated in a surrounding situation similar to the above. コンピュータを、
時間経過に伴って移動体の周辺環境を順次撮像した撮像画像を取得する周辺環境撮像手段と、
取得した前記撮像画像を順次機械学習によって生成された学習モデルに入力することによって、入力した前記撮像画像の各撮像タイミングにおいて前記移動体の周辺環境に生じている周辺状況を認識するとともに、認識された前記周辺状況に基づいて前記移動体の周辺環境にある危険因子を判定する危険因子判定手段と、
前記危険因子判定手段の判定結果を出力する判定結果出力手段と、
前記撮像画像の各撮像タイミングで認識された周辺状況を比較することによって、前記移動体の周辺環境において過去に類似する周辺状況における前記危険因子が生じているか否かを判定する類似判定手段と、して機能させる為のコンピュータプログラムであって、
前記判定結果出力手段は、前記類似判定手段の判定結果に応じて出力態様を変更するコンピュータプログラム。
Computer
A surrounding environment imaging means for acquiring a captured image obtained by sequentially capturing the surrounding environment of the moving body over time;
The acquired captured images are sequentially input to a learning model generated by machine learning, thereby recognizing and recognizing the surrounding situation occurring in the surrounding environment of the moving body at each imaging timing of the input captured image. A risk factor judging means for judging a risk factor in the surrounding environment of the mobile body based on the surrounding situation;
Determination result output means for outputting the determination result of the risk factor determination means;
Similarity determination means for determining whether or not the risk factor in the surrounding situation similar to the past has occurred in the surrounding environment of the mobile body by comparing the surrounding situation recognized at each imaging timing of the captured image; A computer program to make it function,
The said determination result output means is a computer program which changes an output mode according to the determination result of the said similarity determination means.
JP2017072136A 2017-03-31 2017-03-31 Travel support system and computer program Pending JP2018173861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017072136A JP2018173861A (en) 2017-03-31 2017-03-31 Travel support system and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017072136A JP2018173861A (en) 2017-03-31 2017-03-31 Travel support system and computer program

Publications (1)

Publication Number Publication Date
JP2018173861A true JP2018173861A (en) 2018-11-08

Family

ID=64108699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017072136A Pending JP2018173861A (en) 2017-03-31 2017-03-31 Travel support system and computer program

Country Status (1)

Country Link
JP (1) JP2018173861A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126625A (en) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network
JP2021086597A (en) * 2020-03-09 2021-06-03 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126625A (en) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network
JP2021086597A (en) * 2020-03-09 2021-06-03 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, and method

Similar Documents

Publication Publication Date Title
JP6566145B2 (en) Driving support device and computer program
JP6834704B2 (en) Driving support device and computer program
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5569365B2 (en) Guide device, guide method, and guide program
JP4231884B2 (en) Gaze object detection device and gaze object detection method
JP6926976B2 (en) Parking assistance device and computer program
JP2018173860A (en) Travel support system and computer program
JP2019164611A (en) Traveling support device and computer program
JP2014163814A (en) Travel guide system, travel guide method, and computer program
JP2014120114A (en) Travel support system, travel support method, and computer program
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP2018173861A (en) Travel support system and computer program
JP5811666B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP2014153192A (en) Travel guide system, travel guide method, and computer program
JP2017062706A (en) Travel support system, travel support method, and computer program
JP6136237B2 (en) Driving support system, driving support method, and computer program
JP5899691B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP2014154125A (en) Travel support system, travel support method and computer program
JP6582798B2 (en) Driving support system, driving support method, and computer program
JP5810721B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5712844B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5831016B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5786522B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2014153867A (en) Travel support system, travel support method and computer program
JP2023066924A (en) Gaze information processing device, gaze information processing method and program for gaze information processing