JP2019164611A - Traveling support device and computer program - Google Patents

Traveling support device and computer program Download PDF

Info

Publication number
JP2019164611A
JP2019164611A JP2018052300A JP2018052300A JP2019164611A JP 2019164611 A JP2019164611 A JP 2019164611A JP 2018052300 A JP2018052300 A JP 2018052300A JP 2018052300 A JP2018052300 A JP 2018052300A JP 2019164611 A JP2019164611 A JP 2019164611A
Authority
JP
Japan
Prior art keywords
image
risk factor
determination target
map
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018052300A
Other languages
Japanese (ja)
Inventor
孝光 坂井
Takamitsu Sakai
孝光 坂井
智明 廣田
Tomoaki Hirota
智明 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2018052300A priority Critical patent/JP2019164611A/en
Publication of JP2019164611A publication Critical patent/JP2019164611A/en
Pending legal-status Critical Current

Links

Abstract

To provide a traveling support device capable of further accurately determining risk factors in a peripheral environment of a mobile, and a computer program.SOLUTION: A traveling support device is configured to: acquire a picked-up image capturing a peripheral environment of a vehicle; acquire a map information image that is a three-dimensionally representing map image indicating the same range as a range of the picked-up image in the same direction as an imaging direction of the picked-up image in a map image; set determination target areas subjected to determination of risk factors in the peripheral environment of the vehicle; and input the picked-up image and the map information image to machine learning as input images, thereby extracting the risk factors in the determination target areas on the basis of learning data.SELECTED DRAWING: Figure 7

Description

本発明は、移動体の走行支援を行う走行支援装置及びコンピュータプログラムに関する。   The present invention relates to a travel support apparatus and a computer program that support travel of a moving object.

近年、例えば車両等の移動体に対する走行支援の一つとして、移動体の周辺にある危険因子を抽出し、抽出した危険因子を案内することが行われている。危険因子とは移動体が走行する際に注意するべき因子であり、例えば移動体から視認することが難しい位置にある(以下同様)他車両や歩行者等の障害物、交差道路、横断歩道等の道路標識、車線の増減区間、道路に面する建物の出入口等がある。上記のような危険因子を判定する手段としては、例えば移動体の現在位置や方位と地図情報とを比較して判定することや、移動体に搭載されたカメラ、センサ或いは通信機器を用いて判定することが可能である。   In recent years, for example, as one of driving support for a moving body such as a vehicle, a risk factor around the moving body is extracted and the extracted risk factor is guided. A risk factor is a factor to be noted when a moving object travels. For example, an obstacle such as another vehicle or a pedestrian, a crossing road, a pedestrian crossing, etc. that are in a position that is difficult to see from the moving object (the same applies hereinafter) Road signs, lane increase / decrease sections, and entrances to buildings facing the road. As a means for determining the risk factor as described above, for example, the determination is made by comparing the current position and orientation of the moving object with map information, or using a camera, sensor or communication device mounted on the moving object. Is possible.

例えば特開2012−192878号公報には、車両の走行中において車両に設置されたカメラ、センサ及び通信機器を用いて周辺にある他車両等の障害物の位置や移動速度をリアルタイムで検出し、車両に死角領域があって、且つ死角領域の危険度が高いと判定された場合には、死角領域にある障害物を回避する為の運転支援を行うことが開示されている。   For example, in JP2012-192878A, the position and moving speed of obstacles such as other vehicles in the vicinity are detected in real time using a camera, a sensor, and a communication device installed in the vehicle while the vehicle is running. It is disclosed that when a vehicle has a blind spot area and it is determined that the risk of the blind spot area is high, driving assistance is performed to avoid an obstacle in the blind spot area.

特開2012−192878号公報(第8−11頁)JP2012-192878A (page 8-11)

しかしながら、上記特許文献1では、自車両と他車両との位置関係に基づいて俯瞰的に死角領域を判定しているが、実際に運転者から視認できる周辺環境については考慮していないので、死角領域と判定された領域が実際の運転者の死角領域と異なる場合があった。また、先行車両や対向車両の挙動によって死角領域の危険度を判定しているが、仮に先行車両や対向車両が危険度の高いと判定される挙動を行ったとしても、実際に死角領域が危険であるか否かを正確に判定することは困難であった。従って、危険因子とならない死角領域についても危険因子と判定され、支援対象となる可能性がある。   However, in Patent Document 1 above, the blind spot area is determined from a bird's-eye view based on the positional relationship between the host vehicle and the other vehicle. However, since the surrounding environment that is actually visible to the driver is not taken into consideration, The area determined to be the area may be different from the actual driver's blind spot area. Moreover, although the risk of the blind spot area is determined based on the behavior of the preceding vehicle and the oncoming vehicle, even if the preceding vehicle or the oncoming vehicle is determined to have a high risk, the blind spot area is actually dangerous. It was difficult to accurately determine whether or not. Therefore, a blind spot area that does not become a risk factor is also determined as a risk factor and may be a support target.

本発明は前記従来における問題点を解消するためになされたものであり、判定対象領域を設定することによって、移動体の周辺環境にある危険因子をより正確に判定することを可能にした走行支援装置及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and by setting a determination target region, it is possible to more accurately determine risk factors in the surrounding environment of the moving body. An object is to provide an apparatus and a computer program.

前記目的を達成するため本発明に係る走行支援装置は、移動体の周辺環境を撮像した撮像画像を取得する周辺環境撮像手段と、3次元で地図を表現した地図画像において前記撮像画像の撮像範囲と同一範囲を前記撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像として取得する地図情報画像取得手段と、前記移動体の周辺環境にある危険因子を判定する判定対象領域を設定する領域設定手段と、前記撮像画像と前記地図情報画像とを入力画像として機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する危険因子抽出手段と、を有する。
尚、「移動体」とは、車両に限定されず、歩行者、自転車等の道路を移動するものであれば良い。
また、「危険因子」とは、移動体が走行する際に注意するべき因子であり、例えば移動体から視認することが難しい位置にある(以下同様)他車両や歩行者等の障害物、交差道路、横断歩道等の道路標識、車線の増減区間、道路に面する建物の出入口等がある。
In order to achieve the above object, a driving support apparatus according to the present invention includes a surrounding environment imaging unit that acquires a captured image obtained by imaging a surrounding environment of a moving body, and an imaging range of the captured image in a map image that represents a map in three dimensions. A map information image acquisition means for acquiring a map image indicating the same range from the same direction as the imaging direction of the captured image as a map information image, and a determination target region for determining a risk factor in the surrounding environment of the mobile object Region setting means, and risk factor extraction means for extracting a risk factor in the determination target region based on learning data by inputting the captured image and the map information image as input images to machine learning. Have.
The “moving body” is not limited to a vehicle, and may be anything that moves on a road such as a pedestrian or a bicycle.
The “risk factor” is a factor to be noted when the moving body travels. For example, an obstacle such as other vehicles or pedestrians, intersections, etc. that are difficult to see from the moving body (the same applies hereinafter). There are road signs such as roads, pedestrian crossings, lane increase / decrease sections, and entrances to buildings facing the road.

また、本発明に係るコンピュータプログラムは、移動体の走行支援を行うプログラムである。具体的には、コンピュータを、移動体の周辺環境を撮像した撮像画像を取得する周辺環境撮像手段と、3次元で地図を表現した地図画像において前記撮像画像の撮像範囲と同一範囲を前記撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像として取得する地図情報画像取得手段と、前記移動体の周辺環境にある危険因子を判定する判定対象領域を設定する領域設定手段と、前記撮像画像と前記地図情報画像とを入力画像として機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する危険因子抽出手段と、して機能させる。   The computer program according to the present invention is a program for supporting traveling of a moving object. Specifically, the surrounding environment imaging means for acquiring a captured image obtained by imaging the surrounding environment of the moving body, and the captured image having the same range as the imaging range of the captured image in the map image expressing the map in three dimensions. A map information image acquiring means for acquiring a map image shown from the same direction as the imaging direction of the image as a map information image, an area setting means for setting a determination target area for determining a risk factor in the surrounding environment of the mobile body, By inputting the captured image and the map information image as input images to machine learning, the risk factor extraction means for extracting the risk factor in the determination target region based on the learning data is caused to function.

前記構成を有する本発明に係る走行支援装置及びコンピュータプログラムによれば、3次元で地図を表現した地図画像と移動体の周辺の撮像画像とを入力画像として機械学習に入力するとともに、危険因子の判定対象となる判定対象領域を予め設定することによって、学習データに基づいて移動体の周辺環境にある危険因子をより正確に判定することが可能となる。   According to the driving support device and the computer program according to the present invention having the above-described configuration, a map image expressing a map in three dimensions and a captured image around the moving body are input as input images to machine learning, and risk factors By setting the determination target region to be determined in advance, it becomes possible to more accurately determine the risk factor in the surrounding environment of the moving body based on the learning data.

第1実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on 1st Embodiment. 第2実施形態に係る機械学習処理プログラムのフローチャートである。It is a flowchart of the machine learning processing program which concerns on 2nd Embodiment. 撮像画像の撮像範囲を示した図である。It is the figure which showed the imaging range of the captured image. 撮像画像に基づいて生成される地図情報画像を示した図である。It is the figure which showed the map information image produced | generated based on a captured image. 判定対象領域の一例を説明した図である。It is a figure explaining an example of the determination object area | region. 判定対象領域の一例を説明した図である。It is a figure explaining an example of the determination object area | region. 第1実施形態に係る機械学習の一例を説明した図である。It is a figure explaining an example of machine learning concerning a 1st embodiment. 撮像画像と地図情報画像とを比較した図である。It is the figure which compared the captured image and the map information image. 第1実施形態に係る危険因子判定処理プログラムのフローチャートである。It is a flowchart of the risk factor determination processing program which concerns on 1st Embodiment. 第1実施形態に係る機械学習の一例を説明した図である。It is a figure explaining an example of machine learning concerning a 1st embodiment.

以下、本発明に係る走行支援装置について、ナビゲーション装置に具体化した第1実施形態及び第2実施形態に基づき図面を参照しつつ詳細に説明する。   Hereinafter, a driving support device according to the present invention will be described in detail with reference to the drawings based on a first embodiment and a second embodiment embodied in a navigation device.

[第1実施形態]
先ず、第1実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係るナビゲーション装置1を示したブロック図である。
[First Embodiment]
First, a schematic configuration of the navigation device 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to the first embodiment.

図1に示すように第1実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図やナビゲーション装置1に設定された案内経路に関する情報等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスや危険因子に対する警告等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有している。また、ナビゲーション装置1は、CAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置された車外カメラ19が接続されている。   As shown in FIG. 1, the navigation device 1 according to the first embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, and a data recording unit 12 that records various data. The navigation ECU 13 that performs various arithmetic processes based on the input information, the operation unit 14 that receives operations from the user, and the information on the map around the vehicle and the guidance route set in the navigation device 1 for the user Etc., a speaker 16 that outputs voice guidance regarding route guidance, warnings about risk factors, etc., a DVD drive 17 that reads DVD as a storage medium, a probe center and VICS (registered trademark: Vehicle Information and Communication System) A communication module that communicates with an information center such as a center. Has a 8, a. In addition, the navigation device 1 is connected to an out-of-vehicle camera 19 installed on a vehicle on which the navigation device 1 is mounted via an in-vehicle network such as CAN.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which the navigation apparatus 1 has is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all the four types of sensors, and the navigation device 1 may include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や撮像画像DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12としてはハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクを有しても良い。また、地図情報DB31や撮像画像DB32は外部のサーバに格納させ、ナビゲーション装置1が通信により取得しても良い。   The data recording unit 12 reads an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 and a captured image DB 32 recorded on the hard disk, a predetermined program, and the like, and stores predetermined data on the hard disk. And a recording head (not shown) as a driver for writing. The data recording unit 12 may include a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. Further, the map information DB 31 and the captured image DB 32 may be stored in an external server, and the navigation device 1 may acquire them by communication.

ここで、地図情報DB31は、2次元地図情報33と3次元地図情報34とがそれぞれ記憶される。2次元地図情報33は、一般的なナビゲーション装置1において用いられる地図情報であり、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等を含む。   Here, the map information DB 31 stores two-dimensional map information 33 and three-dimensional map information 34, respectively. The two-dimensional map information 33 is map information used in a general navigation device 1. For example, link data related to roads (links), node data related to node points, facility data related to facilities, and search data used for route search processing. , Map display data for displaying a map, intersection data for each intersection, search data for searching for a point, and the like.

一方、3次元地図情報34は、3次元で地図を表現した地図画像に関する情報である。特に第1実施形態では3次元で道路の輪郭を表現した地図画像に関する情報とする。尚、道路の輪郭以外の情報についても表現した地図画像としても良い。例えば、施設形状、道路の区画線、道路標識、看板等についても3次元で表現した地図画像としても良い。また、3次元地図情報34としては3次元空間上に上記道路の輪郭を配置した地図そのものを記憶しても良いし、3次元で地図を表現する為に必要な情報(道路の輪郭の3次元の座標データなど)を記憶しても良い。3次元で地図を表現する為に必要な情報が格納されている場合には、ナビゲーション装置1は、必要なタイミングで3次元地図情報34として記憶された情報を用いて、対象となるエリアを3次元で表現した地図を生成することが可能である。   On the other hand, the three-dimensional map information 34 is information relating to a map image representing a map in three dimensions. In particular, in the first embodiment, the information is related to a map image expressing the outline of a road in three dimensions. In addition, it is good also as a map image expressing also information other than the outline of a road. For example, a facility image, a road marking line, a road sign, a signboard, and the like may be used as a map image expressed in three dimensions. Further, as the 3D map information 34, the map itself in which the road outline is arranged in the 3D space may be stored, or information necessary for expressing the map in 3D (3D of the road outline). Coordinate data, etc.) may be stored. When information necessary for representing a map in three dimensions is stored, the navigation apparatus 1 uses the information stored as the three-dimensional map information 34 at the necessary timing to select a target area 3 It is possible to generate a map expressed in dimensions.

そして、ナビゲーション装置1は、液晶ディスプレイ15における地図画像の表示、案内経路の探索等の一般的な機能については2次元地図情報33を用いて行う。また、後述のように危険因子の判定に係る処理については3次元地図情報34を用いて行う。   The navigation device 1 uses the two-dimensional map information 33 for general functions such as displaying a map image on the liquid crystal display 15 and searching for a guide route. Further, as will be described later, the process relating to the risk factor determination is performed using the three-dimensional map information 34.

また、撮像画像DB32は、車外カメラ19によって撮像された撮像画像35が格納される記憶手段である。尚、車外カメラ19によって撮像された撮像画像35は累積的に撮像画像DB32に格納され、古い画像から順に削除される。   The captured image DB 32 is a storage unit that stores the captured image 35 captured by the camera 19 outside the vehicle. The captured images 35 captured by the camera 19 outside the vehicle are cumulatively stored in the captured image DB 32 and are deleted in order from the oldest image.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の機械学習処理プログラム(図2参照)及び危険因子判定処理プログラム(図9参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、周辺環境撮像手段は、移動体(車両)の周辺環境を撮像した撮像画像を取得する。地図情報画像取得手段は、3次元で地図を表現した地図画像において撮像画像の撮像範囲と同一範囲を撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像として取得する。領域設定手段は、移動体の周辺環境にある危険因子を判定する判定対象領域を設定する。危険因子抽出手段は、撮像画像と地図情報画像とを入力画像として機械学習に入力することによって、判定対象領域における危険因子を、学習データに基づいて抽出する。   On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. In addition to the RAM 42 for storing route data when a route is searched, a control program, a machine learning processing program (see FIG. 2) and a risk factor determination processing program (see FIG. 9) described later. ) Etc. are recorded, and an internal storage device such as a flash memory 44 for storing a program read from the ROM 43 is provided. The navigation ECU 13 has various means as processing algorithms. For example, the surrounding environment imaging unit acquires a captured image obtained by imaging the surrounding environment of the moving body (vehicle). The map information image acquisition means acquires, as a map information image, a map image that shows the same range as the imaging range of the captured image from the same direction as the imaging direction of the captured image in the map image that represents the map in three dimensions. The area setting means sets a determination target area for determining a risk factor in the surrounding environment of the moving body. The risk factor extraction means extracts the risk factor in the determination target region based on the learning data by inputting the captured image and the map information image as input images to machine learning.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有しても良い。また、マイクと音声認識装置を有しても良い。   The operation unit 14 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 may have a touch panel provided on the front surface of the liquid crystal display 15. Moreover, you may have a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、ナビゲーション装置1で設定されている案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、液晶ディスプレイ15の代わりに、HUDやHMDを用いても良い。また、第1実施形態では特に、危険因子の判定結果の案内についても表示する。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route set in the navigation device 1, guidance information along the guidance route, news, weather forecast. , Time, mail, TV program, etc. are displayed. In place of the liquid crystal display 15, HUD or HMD may be used. In the first embodiment, guidance on risk factor determination results is also displayed.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、第1実施形態では特に、危険因子の判定結果の案内についても出力する。   The speaker 16 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 13 and traffic information guidance. In the first embodiment, the guidance of the risk factor determination result is also output.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided instead of the DVD drive 17.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 18 is a communication device for receiving traffic information transmitted from a traffic information center such as a VICS center or a probe center, and corresponds to a mobile phone or DCM, for example.

また、車外カメラ19は、例えばCCD等の固体撮像素子を用いたカメラにより構成され、車両のルームミラーの裏側やフロントバンパ等に取り付けられるとともに光軸方向を水平より所定角度下方に向けて設置される。そして、車外カメラ19は、車両の進行方向前方の周辺環境を撮像する。また、ナビゲーションECU13は後述のように撮像された撮像画像を3次元地図情報34の画像とともに複数チャネルの入力画像として機械学習に入力することによって、車両周辺にある危険因子を判定する。尚、車外カメラ19は車両の側方や後方にも配置するように構成しても良い。また、車外カメラ19の設置位置は運転者の目の位置(視線開始点)と略同一であって、光軸方向は通常時の運転者の視線方向と略同一となるように調整するのが望ましい。それによって、車外カメラ19によって撮像された画像が運転者の視野と一致することとなり、危険因子の判定をより適切に行うことが可能となる。   The vehicle exterior camera 19 is constituted by a camera using a solid-state imaging device such as a CCD, for example, and is installed on the rear side of a vehicle rearview mirror, a front bumper, etc. The And the camera 19 outside a vehicle images the surrounding environment ahead of the advancing direction of a vehicle. In addition, the navigation ECU 13 determines a risk factor around the vehicle by inputting the captured image captured as described later to the machine learning as an input image of a plurality of channels together with the image of the three-dimensional map information 34. In addition, you may comprise the vehicle exterior camera 19 so that it may arrange | position also to the side and back of a vehicle. Further, the installation position of the outside camera 19 is substantially the same as the position of the driver's eyes (the line-of-sight start point), and the optical axis direction is adjusted to be substantially the same as the driver's line-of-sight direction at the normal time. desirable. As a result, the image captured by the vehicle camera 19 matches the driver's field of view, and the risk factor can be determined more appropriately.

第1実施形態に係るナビゲーション装置1において上記機械学習によって判定される危険因子とは、車両が走行する際に注意するべき(案内を行うべき)因子である。例えば車両から視認することが難しい位置にある(以下同様)他車両や歩行者等の障害物、交差道路、横断歩道等の道路標識、車線の増減区間、道路に面する建物の出入口等がある。例えば、「道路に面する建物の出入口」については、歩行者が新たに道路上に出現する可能性のある地点であり、車両が走行する際に注意するべき場所となる。また、「車線の増減区間」については他車両が車線変更を行う可能性のある地点であり、車両が走行する際に注意するべき場所となる。   The risk factor determined by the machine learning in the navigation device 1 according to the first embodiment is a factor that should be noted (the guidance should be performed) when the vehicle travels. For example, there are obstacles such as other vehicles and pedestrians, road signs such as cross roads and pedestrian crossings, lane increase / decrease sections, entrances to buildings facing the road, etc. . For example, the “entrance / exit of a building facing the road” is a point where a pedestrian may newly appear on the road, and is a place to be noted when the vehicle travels. The “lane increase / decrease section” is a point where another vehicle may change lanes, and is a place to be careful when the vehicle travels.

尚、第1実施形態では前記したように3次元地図情報34は、特に道路の輪郭線を3次元で表現した地図画像に関する情報である。従って、3次元地図情報34の地図画像を機械学習に入力することによって判定対象となる危険因子は道路に関する因子、例えば“車両から視認することが難しい位置にある道路”となる。但し、3次元地図情報34に含める情報の数を増やすことによって、その他の種類の危険因子についても判定対象とすることが可能である。例えば、3次元地図情報34に区画線の情報を含めることによって、“車両から視認することが難しい位置にある車線の増減区間”を危険因子として判定対象とする。更に、3次元地図情報34に施設の形状の情報を含めることによって、“車両から視認することが難しい位置にある道路に面する建物の出入口”を危険因子として判定対象とする。   In the first embodiment, as described above, the three-dimensional map information 34 is information related to a map image that expresses a road contour line in three dimensions. Therefore, the risk factor to be determined by inputting the map image of the three-dimensional map information 34 into the machine learning is a factor related to the road, for example, “a road in a position that is difficult to see from the vehicle”. However, by increasing the number of information included in the three-dimensional map information 34, other types of risk factors can be determined. For example, by including lane marking information in the three-dimensional map information 34, “a lane increase / decrease section at a position that is difficult to see from the vehicle” is determined as a risk factor. Furthermore, by including information on the shape of the facility in the three-dimensional map information 34, “a doorway of a building facing a road at a position that is difficult to see from the vehicle” is determined as a risk factor.

続いて、上記構成を有する第1実施形態に係るナビゲーション装置1においてCPU41が実行する機械学習処理プログラムについて図2に基づき説明する。図2は第1実施形態に係る機械学習処理プログラムのフローチャートである。ここで、機械学習処理プログラムは、車両のACCがONされた後に実行され、車外カメラ19で撮像した撮像画像と3次元地図情報34とに基づいて危険因子を判定する為の機械学習を行う際における学習用教師信号(正解値)を設定するプログラムである。尚、機械学習処理プログラム(図2)は後述の危険因子を判定する為の危険因子判定処理プログラム(図9)と並行して実施される。即ち、危険因子判定処理プログラム(図9)によって危険因子の判定を行いつつ、機械学習処理プログラム(図2)によって危険因子の判定を行う為のより適切な学習用教師信号(正解値)を設定する。また、以下の図2及び図7にフローチャートで示されるプログラムは、ナビゲーションECU13が備えているRAM42、ROM43等に記憶されており、CPU41により実行される。   Next, a machine learning process program executed by the CPU 41 in the navigation device 1 according to the first embodiment having the above configuration will be described with reference to FIG. FIG. 2 is a flowchart of the machine learning processing program according to the first embodiment. Here, the machine learning processing program is executed after the ACC of the vehicle is turned on, and performs machine learning for determining a risk factor based on the captured image captured by the outside camera 19 and the three-dimensional map information 34. Is a program for setting a teacher signal for learning (correct answer value). The machine learning processing program (FIG. 2) is executed in parallel with a risk factor determination processing program (FIG. 9) for determining risk factors described later. That is, while determining risk factors by the risk factor determination processing program (FIG. 9), a more appropriate learning teacher signal (correct value) for determining risk factors by the machine learning processing program (FIG. 2) is set. To do. 2 and 7 are stored in the RAM 42, the ROM 43, and the like provided in the navigation ECU 13, and are executed by the CPU 41.

先ず、機械学習処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は車両の現在位置及び方位を現在位置検出部11の検出結果に基づいて取得する。具体的には、2次元地図情報33を用いて車両の現在位置を示す地図上の位置座標を取得する。尚、車両の現在位置を検出する際には、車両の現在位置を2次元地図情報33にマッチングさせるマップマッチング処理についても行う。更に、車両の現在位置は、高精度ロケーション技術を用いて特定しても良い。ここで、高精度ロケーション技術とは、車両後方のカメラから取り込んだ白線や路面ペイント情報を画像認識により検出し、更に、白線や路面ペイント情報を予め記憶した地図情報DBと照合することにより、走行車線や高精度な車両位置を検出可能にする技術である。尚、高精度ロケーション技術の詳細については既に公知であるので省略する。尚、車両の現在位置及び方位は最終的に3次元地図情報34の地図上で特定するのが望ましい。   First, in the machine learning processing program, in step (hereinafter abbreviated as S) 1, the CPU 41 acquires the current position and direction of the vehicle based on the detection result of the current position detection unit 11. Specifically, position coordinates on the map indicating the current position of the vehicle are acquired using the two-dimensional map information 33. Note that when detecting the current position of the vehicle, a map matching process for matching the current position of the vehicle with the two-dimensional map information 33 is also performed. Furthermore, the current position of the vehicle may be specified using a high-precision location technique. Here, the high-accuracy location technology detects the white line and road surface paint information captured from the camera behind the vehicle by image recognition, and further compares the white line and road surface paint information with a previously stored map information DB, thereby driving the vehicle. This is a technology that makes it possible to detect lanes and highly accurate vehicle positions. The details of the high-accuracy location technology are already known and will be omitted. It is desirable that the current position and direction of the vehicle are finally specified on the map of the three-dimensional map information 34.

次に、S2においてCPU41は、地図情報DB31に格納された3次元地図情報34の内、特に前記S1で特定された車両の現在位置周辺(例えば車両の現在位置から300m周囲)の3次元地図情報34を取得する。   Next, in S2, the CPU 41, among the 3D map information 34 stored in the map information DB 31, particularly 3D map information around the current position of the vehicle specified in S1 (for example, around 300 m from the current position of the vehicle). 34 is acquired.

続いて、S3においてCPU41は、直近に車外カメラ19で撮像された撮像画像を撮像画像DB32から取得する。尚、車外カメラ19で撮像された撮像画像は、運転者の視線開始点(視点)及び視線方向に対応して車両の進行方向前方、即ち運転者が視認する前方環境(運転者の視野)を撮像した画像である。   Subsequently, in S <b> 3, the CPU 41 obtains a captured image that was most recently captured by the outside camera 19 from the captured image DB 32. The captured image captured by the camera 19 outside the vehicle corresponds to the driver's line-of-sight start point (viewpoint) and the line-of-sight direction in the forward direction of the vehicle, that is, the front environment (driver's field of view) visually recognized by the driver. This is a captured image.

その後、S4においてCPU41は、前記S3で取得した撮像画像の撮像範囲を取得する。ここで、図3に示すように撮像画像35の撮像範囲は、撮像を行った時点の車外カメラ19の焦点Pの位置、光軸方向α、画角φによって特定することが可能である。尚、画角φは車外カメラ19によって予め決められた固定値である。一方、焦点Pの位置は前記S1で取得した車両の現在位置と車両における車外カメラ19の設置位置に基づいて決まる。また、光軸方向αは前記S1で取得した車両の方位と車両における車外カメラ19の設置方向に基づいて決まる。   Thereafter, in S4, the CPU 41 acquires the imaging range of the captured image acquired in S3. Here, as shown in FIG. 3, the imaging range of the captured image 35 can be specified by the position of the focal point P, the optical axis direction α, and the angle of view φ of the outside camera 19 at the time of imaging. The angle of view φ is a fixed value determined in advance by the camera 19 outside the vehicle. On the other hand, the position of the focal point P is determined based on the current position of the vehicle acquired in S1 and the installation position of the outside camera 19 in the vehicle. Further, the optical axis direction α is determined based on the direction of the vehicle acquired in S1 and the installation direction of the outside camera 19 in the vehicle.

次に、S5においてCPU41は、前記S2で取得した3次元地図情報34を用いて、前記S4で取得した撮像画像の撮像範囲と同一範囲を撮像画像の撮像方向と同一方向から視認した際の地図画像の俯瞰画像(以下、地図情報画像という)を生成する。尚、地図情報画像自体は、撮像画像と同じ2次元の画像である。   Next, in S <b> 5, the CPU 41 uses the 3D map information 34 acquired in S <b> 2 to map the same range as the imaging range of the captured image acquired in S <b> 4 from the same direction as the imaging direction of the captured image. An overhead image of the image (hereinafter referred to as a map information image) is generated. Note that the map information image itself is the same two-dimensional image as the captured image.

ここで、図4は撮像画像51に対応して生成される地図情報画像52の一例を示した図である。図4に示すように地図情報画像52は撮像画像51の撮像範囲(即ち運転者の視野内)に含まれる道路の輪郭53を示す線が描かれた画像となる。そして、撮像画像51では他車両等の障害物によって隠れている道路の輪郭についても地図情報画像52では描かれることとなる。   Here, FIG. 4 is a diagram showing an example of the map information image 52 generated corresponding to the captured image 51. As shown in FIG. 4, the map information image 52 is an image in which a line indicating the contour 53 of the road included in the imaging range of the captured image 51 (that is, within the driver's field of view) is drawn. In the captured image 51, the contour of the road hidden by an obstacle such as another vehicle is also drawn in the map information image 52.

その後、S6においてCPU41は、車両の周辺環境にある危険因子を判定する判定対象領域を設定し、自車両から判定対象領域までの距離を取得する。以下の説明では危険因子として車両の進行方向前方にあって車両から視認することが難しい位置にある接続道路(分岐点で接続する道路)を判定する例について説明する。その場合において、危険因子を判定する判定対象領域としては、車両が走行する道路と車両の周囲にある分岐点で接続する接続道路の一部を少なくとも含む領域とするのが望ましい。   Thereafter, in S6, the CPU 41 sets a determination target area for determining risk factors in the surrounding environment of the vehicle, and acquires a distance from the own vehicle to the determination target area. In the following description, an example will be described in which a connection road (a road connected at a branch point) located at a position that is in front of the vehicle in the traveling direction and difficult to be visually recognized as a risk factor is described. In this case, it is desirable that the determination target region for determining the risk factor is a region including at least a part of the road on which the vehicle travels and a connecting road connected at a branch point around the vehicle.

例えば、図4に示す例では、車両の進行方向前方にある分岐点57に接続する道路58、59が接続道路に該当する。従って、道路58、59を対象として危険因子の判定が行われることとなり、危険因子を判定する判定対象領域は、道路58、59の一部を少なくとも含む領域に設定される。例えば一例として図5に示すように道路58、59が分岐点57と接続する最も自車両側に位置する端部Xを中心とした周辺領域(例えば横3m、高さ2mの矩形領域)を判定対象領域61に設定する。或いは、図6に示すように道路58、59が分岐点57と接続する最も自車両側に位置する端部Xを原点として、接続する分岐点57から道路58、59に沿って離れる方向に3m、高さ方向に2mの矩形領域を判定対象領域61に設定することも可能である。尚、本実施形態では特に車両が走行する道路と交差する方向に接続する道路58、59を接続道路の対象とするが、進行方向に接続する道路60についても接続道路に含めても良い。   For example, in the example shown in FIG. 4, roads 58 and 59 connected to the branch point 57 ahead of the traveling direction of the vehicle correspond to the connection road. Therefore, the risk factor is determined for the roads 58 and 59, and the determination target area for determining the risk factor is set to an area including at least a part of the roads 58 and 59. For example, as shown in FIG. 5, a peripheral region (for example, a rectangular region having a width of 3 m and a height of 2 m) centered on the end portion X located on the most vehicle side where the roads 58 and 59 are connected to the branch point 57 is determined. The target area 61 is set. Alternatively, as shown in FIG. 6, the road 58, 59 is 3 m in a direction away from the connecting branch point 57 along the roads 58, 59, with the end X located closest to the host vehicle connecting with the branch point 57 as the origin. It is also possible to set a rectangular area of 2 m in the height direction as the determination target area 61. In this embodiment, the roads 58 and 59 connected in the direction intersecting with the road on which the vehicle travels are particularly targeted. However, the road 60 connected in the traveling direction may also be included in the connection road.

そして、前記S6においてCPU41は、自車両から判定対象領域までの距離として、車両が走行する道路と車両の周囲にある分岐点で接続する接続道路が分岐点と接続する最も自車両側に位置する端部(図5、図6に示す例では端部X)までの距離を取得する。具体的には、前記S1で取得した車両の現在位置と3次元地図情報34に基づいて算出する。尚、車外カメラ19がステレオカメラである場合には撮像画像から検出することも可能である。また、端部X以外に判定対象領域の基準となる地点があれば当該地点までの距離を取得しても良い。   In S <b> 6, the CPU 41 is positioned as the distance from the own vehicle to the determination target region, so that the road on which the vehicle travels and the connection road connecting at the branch points around the vehicle are located closest to the own vehicle connecting to the branch point. The distance to the edge (edge X in the examples shown in FIGS. 5 and 6) is acquired. Specifically, it is calculated based on the current position of the vehicle acquired in S1 and the three-dimensional map information 34. In addition, when the vehicle exterior camera 19 is a stereo camera, it is also possible to detect from a captured image. Further, if there is a point serving as a reference for the determination target region other than the end X, the distance to the point may be acquired.

尚、第1実施例では危険因子として、車両の進行方向前方にあって車両から視認することが難しい位置にある接続道路(分岐点で接続する道路)を判定する例について説明するが、その他の種類の危険因子(例えば建物の入り口、道路周辺を移動する歩行者、他車両等)についても判定対象とすることは可能である。そして、判定対象とする危険因子の種類に応じて、判定対象領域も適宜設定するのが望ましい。   In addition, although 1st Example demonstrates the example which determines the connection road (road connected by a branch point) in the position which is ahead of the advancing direction of a vehicle and is difficult to visually recognize from a vehicle as a risk factor, Different types of risk factors (for example, entrances to buildings, pedestrians moving around roads, other vehicles, etc.) can be determined. Then, it is desirable to appropriately set the determination target area according to the type of risk factor to be determined.

その後、S7においてCPU41は、前記S3で取得した撮像画像と前記S5で生成された地図情報画像とを複数チャネルの入力画像として機械学習に入力する。また、撮像画像に関してはRGBの各3色で表現した3チャンネルの入力画像として機械学習に入力するので、地図情報画像と含めて4チャンネルの入力画像となる。尚、第1実施形態では特に多層構造の畳み込みニューラルネットワークを用いた機械学習(Deep Learning)を用いる。   Thereafter, in S7, the CPU 41 inputs the captured image acquired in S3 and the map information image generated in S5 as input images of a plurality of channels to machine learning. In addition, since the captured image is input to machine learning as a three-channel input image expressed in three colors of RGB, it becomes a four-channel input image including the map information image. In the first embodiment, machine learning (Deep Learning) using a convolutional neural network having a multilayer structure is used.

図7に示すようにRGBの各3色で表現した撮像画像51と地図情報画像52を4チャンネルの入力画像として学習モデルに入力すると、先ず畳み込みニューラルネットワーク(以下、畳み込みCNNという)65に基づく画像処理が行われる。畳み込みCNN65では、『畳み込み層』と『プーリング層』を複数回繰り返し、その過程では危険因子を判定する為の特に重要な特徴マップ66が出力される。   As shown in FIG. 7, when a captured image 51 and a map information image 52 expressed in three colors of RGB are input to a learning model as 4-channel input images, first, an image based on a convolutional neural network (hereinafter referred to as convolution CNN) 65. Processing is performed. In the convolution CNN 65, the “convolution layer” and the “pooling layer” are repeated a plurality of times, and a particularly important feature map 66 for determining a risk factor is output in the process.

また、『畳み込み層』は入力した画像に対してフィルタをかける(畳み込む)層である。画像の畳み込みによって画像内のパターン(特徴)が検出できるようになる。また、畳み込むフィルタは複数とする。フィルタの数を複数とすることで入力した画像の様々な特徴を捉えることが可能となる。また、フィルタをかけることによって、出力される画像のサイズが小さくなる。出力された画像は特徴マップとも呼ばれる。また、この畳み込み層に用いるフィルタは設計者が設定する必要はなく、学習によって取得することが可能である。尚、学習が進むことによって、危険因子を判定する為の特に重要な特徴を抽出する為に適したフィルタが設定されることとなる。この機械学習処理プログラムによって設定する学習用教師信号(正解値)には上記フィルタも含まれる。   The “convolution layer” is a layer that filters (convolves) an input image. A pattern (feature) in an image can be detected by convolution of the image. In addition, a plurality of filters are convolved. By using a plurality of filters, various features of the input image can be captured. Further, the size of the output image is reduced by applying the filter. The output image is also called a feature map. Moreover, the filter used for this convolution layer does not need to be set by the designer, and can be acquired by learning. As the learning progresses, a filter suitable for extracting a particularly important feature for determining a risk factor is set. The teacher signal for learning (correct value) set by the machine learning processing program includes the filter.

更に、S8においてCPU41は、前記S6で設定した判定対象領域を特定する情報についても機械学習に入力する。特に第1実施形態に係るナビゲーション装置1では、入力された距離情報に基づいて上記畳み込みCNN65において出力される特徴マップ66に対してマスク処理を行うことにより上記入力を実行する。マスクを行うのは、判定対象領域以外の領域とする。   Furthermore, in S8, the CPU 41 also inputs information for specifying the determination target area set in S6 to the machine learning. In particular, in the navigation device 1 according to the first embodiment, the input is executed by performing mask processing on the feature map 66 output from the convolution CNN 65 based on the input distance information. Masking is performed in an area other than the determination target area.

具体的にCPU41は、先ず前記S6で取得した判定対象領域61までの距離情報に基づいて、特徴マップ66における判定対象領域61(即ち、撮像画像51及び地図情報画像52における判定対象領域にも相当)の範囲の座標(マップ(画像)に対して設定した座標系での座標)を特定する。そして、特定された座標に基づいて、特徴マップ66の内、判定対象領域に特定された領域以外に対してマスク処理を行う。尚、マスク処理が行われた領域で抽出された特徴については、危険因子の判定する為の特徴から除外される(即ちマスク処理が行われた領域外で危険因子が判定される)。   Specifically, the CPU 41 first corresponds to the determination target area 61 in the feature map 66 (that is, the determination target area in the captured image 51 and the map information image 52) based on the distance information to the determination target area 61 acquired in S6. ) Range coordinates (coordinates in the coordinate system set for the map (image)) are specified. Then, based on the specified coordinates, mask processing is performed on areas other than the area specified as the determination target area in the feature map 66. Note that the features extracted in the masked area are excluded from the characteristics for determining the risk factor (that is, the risk factor is determined outside the masked area).

一方、『プーリング層』は畳み込み層の直後に置かれ、抽出された特徴の位置感度を低下させる。具体的には、畳み込みの出力を粗くリサンプリングすることによって、画像の多少のずれによる違いを吸収する。プーリング層でも入力画像に比べて出力画像のサイズは小さくなる。   On the other hand, the “pooling layer” is placed immediately after the convolution layer, and lowers the position sensitivity of the extracted features. Specifically, the difference due to a slight shift of the image is absorbed by roughly re-sampling the output of the convolution. Even in the pooling layer, the size of the output image is smaller than that of the input image.

そして、上記『畳み込み層』と『プーリング層』を複数回繰り返した後に、特徴マップ66から最終的に全結合した多層パーセプトロンを出力する。多層パーセプトロンは1次元ベクトルのデータとなる。   Then, after repeating the “convolution layer” and the “pooling layer” a plurality of times, a multilayer perceptron that is finally fully coupled is output from the feature map 66. The multilayer perceptron is one-dimensional vector data.

その後、畳み込みCNN65によって出力された全結合した多層パーセプトロンを、危険因子判定の為のニューラルネットワーク(以下、危険判定CNNという)67の入力層に対して入力する。そして、危険判定CNN67では、入力層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の中間層に対して入力する。そして、中間層においても同様に中間層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の出力層に対して入力する。そして、出力層において中間層から入力されたデータを用いて最終的な危険因子の判定を行い、判定結果(即ち抽出された危険因子)が出力される。尚、危険判定CNN67は、学習が進むことによって、上記ウェイト(重み係数)がより適した値に適宜変更され、設定されることとなる。即ち機械学習処理プログラムによって設定する学習用教師信号(正解値)には上記ウェイト(重み係数)も含まれる。   Thereafter, the fully coupled multilayer perceptron output by the convolution CNN 65 is input to an input layer of a neural network (hereinafter referred to as risk determination CNN) 67 for risk factor determination. In the risk determination CNN 67, data obtained by multiplying each neuron, which is output data after processing in the input layer, by a weight (weight coefficient), is input to the next intermediate layer. Similarly, in the intermediate layer, data obtained by multiplying each neuron by a weight (weighting factor), which is output data after processing in the intermediate layer, is input to the next output layer. Then, the final risk factor is determined using data input from the intermediate layer in the output layer, and the determination result (that is, the extracted risk factor) is output. The risk determination CNN 67 is appropriately changed and set to a more suitable value for the weight (weight coefficient) as learning progresses. That is, the learning teacher signal (correct value) set by the machine learning processing program includes the weight (weight coefficient).

また、特に第1実施形態では入力対象となる撮像画像51と地図情報画像52とを同一チャンネルで重ね合せて入力することによって、同一の画素間(即ち車両周辺の同一エリア)での相関、即ち撮像画像と地図情報画像との間に差分がある差分エリアを容易に識別することが可能となる。CPU41は、撮像画像と地図情報画像との間に差分がある差分エリアを、地図画像上には存在するが撮像画像では何らかの理由によって消失した(撮像されなかった)対象があるエリアであり、車両の乗員から死角となるエリアと推定する。従って、特に差分エリア内において機械学習によって抽出された特徴部分から危険因子を判定することによって、危険因子の判定に係る処理をより軽くすることが可能となる。尚、機械学習によって抽出される特徴部分としては、地図情報画像には含まれている一方で撮像画像には含まれていない対象物、即ち運転者の視野内にはあるが視認できない対象物が含まれることとなる。   Further, in particular, in the first embodiment, by inputting the captured image 51 and the map information image 52, which are input targets, by overlapping them on the same channel, the correlation between the same pixels (that is, the same area around the vehicle), that is, It is possible to easily identify a difference area where there is a difference between the captured image and the map information image. The CPU 41 is an area where there is a difference area between the captured image and the map information image that exists on the map image but has disappeared (not captured) for some reason in the captured image. It is estimated that the area is a blind spot from the passenger. Accordingly, by determining the risk factor from the feature portion extracted by machine learning, particularly in the difference area, it is possible to further reduce the processing related to the risk factor determination. Note that the feature portion extracted by machine learning includes an object that is included in the map information image but not included in the captured image, that is, an object that is in the driver's field of view but cannot be seen. Will be included.

例えば、図8に示す撮像画像51(実際にはRGBで表現された3つの画像)と地図情報画像52とが機械学習に入力される場合には、地図情報画像52には存在する道路の輪郭の一部が撮像画像51では他車両によって消失する。即ち、図8に示す例では破線に囲まれたエリアが差分エリア68となる。また、上記機械学習によって抽出される特徴部分は道路の輪郭線を被覆する他車両や消失した輪郭線となる。これらの特徴部分は差分エリア68にあるので、差分エリア68を容易に識別可能とすることによって、上記特徴部分の抽出に係る処理を容易化することが可能となる。   For example, when the captured image 51 (three images actually expressed in RGB) and the map information image 52 shown in FIG. 8 and the map information image 52 are input to the machine learning, the contour of the road existing in the map information image 52 is displayed. Is lost in the captured image 51 by another vehicle. That is, in the example shown in FIG. 8, the area surrounded by the broken line is the difference area 68. In addition, the feature portion extracted by the machine learning is another vehicle that covers the road outline, or a lost outline. Since these feature portions are in the difference area 68, by making the difference area 68 easily identifiable, it becomes possible to facilitate the processing relating to the extraction of the feature portions.

更に、第1実施形態では前述したように判定対象領域61を特定する情報についても機械学習に入力する。その結果、特に判定対象領域61内において機械学習によって抽出された特徴部分から危険因子を判定することとなる。それによって、運転者に視認できない接続道路等の運転者に存在を把握させるべき危険因子の候補が存在する場合において、機械学習によって該接続道路を危険因子として判定し易くなる。尚、図8に示す例では他車両によって道路の輪郭線が撮像画像51から消失しているが、他車両以外にも建造物等によって消失する場合もある。   Furthermore, in the first embodiment, as described above, information for specifying the determination target region 61 is also input to machine learning. As a result, risk factors are determined from the feature portions extracted by machine learning, particularly in the determination target region 61. As a result, when there is a risk factor candidate that should cause the driver to know the presence of a connected road or the like that cannot be visually recognized by the driver, it becomes easy to determine the connected road as a risk factor by machine learning. In the example shown in FIG. 8, the outline of the road disappears from the captured image 51 due to the other vehicle, but may disappear due to a building or the like other than the other vehicle.

その後、S9においてCPU41は、前記S7及びS8の学習結果に基づいて学習データである学習用教師信号(正解値)を設定する。尚、学習用教師信号には、上述したように畳み込み層に用いるフィルタや危険判定CNN67に用いるウェイト(重み係数)が含まれる。その結果、機械学習処理プログラムを繰り返し行うことによって、危険因子を特定する為の特に重要な特徴を抽出する為に適したフィルタが設定され、車両の周辺状況(シーン)からより正確な危険因子の判定を行うことが可能となる。特に第1実施形態では学習用教師信号には、地図情報画像には含まれている一方で撮像画像には含まれていない対象物(即ち運転者の視野内にはあるが視認できない対象物)を危険因子として判定する為の学習データを含むこととなる。   Thereafter, in S9, the CPU 41 sets a learning teacher signal (correct answer value), which is learning data, based on the learning results in S7 and S8. Note that the learning teacher signal includes a filter used for the convolution layer and a weight (weighting coefficient) used for the risk determination CNN 67 as described above. As a result, by repeating the machine learning processing program, a filter suitable for extracting particularly important features for identifying risk factors is set, and more accurate risk factors can be determined from the surrounding situation (scene) of the vehicle. A determination can be made. Particularly in the first embodiment, the learning teacher signal includes an object that is included in the map information image but is not included in the captured image (that is, an object that is in the driver's field of view but cannot be seen). Learning data for determining as a risk factor.

続いて、第1実施形態に係るナビゲーション装置1においてCPU41が実行する危険因子判定処理プログラムについて図9に基づき説明する。図9は第1実施形態に係る危険因子判定処理プログラムのフローチャートである。ここで、危険因子判定処理プログラムは、車両のACCがONされた後に実行され、車外カメラ19で撮像した撮像画像と3次元地図情報34とに基づいて車両の周囲にある危険因子を判定し、判定結果を出力するプログラムである。尚、危険因子判定処理プログラム(図9)は前述した機械学習処理プログラム(図2)と並行して実施される。即ち、危険因子判定処理プログラム(図9)によって危険因子の判定を行いつつ、機械学習処理プログラム(図2)によって危険因子の判定を行う為のより適切な学習用教師信号(正解値)を設定する。   Next, a risk factor determination processing program executed by the CPU 41 in the navigation device 1 according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart of the risk factor determination processing program according to the first embodiment. Here, the risk factor determination processing program is executed after the ACC of the vehicle is turned on, and determines the risk factor around the vehicle based on the captured image captured by the outside camera 19 and the three-dimensional map information 34, It is a program that outputs the judgment result. The risk factor determination processing program (FIG. 9) is executed in parallel with the above-described machine learning processing program (FIG. 2). That is, while determining risk factors by the risk factor determination processing program (FIG. 9), a more appropriate learning teacher signal (correct value) for determining risk factors by the machine learning processing program (FIG. 2) is set. To do.

先ず、危険因子判定処理プログラムでは、S11において、CPU41は車両の現在位置及び方位を現在位置検出部11の検出結果に基づいて取得する。尚、詳細はS1と同様であるので省略する。   First, in the risk factor determination processing program, in S <b> 11, the CPU 41 acquires the current position and direction of the vehicle based on the detection result of the current position detection unit 11. The details are the same as in S1, and will be omitted.

次に、S12においてCPU41は、地図情報DB31に格納された3次元地図情報34の内、特に前記S11で特定された車両の現在位置周辺(例えば車両の現在位置から300m周囲)の3次元地図情報34を取得する。   Next, in S12, the CPU 41, among the 3D map information 34 stored in the map information DB 31, in particular, the 3D map information around the current position of the vehicle specified in S11 (for example, around 300 m from the current position of the vehicle). 34 is acquired.

続いて、S13においてCPU41は、直近に車外カメラ19で撮像された撮像画像を撮像画像DB32から取得する。尚、車外カメラ19で撮像された撮像画像は、運転者の視線開始点(視点)及び視線方向に対応して車両の進行方向前方、即ち運転者が視認する前方環境(運転者の視野)を撮像した画像である。   Subsequently, in S <b> 13, the CPU 41 acquires a captured image captured by the vehicle exterior camera 19 most recently from the captured image DB 32. The captured image captured by the camera 19 outside the vehicle corresponds to the driver's line-of-sight start point (viewpoint) and the line-of-sight direction in the forward direction of the vehicle, that is, the front environment (driver's field of view) visually recognized by the driver. This is a captured image.

その後、S14においてCPU41は、前記S3で取得した撮像画像の撮像範囲を取得する。尚、詳細はS4と同様であるので省略する。   Thereafter, in S14, the CPU 41 acquires the imaging range of the captured image acquired in S3. The details are the same as in S4, and will be omitted.

次に、S15においてCPU41は、前記S12で取得した3次元地図情報34を用いて、前記S14で取得した撮像画像の撮像範囲と同一範囲を撮像画像の撮像方向と同一方向から視認した際の地図画像の俯瞰画像(地図情報画像)を生成する。   Next, in S15, the CPU 41 uses the three-dimensional map information 34 acquired in S12, and the map when the same range as the imaging range of the captured image acquired in S14 is viewed from the same direction as the imaging direction of the captured image. An overhead image (map information image) of the image is generated.

その後、S16においてCPU41は、車両の周辺環境にある危険因子を判定する判定対象領域を設定し、車両から判定対象領域までの距離を取得する。尚、詳細はS6と同様であるので省略する。   Thereafter, in S <b> 16, the CPU 41 sets a determination target region for determining risk factors in the surrounding environment of the vehicle, and acquires a distance from the vehicle to the determination target region. The details are the same as S6, and will be omitted.

続いて、S17においてCPU41は、前記S13で取得した撮像画像と前記S15で生成された地図情報画像とを複数チャネルの入力画像として機械学習に入力する。また、撮像画像に関してはRGBの各3色で表現した3チャンネルの入力画像として機械学習に入力するので、地図情報画像と含めて4チャンネルの入力画像となる。尚、第1実施形態では特に多層構造の畳み込みニューラルネットワークを用いた機械学習(Deep Learning)を用いる。   Subsequently, in S17, the CPU 41 inputs the captured image acquired in S13 and the map information image generated in S15 to machine learning as a multi-channel input image. In addition, since the captured image is input to machine learning as a three-channel input image expressed in three colors of RGB, it becomes a four-channel input image including the map information image. In the first embodiment, machine learning (Deep Learning) using a convolutional neural network having a multilayer structure is used.

尚、第1実施形態では特に多層構造の畳み込みニューラルネットワークを用いた機械学習(Deep Learning)を用いる。また、前述した機械学習処理プログラム(図2)によって設定された最新の学習用教師信号(正解値)を用いる。   In the first embodiment, machine learning (Deep Learning) using a convolutional neural network having a multilayer structure is used. In addition, the latest learning teacher signal (correct value) set by the machine learning processing program (FIG. 2) described above is used.

更に、S18においてCPU41は、前記S16で設定した判定対象領域を特定する情報についても機械学習に入力する。尚、機械学習の内容についてはS7及びS8で説明したので詳細は省略する   Furthermore, in S18, the CPU 41 also inputs information for specifying the determination target area set in S16 to the machine learning. Since the contents of machine learning have been described in S7 and S8, details are omitted.

そして、S19においてCPU41は、前記S17及びS18の機械学習の結果に基づいて車両の周辺環境にある危険因子の判定を行う。上述したように第1実施形態では入力対象となる撮像画像と地図情報画像とを同一チャンネルで重ね合せて入力することによって、同一の画素間(即ち車両周辺の同一エリア)での相関、即ち撮像画像と地図情報画像との間に差分がある差分エリアを容易に識別することが可能となる。また、特に予め設定された判定対象領域内において機械学習によって抽出された特徴部分から危険因子を判定する。それによって、危険因子の判定並びに抽出に係る処理をより正確かつ軽くすることが可能となる。尚、学習用教師信号には、地図情報画像には含まれている一方で撮像画像には含まれていない対象物(即ち運転者の視野内にはあるが視認できない対象物)を危険因子として判定する為の学習データを含むので、車両の周辺環境において運転者に視認できない接続道路等の危険因子の候補が存在する場合において、学習用教師信号等の学習データに基づいて該接続道路を危険因子として正確に判定することが可能となる。   In S19, the CPU 41 determines risk factors in the surrounding environment of the vehicle based on the machine learning results in S17 and S18. As described above, in the first embodiment, a correlation between the same pixels (that is, the same area around the vehicle), that is, imaging is performed by inputting the captured image to be input and the map information image by overlapping them on the same channel. It becomes possible to easily identify the difference area where there is a difference between the image and the map information image. Further, risk factors are determined from feature parts extracted by machine learning in a predetermined determination target region. Thereby, it is possible to more accurately and lighten the processing relating to the determination and extraction of risk factors. The learning teacher signal includes, as a risk factor, an object that is included in the map information image but not included in the captured image (that is, an object that is in the driver's field of vision but cannot be visually recognized). Since it includes learning data for determination, when there is a risk factor candidate such as a connection road that cannot be visually recognized by the driver in the surrounding environment of the vehicle, the connection road is considered dangerous based on the learning data such as a learning teacher signal. It becomes possible to determine accurately as a factor.

尚、学習を重ねることによってより精度が向上すれば、運転者が気付くことができない危険因子についても判定することが可能となる。   If the accuracy is further improved by repeated learning, it is possible to determine a risk factor that the driver cannot notice.

その後ナビゲーション装置1では、危険因子の判定結果(即ち抽出された危険因子)を出力する。具体的には、危険因子が存在すると判定された場合には、危険因子が存在することをユーザに案内しても良いし、危険因子を避ける車両制御を行っても良い。例えば、「車両の前方に注意してください」との案内を行う。また、危険因子がどのような種類のものであるかを機械学習によって判別できるのであれば、より具体的に危険因子を特定する案内(例えば「車両の前方死角にある交差道路に注意してください」)を行っても良い。また、危険因子の位置についても案内しても良い。一方、車両制御を行う場合には、例えば減速制御を行う。また、自動運転車両に対して適用することも可能である。その場合には、例えば危険因子を避ける走行経路を設定する等の制御が可能である。   Thereafter, the navigation apparatus 1 outputs the risk factor determination result (ie, the extracted risk factor). Specifically, when it is determined that there is a risk factor, the user may be informed that the risk factor exists, or vehicle control that avoids the risk factor may be performed. For example, the guidance “Please pay attention to the front of the vehicle” is performed. Also, if machine learning can determine what kind of risk factor it is, the guidance that identifies the risk factor more specifically (for example, "Please pay attention to the intersection road in the front blind spot of the vehicle" )). Moreover, you may guide also about the position of a risk factor. On the other hand, when performing vehicle control, deceleration control is performed, for example. It can also be applied to an autonomous driving vehicle. In that case, control such as setting a travel route that avoids risk factors is possible.

以上詳細に説明した通り、第1実施形態に係るナビゲーション装置1及びナビゲーション装置1で実行されるコンピュータプログラムでは、車両の周辺環境を撮像した撮像画像を取得し(S13)、3次元で地図を表現した地図画像において撮像画像の撮像範囲と同一範囲を撮像画像の撮像方向と同一方向から示す地図画像である地図情報画像を取得し(S15)、車両の周辺環境にある危険因子を判定する判定対象領域を設定し(S16、S18)、撮像画像と地図情報画像とを入力画像として機械学習に入力することによって、判定対象領域における危険因子を、学習データに基づいて抽出する(S17、S18)ので、学習データに基づいて移動体の周辺環境にある危険因子をより正確に判定することが可能となる。
また、従来技術(例えば特開2012−192878号公報)では車両の走行中において車両に設置されたカメラ、センサ及び通信機器を用いて周辺にある先行車両、対向車両の位置や移動速度を常時検出する必要があり、該当する車両の数が多くなると、危険因子の判定に係る処理負担が非常に重くなる問題がある。それに対し、第1実施形態では危険因子の判定に関する処理負担について従来に比べて軽くすることが可能となる。
As described in detail above, in the navigation device 1 and the computer program executed by the navigation device 1 according to the first embodiment, a captured image obtained by capturing the surrounding environment of the vehicle is acquired (S13), and the map is expressed in three dimensions. A map information image, which is a map image showing the same range as the captured range of the captured image from the same direction as the captured direction of the captured image in the acquired map image (S15), and a determination target for determining risk factors in the surrounding environment of the vehicle A region is set (S16, S18), and the risk factor in the determination target region is extracted based on the learning data by inputting the captured image and the map information image as input images to machine learning (S17, S18). Based on the learning data, it becomes possible to more accurately determine the risk factor in the surrounding environment of the moving body.
Further, in the prior art (for example, Japanese Patent Application Laid-Open No. 2012-192878), the position and the moving speed of a preceding preceding vehicle and an oncoming vehicle are always detected using a camera, a sensor, and a communication device installed in the vehicle while the vehicle is running. If the number of applicable vehicles increases, there is a problem that the processing burden related to the determination of risk factors becomes very heavy. On the other hand, in the first embodiment, it is possible to reduce the processing burden relating to the risk factor determination as compared with the conventional case.

[第2実施形態]
次に、第2実施形態に係るナビゲーション装置について図10に基づいて説明する。尚、以下の説明において上記図1乃至図9の第1実施形態に係るナビゲーション装置1の構成と同一符号は、前記第1実施形態に係るナビゲーション装置1等の構成と同一あるいは相当部分を示すものである。
[Second Embodiment]
Next, a navigation device according to a second embodiment will be described with reference to FIG. In the following description, the same reference numerals as those of the configuration of the navigation device 1 according to the first embodiment in FIGS. 1 to 9 indicate the same or corresponding parts as the configuration of the navigation device 1 according to the first embodiment. It is.

この第2実施形態に係るナビゲーション装置の概略構成は、第1実施形態に係るナビゲーション装置1とほぼ同じ構成である。また、各種制御処理も第1実施形態に係るナビゲーション装置1とほぼ同じ制御処理である。
ただし、第1実施形態に係るナビゲーション装置1が、危険因子を判定する学習処理において判定対象領域を特定する情報を機械学習に入力する際(S8、S18)に、畳み込みCNN65において出力される特徴マップ66に対してマスク処理を行うのに対して、第2実施形態に係るナビゲーション装置は、判定対象領域を特定する情報をニューロンとして追加する点で第1実施形態に係るナビゲーション装置1と異なっている。
The schematic configuration of the navigation device according to the second embodiment is substantially the same as that of the navigation device 1 according to the first embodiment. Various control processes are also substantially the same as those in the navigation apparatus 1 according to the first embodiment.
However, the feature map output in the convolution CNN 65 when the navigation device 1 according to the first embodiment inputs information for specifying the determination target region to the machine learning in the learning process for determining the risk factor (S8, S18). The navigation apparatus according to the second embodiment is different from the navigation apparatus 1 according to the first embodiment in that information for specifying the determination target region is added as a neuron while the mask process is performed on 66. .

以下に、第2実施形態に係るナビゲーション装置において実行される危険因子を判定する学習処理(S7、S8、S17、S18)について図10に基づき説明する。   Below, the learning process (S7, S8, S17, S18) which determines the risk factor performed in the navigation apparatus which concerns on 2nd Embodiment is demonstrated based on FIG.

図10に示すようにRGBの各3色で表現した撮像画像51と地図情報画像52を4チャンネルの入力画像として学習モデルに入力すると、先ず畳み込みニューラルネットワーク(以下、畳み込みCNNという)65に基づく画像処理が行われる。畳み込みCNN65では、『畳み込み層』と『プーリング層』を複数回繰り返し、その過程では危険因子を判定する為の特に重要な特徴マップ66が出力される。但し、第2実施形態では特徴マップ66に対するマスク処理は行われない。   As shown in FIG. 10, when a captured image 51 and a map information image 52 expressed in three colors of RGB are input to a learning model as a four-channel input image, first, an image based on a convolutional neural network (hereinafter referred to as convolution CNN) 65. Processing is performed. In the convolution CNN 65, the “convolution layer” and the “pooling layer” are repeated a plurality of times, and a particularly important feature map 66 for determining a risk factor is output in the process. However, in the second embodiment, the mask process for the feature map 66 is not performed.

そして、上記『畳み込み層』と『プーリング層』を複数回繰り返した後に、特徴マップ66から最終的に全結合した多層パーセプトロンを出力する。多層パーセプトロンは1次元ベクトルのデータとなる。   Then, after repeating the “convolution layer” and the “pooling layer” a plurality of times, a multilayer perceptron that is finally fully coupled is output from the feature map 66. The multilayer perceptron is one-dimensional vector data.

その後、畳み込みCNN65によって出力された全結合した多層パーセプトロンを、危険因子判定の為の危険判定CNN67の入力層に対して入力する。その際に、CPU41は、判定対象領域61を特定する情報を新たなニューロン(特徴データ)として危険判定CNN67に対して入力する。   Thereafter, the fully coupled multilayer perceptron output by the convolution CNN 65 is input to the input layer of the risk determination CNN 67 for risk factor determination. At that time, the CPU 41 inputs information specifying the determination target region 61 to the risk determination CNN 67 as a new neuron (feature data).

具体的にCPU41は、先ず前記S6又はS16で取得した判定対象領域までの距離情報に基づいて、特徴マップ66における判定対象領域61(即ち、撮像画像51と地図情報画像52における判定対象領域にも相当)の範囲の座標(マップ(画像)に対して設定した座標系での座標)を特定する。そして、特定された座標データを新たなニューロンとして危険判定CNN67に対して入力する。尚、判定対象領域61が複数あればニューロンも複数追加することが可能である。   Specifically, the CPU 41 first determines the determination target region 61 in the feature map 66 (that is, the determination target region in the captured image 51 and the map information image 52 based on the distance information to the determination target region acquired in S6 or S16. Equivalent) coordinates (coordinates in the coordinate system set for the map (image)) are specified. Then, the specified coordinate data is input to the danger determination CNN 67 as a new neuron. If there are a plurality of determination target regions 61, a plurality of neurons can be added.

そして、危険判定CNN67では、入力層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の中間層に対して入力する。そして、中間層においても同様に中間層での処理を行った後の出力データである各ニューロンにウェイト(重み係数)を乗じたデータを次の出力層に対して入力する。そして、出力層において中間層から入力されたデータを用いて最終的な危険因子の判定を行い、判定結果(即ち抽出された危険因子)が出力される。また、判定対象領域61を特定するニューロンを追加することによって、特に判定対象領域61内において抽出された特徴部分を対象として危険因子を判定することが可能となる。それによって、危険因子の判定並びに抽出に係る処理をより正確かつ軽くすることが可能となる。   In the risk determination CNN 67, data obtained by multiplying each neuron, which is output data after processing in the input layer, by a weight (weight coefficient), is input to the next intermediate layer. Similarly, in the intermediate layer, data obtained by multiplying each neuron by a weight (weighting factor), which is output data after processing in the intermediate layer, is input to the next output layer. Then, the final risk factor is determined using data input from the intermediate layer in the output layer, and the determination result (that is, the extracted risk factor) is output. In addition, by adding a neuron that identifies the determination target region 61, it is possible to determine a risk factor particularly for a feature portion extracted in the determination target region 61. Thereby, it is possible to more accurately and lighten the processing relating to the determination and extraction of risk factors.

以上詳細に説明した通り、第2実施形態に係るナビゲーション装置1及びナビゲーション装置1で実行されるコンピュータプログラムでは、車両の周辺環境を撮像した撮像画像を取得し(S13)、3次元で地図を表現した地図画像において撮像画像の撮像範囲と同一範囲を撮像画像の撮像方向と同一方向から示す地図画像である地図情報画像を取得し(S15)、車両の周辺環境にある危険因子を判定する判定対象領域を設定し(S16、S18)、撮像画像と地図情報画像とを入力画像として機械学習に入力することによって、判定対象領域における危険因子を、学習データに基づいて抽出する(S17、S18)ので、学習データに基づいて移動体の周辺環境にある危険因子をより正確に判定することが可能となる。   As described above in detail, in the navigation device 1 and the computer program executed by the navigation device 1 according to the second embodiment, a captured image obtained by capturing the surrounding environment of the vehicle is acquired (S13) and the map is expressed in three dimensions. A map information image, which is a map image showing the same range as the captured range of the captured image from the same direction as the captured direction of the captured image in the acquired map image (S15), and a determination target for determining risk factors in the surrounding environment of the vehicle A region is set (S16, S18), and the risk factor in the determination target region is extracted based on the learning data by inputting the captured image and the map information image as input images to machine learning (S17, S18). Based on the learning data, it becomes possible to more accurately determine the risk factor in the surrounding environment of the moving body.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、上記実施形態では、3次元地図情報34は3次元で道路の輪郭を表現した地図画像に関する情報であるが、道路の輪郭以外の情報を表現した地図情報としても良い。例えば、施設形状、道路の区画線、道路標識、看板等についても表現した地図画像としても良い。その場合には、危険因子として交差道路以外の因子についても判定対象とすることが可能となる。例えば、3次元地図情報34に区画線の情報を含めることによって、“車両から視認することが難しい位置にある車線の増減区間”を危険因子として判定することが可能となる。また、3次元地図情報34に施設形状の情報を含めることによって、“車両から視認することが難しい位置にある建物の出入口”を危険因子として判定することが可能となる。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the above-described embodiment, the three-dimensional map information 34 is information regarding a map image that expresses the contour of the road in three dimensions, but may be map information that expresses information other than the contour of the road. For example, it may be a map image expressing the facility shape, road lane markings, road signs, signboards, and the like. In that case, factors other than the cross road can be determined as risk factors. For example, by including lane marking information in the three-dimensional map information 34, it is possible to determine “a lane increase / decrease section at a position that is difficult to see from the vehicle” as a risk factor. Further, by including the facility shape information in the three-dimensional map information 34, it is possible to determine “a doorway of a building at a position that is difficult to see from the vehicle” as a risk factor.

また、上記実施形態では、車両の周辺環境にある危険因子を判定する判定対象領域として、『車両が走行する道路と車両の周囲にある分岐点で接続する接続道路の一部を少なくとも含む領域』としているが、判定対象とする危険因子の種類が変われば、それに応じて判定対象領域も適宜変更するのが望ましい。例えば、“車両から視認することが難しい位置にある建物の出入口”を危険因子として判定する場合には、『車両が走行する道路に面する建物の出入口の一部を少なくとも含む領域』を判定対象領域として設定することが可能である。   Moreover, in the said embodiment, as a determination object area | region which determines the risk factor in the surrounding environment of a vehicle, "The area | region which contains at least a part of the connection road connected with the branch point around the road where a vehicle drive | works, and a vehicle" However, if the type of risk factor to be determined changes, it is desirable to appropriately change the determination target region accordingly. For example, when determining “entrance / exit of a building that is difficult to see from the vehicle” as a risk factor, “region including at least a part of the entrance / exit of the building facing the road on which the vehicle travels” is to be determined. It can be set as an area.

また、上記実施形態では機械学習として特に多層構造の畳み込みニューラルネットワークを用いた機械学習(Deep Learning)を用いているが、その他の機械学習を用いることも可能である。   In the above embodiment, machine learning (Deep Learning) using a multi-layered convolutional neural network is used as the machine learning. However, other machine learning can also be used.

また、上記実施形態では機械学習処理プログラム(図2)と危険因子判定処理プログラム(図9)と並行して実施しているが、各プログラムは必ずしも同時に実行する必要はなく、例えば危険因子判定処理プログラム(図9)を実行した後に機械学習処理プログラム(図2)を実行しても良い。   In the above embodiment, the machine learning processing program (FIG. 2) and the risk factor determination processing program (FIG. 9) are executed in parallel. However, it is not always necessary to execute each program at the same time. The machine learning processing program (FIG. 2) may be executed after executing the program (FIG. 9).

また、上記実施形態では機械学習処理プログラム(図2)及び危険因子判定処理プログラム(図9)はナビゲーション装置1が実施しているが、ナビゲーション装置以外の車載器が実施する構成としても良い。また、車載器が全ての処理を実施するのではなく、一部の処理を外部サーバが実施することとしても良い。   In the above embodiment, the machine learning processing program (FIG. 2) and the risk factor determination processing program (FIG. 9) are implemented by the navigation device 1, but may be configured by an on-vehicle device other than the navigation device. Moreover, it is good also as an external server performing some processes instead of an onboard equipment performing all the processes.

また、本発明に係る走行支援装置を具体化した実施例について上記に説明したが、走行支援装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the embodiment which actualized the driving support device according to the present invention has been described above, the driving support device can also have the following configuration, and in that case, the following effects can be obtained.

例えば、第1の構成は以下のとおりである。
移動体の周辺環境を撮像した撮像画像(51)を取得する周辺環境撮像手段(41)と、3次元で地図を表現した地図画像において前記撮像画像の撮像範囲と同一範囲を前記撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像(52)として取得する地図情報画像取得手段(41)と、前記移動体の周辺環境にある危険因子を判定する判定対象領域(61)を設定する領域設定手段(41)と、前記撮像画像と前記地図情報画像とを入力画像として機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する危険因子抽出手段(41)と、を有する。
上記構成を有する走行支援装置によれば、3次元で地図を表現した地図画像と移動体の周辺の撮像画像とを入力画像として機械学習に入力するとともに、危険因子の判定対象となる判定対象領域を予め設定することによって、学習データに基づいて移動体の周辺環境にある危険因子をより正確に判定することが可能となる。
For example, the first configuration is as follows.
Peripheral environment imaging means (41) that acquires a captured image (51) that captures the surrounding environment of the moving body, and imaging of the captured image in the same range as the captured image of the captured image in a map image that represents a map in three dimensions A map information image acquisition means (41) for acquiring a map image shown from the same direction as the direction as a map information image (52), and a determination target region (61) for determining a risk factor in the surrounding environment of the moving body are set. Area setting means (41) for performing, and inputting the captured image and the map information image as input images to machine learning, thereby extracting a risk factor in the determination target area based on learning data (41).
According to the driving support apparatus having the above configuration, a determination target region that is a risk factor determination target while inputting a map image representing a map in three dimensions and a captured image around the moving object to machine learning as an input image By setting in advance, it becomes possible to more accurately determine risk factors in the surrounding environment of the moving body based on the learning data.

また、第2の構成は以下のとおりである。
前記危険因子抽出手段(41)は、前記判定対象領域(61)を特定する情報を機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する。
上記構成を有する走行支援装置によれば、判定対象領域を特定する情報を機械学習に入力することによって、判定対象領域内に絞って危険因子の判定が可能となり、従来に比べて判定対象領域内にある危険因子を正確に判定でき、更に判定に関する処理負担も軽くすることが可能となる。
The second configuration is as follows.
The risk factor extraction means (41) extracts risk factors in the determination target region based on learning data by inputting information for specifying the determination target region (61) to machine learning.
According to the driving support apparatus having the above-described configuration, by inputting information for specifying the determination target area to machine learning, it is possible to determine the risk factor by focusing on the determination target area. Therefore, it is possible to accurately determine the risk factor, and to further reduce the processing load related to the determination.

また、第3の構成は以下のとおりである。
前記判定対象領域(61)は、移動体が移動する道路と移動体の周囲にある分岐点で接続する道路である接続道路の一部を少なくとも含む領域とする。
上記構成を有する走行支援装置によれば、特に移動体の周辺の分岐点に接続する接続道路周辺にある危険因子について正確に判定することが可能となる。
The third configuration is as follows.
The determination target region (61) is a region including at least a part of a connection road that is a road connected to a road on which the mobile body moves and a branch point around the mobile body.
According to the driving support apparatus having the above-described configuration, it is possible to accurately determine risk factors in the vicinity of a connection road connected to a branch point around the moving body.

また、第4の構成は以下のとおりである。
前記判定対象領域(61)は、前記接続道路と前記分岐点とが接続する端部の周辺領域とする。
上記構成を有する走行支援装置によれば、特に移動体の周辺の分岐点と、分岐点に接続する接続道路と、の接続点付近にある危険因子について正確に判定することが可能となる。
The fourth configuration is as follows.
The determination target region (61) is a peripheral region around the end where the connection road and the branch point are connected.
According to the driving support apparatus having the above-described configuration, it is possible to accurately determine a risk factor in the vicinity of a connection point between a branch point around the mobile body and a connection road connected to the branch point.

また、第5の構成は以下のとおりである。
前記判定対象領域(61)は、前記接続道路の内、前記分岐点と接続する端部から前記接続道路に沿って所定距離以内の道路部分を含む領域とする。
上記構成を有する走行支援装置によれば、特に移動体の周辺の分岐点と、分岐点に接続する接続道路と、の接続点付近にある危険因子について正確に判定することが可能となる。
The fifth configuration is as follows.
The determination target region (61) is a region including a road portion within a predetermined distance along the connection road from the end connected to the branch point in the connection road.
According to the driving support apparatus having the above-described configuration, it is possible to accurately determine a risk factor in the vicinity of a connection point between a branch point around the mobile body and a connection road connected to the branch point.

また、第6の構成は以下のとおりである。
前記移動体から前記判定対象領域までの距離である道路距離を取得する道路距離取得手段(41)を有し、前記危険因子抽出手段(41)は、前記撮像画像(51)及び前記地図情報画像(52)における前記判定対象領域を前記道路距離に基づいて特定し、前記判定対象領域内を対象として危険因子の抽出を行う。
上記構成を有する走行支援装置によれば、危険因子の判定対象となる判定対象領域までの距離を取得することによって、学習データに基づいて判定対象領域にある危険因子をより正確に判定することが可能となる。
The sixth configuration is as follows.
Road distance acquisition means (41) for acquiring a road distance that is a distance from the mobile body to the determination target region, wherein the risk factor extraction means (41) includes the captured image (51) and the map information image. The determination target area in (52) is specified based on the road distance, and risk factors are extracted in the determination target area.
According to the driving support apparatus having the above configuration, the risk factor in the determination target region can be more accurately determined based on the learning data by acquiring the distance to the determination target region that is the risk factor determination target. It becomes possible.

また、第7の構成は以下のとおりである。
前記危険因子抽出手段(41)は、多層構造のニューラルネットワークを用いた機械学習によって前記移動体の周辺環境にある危険因子を判定する。
上記構成を有する走行支援装置によれば、多層構造のニューラルネットワークを用いた機械学習によって、画像の特徴をより深いレベルで学習し、非常に高い精度で特徴を認識できるので、危険因子のより正確な判定が可能となる。特に、ユーザ側で特徴を抽出する為のフィルタを設定することなく、学習によって最適なフィルタを設定することが可能である。
The seventh configuration is as follows.
The risk factor extracting means (41) determines a risk factor in the surrounding environment of the moving body by machine learning using a neural network having a multilayer structure.
According to the driving support apparatus having the above-described configuration, image features can be learned at a deeper level and machine features can be recognized with very high accuracy by machine learning using a multi-layered neural network. Judgment is possible. In particular, it is possible to set an optimum filter by learning without setting a filter for extracting features on the user side.

また、第8の構成は以下のとおりである。
前記危険因子抽出手段(41)は、前記機械学習において生成される特徴マップに対して、前記判定対象領域に該当しない領域をマスク処理する。
上記構成を有する走行支援装置によれば、特徴マップに対するマスク処理を行うことによって、判定対象領域内に絞って危険因子の判定が可能となり、従来に比べて判定対象領域内にある危険因子を正確に判定でき、更に判定に関する処理負担も軽くすることが可能となる。
The eighth configuration is as follows.
The risk factor extracting means (41) masks a region not corresponding to the determination target region with respect to the feature map generated in the machine learning.
According to the driving support device having the above-described configuration, by performing mask processing on the feature map, it is possible to determine the risk factor by focusing on the determination target region, and the risk factor in the determination target region can be more accurately compared to the conventional case. In addition, it is possible to reduce the processing load related to the determination.

また、第9の構成は以下のとおりである。
前記危険因子抽出手段(41)は、ニューラルネットワークに対して、前記判定対象領域を特定する情報を新たなニューロンとして追加する。
上記構成を有する走行支援装置によれば、判定対象領域を特定する情報を新たなニューロンとして追加する処理を行うことによって、判定対象領域内に絞って危険因子の判定が可能となり、従来に比べて判定対象領域内にある危険因子を正確に判定でき、更に判定に関する処理負担も軽くすることが可能となる。
The ninth configuration is as follows.
The risk factor extracting means (41) adds information for specifying the determination target region to the neural network as a new neuron.
According to the driving support apparatus having the above configuration, by performing processing for adding information for specifying a determination target region as a new neuron, it is possible to determine risk factors by focusing on the determination target region. It is possible to accurately determine risk factors in the determination target area, and further reduce the processing load related to the determination.

1 ナビゲーション装置
13 ナビゲーションECU
19 車外カメラ
31 地図情報DB
32 撮像画像DB
33 2次元地図情報
34 3次元地図情報
41 CPU
42 RAM
43 ROM
51 撮像画像
52 地図情報画像
61 判定対象領域
65 畳み込みCNN
67 危険判定CNN
1 Navigation device 13 Navigation ECU
19 Outside camera 31 Map information DB
32 Captured image DB
33 2D map information 34 3D map information 41 CPU
42 RAM
43 ROM
51 Captured image 52 Map information image 61 Target area 65 Convolution CNN
67 Danger judgment CNN

Claims (10)

移動体の周辺環境を撮像した撮像画像を取得する周辺環境撮像手段と、
3次元で地図を表現した地図画像において前記撮像画像の撮像範囲と同一範囲を前記撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像として取得する地図情報画像取得手段と、
前記移動体の周辺環境にある危険因子を判定する判定対象領域を設定する領域設定手段と、
前記撮像画像と前記地図情報画像とを入力画像として機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する危険因子抽出手段と、を有する走行支援装置。
A surrounding environment imaging means for acquiring a captured image obtained by imaging the surrounding environment of the moving body;
Map information image acquisition means for acquiring, as a map information image, a map image showing a map image representing the same range as the captured image of the captured image from the same direction as the captured direction of the captured image in a map image representing a map in three dimensions;
Area setting means for setting a determination target area for determining a risk factor in the surrounding environment of the moving body;
A driving support device comprising: a risk factor extracting unit that extracts a risk factor in the determination target region based on learning data by inputting the captured image and the map information image as input images to machine learning.
前記危険因子抽出手段は、前記判定対象領域を特定する情報を機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する請求項1に記載の走行支援装置。   The driving support device according to claim 1, wherein the risk factor extraction unit extracts risk factors in the determination target region based on learning data by inputting information specifying the determination target region into machine learning. 前記判定対象領域は、移動体が移動する道路と移動体の周囲にある分岐点で接続する道路である接続道路の一部を少なくとも含む領域とする請求項1又は請求項2に記載の走行支援装置。   The travel support according to claim 1, wherein the determination target region is a region including at least a part of a connection road that is a road connected to a road on which the mobile body moves and a branch point around the mobile body. apparatus. 前記判定対象領域は、前記接続道路と前記分岐点とが接続する端部の周辺領域とする請求項3に記載の走行支援装置。   The travel support device according to claim 3, wherein the determination target region is a peripheral region around an end portion where the connection road and the branch point are connected. 前記判定対象領域は、前記接続道路の内、前記分岐点と接続する端部から前記接続道路に沿って所定距離以内の道路部分を含む領域とする請求項3に記載の走行支援装置。   The travel support device according to claim 3, wherein the determination target region is a region including a road portion within a predetermined distance along the connection road from an end connected to the branch point in the connection road. 前記移動体から前記判定対象領域までの距離である道路距離を取得する道路距離取得手段を有し、
前記危険因子抽出手段は、
前記撮像画像及び前記地図情報画像における前記判定対象領域を前記道路距離に基づいて特定し、
前記判定対象領域内を対象として危険因子の抽出を行う請求項1乃至請求項5のいずれかに記載の走行支援装置。
Road distance acquisition means for acquiring a road distance that is a distance from the mobile body to the determination target region;
The risk factor extracting means includes
The determination target region in the captured image and the map information image is specified based on the road distance,
The driving support device according to any one of claims 1 to 5, wherein risk factors are extracted in the determination target region.
前記危険因子抽出手段は、多層構造のニューラルネットワークを用いた機械学習によって前記移動体の周辺環境にある危険因子を抽出する請求項1乃至請求項6のいずれかに記載の走行支援装置。   The driving support apparatus according to claim 1, wherein the risk factor extracting unit extracts a risk factor in the surrounding environment of the moving body by machine learning using a neural network having a multilayer structure. 前記危険因子抽出手段は、前記機械学習において生成される特徴マップに対して、前記判定対象領域に該当しない領域をマスク処理する請求項7に記載の走行支援装置。   The driving support apparatus according to claim 7, wherein the risk factor extracting unit masks a region that does not correspond to the determination target region with respect to the feature map generated in the machine learning. 前記危険因子抽出手段は、ニューラルネットワークに対して、前記判定対象領域を特定する情報を新たなニューロンとして追加する請求項7に記載の走行支援装置。   The driving support apparatus according to claim 7, wherein the risk factor extracting unit adds, as a new neuron, information specifying the determination target region to the neural network. コンピュータを、
移動体の周辺環境を撮像した撮像画像を取得する周辺環境撮像手段と、
3次元で地図を表現した地図画像において前記撮像画像の撮像範囲と同一範囲を前記撮像画像の撮像方向と同一方向から示す地図画像を、地図情報画像として取得する地図情報画像取得手段と、
前記移動体の周辺環境にある危険因子を判定する判定対象領域を設定する領域設定手段と、
前記撮像画像と前記地図情報画像とを入力画像として機械学習に入力することによって、前記判定対象領域における危険因子を、学習データに基づいて抽出する危険因子抽出手段と、
して機能させる為のコンピュータプログラム。
Computer
A surrounding environment imaging means for acquiring a captured image obtained by imaging the surrounding environment of the moving body;
Map information image acquisition means for acquiring, as a map information image, a map image showing a map image representing the same range as the captured image of the captured image from the same direction as the captured direction of the captured image in a map image representing a map in three dimensions;
Area setting means for setting a determination target area for determining a risk factor in the surrounding environment of the moving body;
A risk factor extracting means for extracting a risk factor in the determination target region based on learning data by inputting the captured image and the map information image as input images into machine learning;
Computer program to make it function.
JP2018052300A 2018-03-20 2018-03-20 Traveling support device and computer program Pending JP2019164611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018052300A JP2019164611A (en) 2018-03-20 2018-03-20 Traveling support device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018052300A JP2019164611A (en) 2018-03-20 2018-03-20 Traveling support device and computer program

Publications (1)

Publication Number Publication Date
JP2019164611A true JP2019164611A (en) 2019-09-26

Family

ID=68064983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018052300A Pending JP2019164611A (en) 2018-03-20 2018-03-20 Traveling support device and computer program

Country Status (1)

Country Link
JP (1) JP2019164611A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021125063A1 (en) * 2019-12-18 2021-06-24 ソニーグループ株式会社 Information processing device, information processing method, program, and moving body
JP2022050311A (en) * 2020-12-21 2022-03-30 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method for detecting lane change of vehicle, system, electronic apparatus, storage medium, roadside machine, cloud control platform, and computer program
WO2022190274A1 (en) 2021-03-10 2022-09-15 日本電気株式会社 Simulated road generation system, simulated road generation method, and non-transitory computer-readable medium having stored thereon program for causing computer to perform simulated road generation process
JP7374001B2 (en) 2020-01-15 2023-11-06 Go株式会社 Learning model generation method, program, and information processing device
DE112022002090T5 (en) 2021-06-28 2024-02-15 Hitachi Astemo, Ltd. IN-VEHICLE DATA PROCESSING DEVICE, CARD DATA MANAGEMENT CENTER DEVICE AND CARD DATA MANAGEMENT SYSTEM

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021125063A1 (en) * 2019-12-18 2021-06-24 ソニーグループ株式会社 Information processing device, information processing method, program, and moving body
CN114787886A (en) * 2019-12-18 2022-07-22 索尼集团公司 Information processing apparatus, information processing method, program, and movable object
JP7374001B2 (en) 2020-01-15 2023-11-06 Go株式会社 Learning model generation method, program, and information processing device
JP2022050311A (en) * 2020-12-21 2022-03-30 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method for detecting lane change of vehicle, system, electronic apparatus, storage medium, roadside machine, cloud control platform, and computer program
WO2022190274A1 (en) 2021-03-10 2022-09-15 日本電気株式会社 Simulated road generation system, simulated road generation method, and non-transitory computer-readable medium having stored thereon program for causing computer to perform simulated road generation process
DE112022002090T5 (en) 2021-06-28 2024-02-15 Hitachi Astemo, Ltd. IN-VEHICLE DATA PROCESSING DEVICE, CARD DATA MANAGEMENT CENTER DEVICE AND CARD DATA MANAGEMENT SYSTEM

Similar Documents

Publication Publication Date Title
JP6566145B2 (en) Driving support device and computer program
JP6834704B2 (en) Driving support device and computer program
WO2019097763A1 (en) Superposed-image display device and computer program
JP2019164611A (en) Traveling support device and computer program
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2018173860A (en) Travel support system and computer program
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
US20230135641A1 (en) Superimposed image display device
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP2023012793A (en) Superimposed image display device
JP2017062706A (en) Travel support system, travel support method, and computer program
JP5573266B2 (en) Vehicle object image recognition apparatus, vehicle object image recognition method, and computer program
JP2018173861A (en) Travel support system and computer program
JP2019087259A (en) Superposition image display device and computer program
JP2019179296A (en) Travelling assistance device and computer program
JP2017062527A (en) Travel support system, travel support method, and computer program
JP2023131981A (en) Superimposed image display device
JP2023038558A (en) Superimposed image display device
JP2023008462A (en) Superimposed image display device
JP2023150070A (en) Superimposed image display device
JP2024033759A (en) Superimposed image display device
JP2024018405A (en) Superimposed image display device
JP2024018205A (en) Superimposed image display device
JP2022077198A (en) Superimposed image display device
JP5712844B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program