JP6557392B1 - Map information processing apparatus, map information processing method, and map information processing program - Google Patents

Map information processing apparatus, map information processing method, and map information processing program Download PDF

Info

Publication number
JP6557392B1
JP6557392B1 JP2018201337A JP2018201337A JP6557392B1 JP 6557392 B1 JP6557392 B1 JP 6557392B1 JP 2018201337 A JP2018201337 A JP 2018201337A JP 2018201337 A JP2018201337 A JP 2018201337A JP 6557392 B1 JP6557392 B1 JP 6557392B1
Authority
JP
Japan
Prior art keywords
data
map information
unit
road shape
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018201337A
Other languages
Japanese (ja)
Other versions
JP2020067601A (en
Inventor
博昭 関山
博昭 関山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMICS.INC.
Micware Co Ltd
Original Assignee
IMICS.INC.
Micware Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMICS.INC., Micware Co Ltd filed Critical IMICS.INC.
Priority to JP2018201337A priority Critical patent/JP6557392B1/en
Priority to EP18881072.5A priority patent/EP3614366A4/en
Priority to PCT/JP2018/043027 priority patent/WO2019103049A1/en
Priority to CN201880039595.8A priority patent/CN110914888A/en
Application granted granted Critical
Publication of JP6557392B1 publication Critical patent/JP6557392B1/en
Priority to US16/688,891 priority patent/US10760920B2/en
Publication of JP2020067601A publication Critical patent/JP2020067601A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】道路形状変化の判定を容易に行うことができる地図情報処理装置を提供する。【解決手段】地図情報処理装置は、複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいて、スカラー形式の移動軌跡画像を生成する第1移動画像描画部と、複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいて、スカラー形式のより過去の移動軌跡画像を生成する第2移動画像描画部と、上記第1移動画像描画部で生成した上記移動軌跡画像と上記第2移動画像描画部で生成した上記過去の移動軌跡画像とを比較して、差分データを抽出する差分抽出部と、機械学習により、上記差分データが道路形状変化であるか否かを判定する道路形状変化判定部と、を備える。【選択図】図3A map information processing apparatus capable of easily determining a change in road shape is provided. A map information processing apparatus includes: a first moving image drawing unit that generates a scalar moving trajectory image based on vector-form probe data acquired during a predetermined period of each of a plurality of moving objects; Based on the probe data in the vector format acquired in advance for a specific period of each moving object, the second moving image drawing unit for generating a past moving trajectory image in scalar format and the first moving image drawing unit described above The difference data is a road shape change by a difference extraction unit that extracts the difference data by comparing the movement locus image and the past movement locus image generated by the second movement image drawing unit, and machine learning. A road shape change determination unit for determining whether or not. [Selection] Figure 3

Description

本発明は、複数の移動体の軌跡情報から地図情報の道路形状が変化したか否かの判定を行う地図情報処理装置、地図情報処理方法および地図情報処理プログラムに関する。   The present invention relates to a map information processing apparatus, a map information processing method, and a map information processing program for determining whether or not a road shape of map information has changed from trajectory information of a plurality of moving objects.

現状、道路の情報は、国、県、市、区などの行政区画単位で管理されており、道路形状の変化(以下、「道路形状変化」とも称する)の情報は一元化されていない。道路地図を作成するために道路形状変化を把握するためには、新たな道路がどこでどのような形状で形成されたのかを、個別の道路ごとに調べなければならない。   Currently, road information is managed in units of administrative divisions such as countries, prefectures, cities, and wards, and information on road shape changes (hereinafter also referred to as “road shape changes”) is not centralized. In order to grasp the change of the road shape in order to create the road map, it is necessary to examine for each individual road where and in what shape the new road is formed.

そのため、例えば国土地理院などから発行されているデジタル地図と、車両端末から取得したプローブデータ(Probe Data:軌跡情報)と、に基づいて、道路形状がどのように変化したかを判定し、道路地図の更新を行う方法が考えられる。   Therefore, for example, based on the digital map issued by the Geospatial Information Authority of Japan and probe data (probe data) acquired from the vehicle terminal, it is determined how the road shape has changed, and the road A method of updating the map can be considered.

この種の地図情報を生成する装置として、車載端末が取得した位置情報に基づいて、道路接続状況を正しく推定して、更新地図を生成する構成が知られている(例えば、特許文献1)。   As a device that generates this type of map information, a configuration is known in which an updated map is generated by correctly estimating a road connection state based on position information acquired by an in-vehicle terminal (for example, Patent Document 1).

特開2017−97088号公報JP 2017-97088 A

しかしながら、道路形状は、十字路形状からロータリー形状に変更される場合など、複雑で様々なパターンがあるため、地図情報と位置情報から単純に更新地図を生成することが難しい場合もある。   However, there are cases where it is difficult to simply generate an updated map from map information and position information because there are complex and various patterns such as when the road shape is changed from a crossroad shape to a rotary shape.

したがって、特許文献1に記載されている構成だけでは十分ではなく、更なる改良が求められている。   Therefore, the configuration described in Patent Document 1 is not sufficient, and further improvements are required.

本発明はこのような課題に鑑みてなされたものであり、道路形状変化の判定を、より容易に行うことを目的とする。   This invention is made | formed in view of such a subject, and it aims at performing determination of a road shape change more easily.

本発明の一態様によれば、本発明の地図情報処理装置は、第1移動画像描画部と、第2移動画像描画部と、差分抽出部と、道路形状変化判定部とを備えている。上記第1移動画像描画部は、複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいて、スカラー形式の移動軌跡画像を生成する。上記第2移動画像描画部は、複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいて、スカラー形式のより過去の移動軌跡画像を生成する。上記差分抽出部は、上記第1移動画像描画部で生成した上記移動軌跡画像と上記第2移動画像描画部で生成した上記過去の移動軌跡画像とを比較して、差分データを抽出する。道路形状変化判定部は、機械学習により、上記差分データが道路形状変化であるか否かを判定する。   According to one aspect of the present invention, the map information processing apparatus of the present invention includes a first moving image drawing unit, a second moving image drawing unit, a difference extraction unit, and a road shape change determination unit. The first moving image drawing unit generates a scalar moving trajectory image based on vector-form probe data acquired during a predetermined period of each of the plurality of moving objects. The second moving image drawing unit generates a more historical moving trajectory image in a scalar format based on vector format probe data acquired in advance for a specific period of each of the plurality of moving objects. The difference extraction unit compares the movement trajectory image generated by the first moving image drawing unit with the past movement trajectory image generated by the second moving image drawing unit, and extracts difference data. The road shape change determination unit determines whether the difference data is a road shape change by machine learning.

本発明は、道路形状変化の判定を、より容易に行うことができる。   The present invention can more easily determine a road shape change.

図1は、本実施形態の地図情報処理システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of a map information processing system according to the present embodiment. 図2は、本実施形態の地図情報処理装置と車載端末との関係の一例を示す図である。FIG. 2 is a diagram illustrating an example of the relationship between the map information processing apparatus of this embodiment and the in-vehicle terminal. 図3は、本実施形態の地図情報処理装置の機能の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of functions of the map information processing apparatus of the present embodiment. 図4Aは、移動画像描画部により車両の移動軌跡画像を描画する方法の一例を示す図である。FIG. 4A is a diagram illustrating an example of a method for drawing a moving locus image of a vehicle by a moving image drawing unit. 図4Bは、移動画像描画部により車両の移動軌跡画像を描画する方法の一例を示す図である。FIG. 4B is a diagram illustrating an example of a method for drawing a moving locus image of a vehicle by a moving image drawing unit. 図5Aは、差分抽出部により、移動軌跡画像および過去の移動軌跡画像から差分データを抽出する方法の一例を示す図である。FIG. 5A is a diagram illustrating an example of a method for extracting difference data from a movement trajectory image and a past movement trajectory image by a difference extraction unit. 図5Bは、差分抽出部により、移動軌跡画像および過去の移動軌跡画像から差分データを抽出する方法の一例を示す図である。FIG. 5B is a diagram illustrating an example of a method for extracting difference data from a movement trajectory image and a past movement trajectory image by a difference extraction unit. 図5Cは、差分抽出部により、移動軌跡画像および過去の移動軌跡画像から差分データを抽出する方法の一例を示す図である。FIG. 5C is a diagram illustrating an example of a method for extracting difference data from a movement trajectory image and a past movement trajectory image by a difference extraction unit. 図5Dは、差分抽出部により、移動軌跡画像および過去の移動軌跡画像から差分データを抽出する方法の一例を示す図である。FIG. 5D is a diagram illustrating an example of a method for extracting difference data from a movement trajectory image and a past movement trajectory image by a difference extraction unit. 図6は、機械学習により道路形状変化を判定する方法の一例を示す図である。FIG. 6 is a diagram illustrating an example of a method for determining a road shape change by machine learning. 図7は、道路形状変化判定処理プログラムによる道路形状変化判定処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a road shape change determination process by a road shape change determination process program. 図8は、道路形状変化判定処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of a road shape change determination process. 図9は、道路形状変化判定処理プログラムによる地図情報更新処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of map information update processing by the road shape change determination processing program. 図10Aは、地図情報更新処理の一例を示す図である。FIG. 10A is a diagram illustrating an example of the map information update process. 図10Bは、地図情報更新処理の一例を示す図である。FIG. 10B is a diagram illustrating an example of the map information update process. 図10Cは、地図情報更新処理の一例を示す図である。FIG. 10C is a diagram illustrating an example of the map information update process. 図10Dは、地図情報更新処理の一例を示す図である。FIG. 10D is a diagram illustrating an example of the map information update process. 図10Eは、地図情報更新処理の一例を示す図である。FIG. 10E is a diagram illustrating an example of the map information update process.

実施形態の地図情報処理システム1を図1に基づいて説明する。本実施形態の地図情報処理システム1は、地図を作成する上で道路形状変化の判定を容易に行うために使用される。地図情報処理システム1は、図1に示すように、地図情報処理装置2と、複数の車載端末3と、を含んで構成されている。以下、本実施形態の地図情報処理システム1における各構成について詳細に説明する。   A map information processing system 1 according to an embodiment will be described with reference to FIG. The map information processing system 1 of the present embodiment is used to easily determine a road shape change when creating a map. As shown in FIG. 1, the map information processing system 1 includes a map information processing apparatus 2 and a plurality of in-vehicle terminals 3. Hereinafter, each structure in the map information processing system 1 of this embodiment is demonstrated in detail.

車載端末3は、道路を走行する車両4に搭載される。車載端末3は、例えば、カーナビゲーション装置より構成される。地図情報処理装置2と車載端末3とは、互いに無線通信により接続することができるように構成されている。図1では、日本を走行する車両4と地図情報処理装置2との無線通信を片矢印で例示している。地図情報処理システム1では、車載端末3からプローブデータが地図情報処理装置2へ送信される。   The in-vehicle terminal 3 is mounted on a vehicle 4 traveling on the road. The in-vehicle terminal 3 is constituted by a car navigation device, for example. The map information processing apparatus 2 and the in-vehicle terminal 3 are configured to be connected to each other by wireless communication. In FIG. 1, wireless communication between the vehicle 4 traveling in Japan and the map information processing apparatus 2 is illustrated by a single arrow. In the map information processing system 1, probe data is transmitted from the in-vehicle terminal 3 to the map information processing apparatus 2.

プローブデータは、例えば、車載端末3が搭載される車両4の自車位置(以下、「軌跡情報」ともいう)および時刻の情報を含んでいる。プローブデータは、自車位置および時刻の情報に加え、例えば、走行距離、走行速度、加速度、角速度、自車方位、勾配角といった車両4の走行履歴(属性情報(attribute))の情報を含んでいる。プローブデータの作成は、例えば、車両4に搭載された車載端末3を用いて行われる。車載端末3は、車両4に搭載されたGPS(Global Positioning System)モジュール、ジャイロセンサ、加速度センサから各種のセンサ情報を入手することができる。自車位置の情報は、例えば、カーナビゲーション装置のGPSモジュールから出力されるGPSデータにより算出される。すなわち、自車位置の情報は、GPSなどの衛星測位システムの機能を用いて取得される。自車位置の情報は、ある時刻における車両4の位置座標を表す。   The probe data includes, for example, information on the own vehicle position (hereinafter also referred to as “trajectory information”) and time of the vehicle 4 on which the in-vehicle terminal 3 is mounted. The probe data includes information on the travel history (attribute information) of the vehicle 4 such as travel distance, travel speed, acceleration, angular velocity, host vehicle direction, and gradient angle, in addition to the information on the vehicle position and time. Yes. For example, the probe data is created using the in-vehicle terminal 3 mounted on the vehicle 4. The in-vehicle terminal 3 can obtain various sensor information from a GPS (Global Positioning System) module, a gyro sensor, and an acceleration sensor mounted on the vehicle 4. The information on the vehicle position is calculated from, for example, GPS data output from the GPS module of the car navigation device. That is, the information on the vehicle position is acquired using a function of a satellite positioning system such as GPS. The information on the own vehicle position represents the position coordinates of the vehicle 4 at a certain time.

車載端末3は、図2に示すように、通信端末5を介して、地図情報処理装置2と通信することができるように構成されている。車載端末3は、通信端末5を介して、車両4の軌跡情報を含むプローブデータを地図情報処理装置2へ送信する。車載端末3は、有線、若しくは無線により通信端末5と接続されていればよい。車載端末3は、通信端末5と物理的に別体に構成されていてもよいし、通信端末5が内蔵されて一体的に構成されていてもよい。通信端末5は、例えば、通信ユニット、携帯電話、若しくはスマートフォンである。通信端末5は、スマートフォンの場合、例えば、BLUETOOTH(登録商標)若しくはWi-Fiの通信規格で車載端末3と通信できるように接続される。通信端末5は、スマートフォンの場合、例えば、通信ネットワークを介して地図情報処理装置2と通信できるように接続される。   As shown in FIG. 2, the in-vehicle terminal 3 is configured to be able to communicate with the map information processing apparatus 2 via the communication terminal 5. The in-vehicle terminal 3 transmits probe data including the trajectory information of the vehicle 4 to the map information processing apparatus 2 via the communication terminal 5. The in-vehicle terminal 3 only needs to be connected to the communication terminal 5 by wire or wirelessly. The in-vehicle terminal 3 may be configured physically separately from the communication terminal 5 or may be configured integrally with the communication terminal 5 built therein. The communication terminal 5 is, for example, a communication unit, a mobile phone, or a smartphone. In the case of a smartphone, the communication terminal 5 is connected so as to be able to communicate with the in-vehicle terminal 3 using, for example, BLUETOOTH (registered trademark) or Wi-Fi communication standards. In the case of a smartphone, the communication terminal 5 is connected so that it can communicate with the map information processing apparatus 2 via a communication network, for example.

地図情報処理装置2は、各車載端末3から送信されたプローブデータを受信して、プローブデータに含まれる軌跡情報を取得する。地図情報処理装置2は、軌跡情報に基づいて、機械学習により、地図情報に含まれる道路形状が変化しているか否かを判定する。この判定の詳細については後述する。地図情報処理装置2は、道路形状が変化していると判定した場合には、地図情報を更新することができる。   The map information processing apparatus 2 receives probe data transmitted from each in-vehicle terminal 3 and acquires trajectory information included in the probe data. The map information processing device 2 determines whether or not the road shape included in the map information has changed by machine learning based on the trajectory information. Details of this determination will be described later. If the map information processing apparatus 2 determines that the road shape has changed, it can update the map information.

上述の実施形態においては、車載端末3は、カーナビゲーション装置により構成しているがこの限りではない。車載端末3は、カーナビゲーション装置だけに限られず、各種の端末装置であってもよい。端末装置としては、例えば、携帯電話、スマートフォン、ノートパソコン、若しくはタブレットパソコンが挙げられる。即ち、車載端末3は、車両4に持ち込まれたスマートフォン単体だけであってもよい。また、本実施形態の車両4は、車載端末3が搭載される4輪自動車で例示している。車両4は4輪自動車だけに限られず、3輪自動車、自動二輪車、若しくは自転車でもよい。言い換えれば、車両4は、移動体である。   In the above-described embodiment, the in-vehicle terminal 3 is configured by a car navigation device, but this is not a limitation. The in-vehicle terminal 3 is not limited to the car navigation device but may be various terminal devices. Examples of the terminal device include a mobile phone, a smartphone, a notebook computer, or a tablet computer. That is, the in-vehicle terminal 3 may be only a smartphone alone brought into the vehicle 4. Moreover, the vehicle 4 of this embodiment is illustrated with the four-wheeled vehicle by which the vehicle-mounted terminal 3 is mounted. The vehicle 4 is not limited to a four-wheeled vehicle, and may be a three-wheeled vehicle, a motorcycle, or a bicycle. In other words, the vehicle 4 is a moving body.

次に、本実施形態の地図情報処理装置2について、図3を用いて説明する。   Next, the map information processing apparatus 2 of this embodiment is demonstrated using FIG.

本実施形態の地図情報処理装置2は、地図情報記憶部21と、軌跡情報取得部22と、2つの移動画像描画部23と、差分抽出部25と、道路形状変化判定部26と、地図情報更新部27と、移動データ生成部30と、移動データ記憶部31と、移動データ抽出部32とを含む。地図情報記憶部21は、地図情報を記憶する。地図情報記憶部21は、複数の縮尺毎に地図情報を記憶しておくことが好ましい。以下では、2つの移動画像描画部23のうちの一方を第1移動画像描画部231と称し、他方を第2移動画像描画部232と称する場合もある。2つの移動画像描画部23は、同じ構成で構成されており、入力されるデータが異なっている。地図情報処理装置2は、2つの移動画像描画部23を用いる場合だけに限られず、入力されるデータを順次変えることで、1つの移動画像描画部23で構成することもできる。移動データ生成部30は、時刻を計時する計時部を備えていることが好ましい。移動データ抽出部32は、時刻を計時する計時部を備えていることが好ましい。   The map information processing apparatus 2 of the present embodiment includes a map information storage unit 21, a trajectory information acquisition unit 22, two moving image drawing units 23, a difference extraction unit 25, a road shape change determination unit 26, and map information. The update unit 27, the movement data generation unit 30, the movement data storage unit 31, and the movement data extraction unit 32 are included. The map information storage unit 21 stores map information. The map information storage unit 21 preferably stores map information for each of a plurality of scales. Hereinafter, one of the two moving image drawing units 23 may be referred to as a first moving image drawing unit 231 and the other may be referred to as a second moving image drawing unit 232. The two moving image drawing units 23 have the same configuration, and input data is different. The map information processing apparatus 2 is not limited to the case where two moving image drawing units 23 are used, and can be configured by one moving image drawing unit 23 by sequentially changing input data. It is preferable that the movement data generation unit 30 includes a timer unit that measures time. It is preferable that the movement data extraction unit 32 includes a time measuring unit that measures time.

地図情報とは、地図を構成する情報である。地図情報は、ベクトルデータで構成されている。地図情報は、3次元のベクトルデータにより構成されていることがより好ましい。ベクトルデータとしては、道路の位置および道路の形状を示す情報を含んでいる。より具体的には、地図情報は、例えば、道路の形状を示す地図画像情報、地図画像情報に紐付いた地図画像上のノードやリンクの情報、一般道路か高速道路かを示す属性情報を有している。ノードは、交差点その他道路網表現上の結節などを示す。リンクは、ノードとノードの間の道路区間を示す。また、地図情報は、一定の緯度・経度の間隔で矩形に分離されたメッシュ単位で構成されている。さらに各メッシュは、所定の単位で分離された縮尺の異なる複数の階層から構成されている。メッシュは、日本の場合、例えば、総務省により定められた標準地域メッシュの規格を採用することができる。標準地域メッシュは、1次メッシュ、2次メッシュ、3次メッシュの順に約10分の1の面積比で構成される。さらに、メッシュは、1次〜3次メッシュより細分化した分割地域メッシュを、メッシュ単位として採用することができる。地図情報は、メッシュ単位毎に分割される場合、それぞれメッシュ番号と、対応する緯度および経度の情報とを有する。   Map information is information constituting a map. The map information is composed of vector data. The map information is more preferably composed of three-dimensional vector data. The vector data includes information indicating the position of the road and the shape of the road. More specifically, the map information includes, for example, map image information indicating the shape of the road, information on nodes and links on the map image associated with the map image information, and attribute information indicating whether the road is a general road or a highway. ing. The node indicates an intersection or other nodule on the road network expression. A link indicates a road section between nodes. Further, the map information is configured in units of meshes separated into rectangles at regular latitude / longitude intervals. Further, each mesh is composed of a plurality of layers having different scales separated by a predetermined unit. In the case of Japan, for example, a standard regional mesh standard defined by the Ministry of Internal Affairs and Communications can be adopted. The standard area mesh is configured with an area ratio of about 1/10 in the order of primary mesh, secondary mesh, and tertiary mesh. Furthermore, the divided area mesh subdivided from the primary to tertiary mesh can be adopted as the mesh unit. When map information is divided | segmented for every mesh unit, it has a mesh number and the corresponding latitude and longitude information, respectively.

軌跡情報取得部22は、車両データ受信部28と、データ記憶部29と、を含む。車両データ受信部28は、複数の車両4それぞれの車載端末3から送信されたプローブデータを受信する。データ記憶部29は、車両データ受信部28が受信したプローブデータを記憶する。軌跡情報取得部22は、各車載端末3からプローブデータを受信することにより、プローブデータに含まれる各車両4の軌跡情報を取得することができる。軌跡情報は、時間ごとの緯度・経度により表された座標の集合である。   The trajectory information acquisition unit 22 includes a vehicle data reception unit 28 and a data storage unit 29. The vehicle data receiving unit 28 receives probe data transmitted from the in-vehicle terminals 3 of the plurality of vehicles 4. The data storage unit 29 stores the probe data received by the vehicle data receiving unit 28. The trajectory information acquisition unit 22 can acquire trajectory information of each vehicle 4 included in the probe data by receiving probe data from each in-vehicle terminal 3. The trajectory information is a set of coordinates represented by latitude and longitude for each time.

移動画像描画部23は、軌跡情報取得部22によって取得された所定の範囲にある複数の車両4の軌跡情報に基づいて移動軌跡画像をまとめて描画する。所定の範囲は、例えば、道路情報を構成する任意の縮尺のメッシュを採用する。   The moving image drawing unit 23 draws the moving track images collectively based on the track information of the plurality of vehicles 4 in the predetermined range acquired by the track information acquiring unit 22. For the predetermined range, for example, a mesh of any scale constituting the road information is adopted.

以下、移動画像描画部23が車両4の移動軌跡画像を描画する例について説明する。移動画像描画部23のうち、第1移動画像描画部231は、移動データ生成部30を介して、軌跡情報取得部22のデータ記憶部29から複数のプローブデータに含まれる軌跡情報を取得する。移動データ生成部30は、取得された複数のプローブデータから移動軌跡画像の描画に必要でない情報が取り除かる。移動データ生成部30は、例えば、複数のプローブデータから時間ごとの緯度・経度により表された座標の集合のみのデータを生成すればよい。移動データ生成部30は、例えば、複数のプローブデータから座標のばらつきを正規化された正規化座標の集合のみのデータを生成してもよい。なお、移動データ生成部30は、移動画像描画部23と別体に構成される場合だけに限られず、移動画像描画部23に含まれるように構成されてもよい。また、移動データ生成部30は、軌跡情報取得部22に含まれるように構成されてもよい。同様に、移動画像描画部23は、軌跡情報取得部22に含まれるように構成されてもよい。移動画像描画部23は、具体的には、軌跡情報の座標の集合の情報に基づいて、図4Aに示すように、連続するm個の一群のプローブデータを取得する。移動画像描画部23は、取得した座標を点P1、P2、P3〜Pmとしてプロットする。移動画像描画部23は、図4Bに示すように、プロットした点P1、P2、P3〜Pm同士を線で繋いで1つの移動軌跡画像Lとして描画する。これにより、移動画像描画部23は、軌跡情報の他に、時刻、走行距離、走行速度、加速度、角速度、自車方位、勾配角の情報を含んだベクトル形式のプローブデータからスカラー形式の移動軌跡画像を生成することができる。なお、移動データ生成部30で生成された緯度・経度により表された座標の集合のみのデータは、時刻情報と共に移動データ記憶部31に蓄積されるように構成されている。   Hereinafter, an example in which the moving image drawing unit 23 draws a moving locus image of the vehicle 4 will be described. Of the moving image drawing unit 23, the first moving image drawing unit 231 acquires trajectory information included in the plurality of probe data from the data storage unit 29 of the trajectory information acquisition unit 22 via the movement data generation unit 30. The movement data generation unit 30 removes information not necessary for drawing the movement trajectory image from the plurality of acquired probe data. For example, the movement data generation unit 30 may generate only data of a set of coordinates represented by latitude and longitude for each time from a plurality of probe data. For example, the movement data generation unit 30 may generate data of only a set of normalized coordinates obtained by normalizing variation in coordinates from a plurality of probe data. Note that the movement data generation unit 30 is not limited to being configured separately from the movement image drawing unit 23, and may be configured to be included in the movement image drawing unit 23. Further, the movement data generation unit 30 may be configured to be included in the trajectory information acquisition unit 22. Similarly, the moving image drawing unit 23 may be configured to be included in the trajectory information acquisition unit 22. Specifically, the moving image drawing unit 23 acquires a group of m consecutive probe data, as shown in FIG. 4A, based on information on a set of coordinates of the trajectory information. The moving image drawing unit 23 plots the acquired coordinates as points P1, P2, P3 to Pm. As shown in FIG. 4B, the moving image drawing unit 23 draws the plotted points P1, P2, P3 to Pm as a single moving locus image L by connecting the lines with lines. As a result, the moving image drawing unit 23 uses the scalar type moving trajectory from the vector type probe data including the time information, the traveling distance, the traveling speed, the acceleration, the angular velocity, the vehicle direction, and the gradient angle in addition to the trajectory information. An image can be generated. Note that data of only a set of coordinates represented by latitude / longitude generated by the movement data generation unit 30 is configured to be accumulated in the movement data storage unit 31 together with time information.

また、移動画像描画部23は、車両データ受信部28がプローブデータを受信すると、移動軌跡画像の描画を繰り返し行ってもよい。移動画像描画部23は、複数の移動軌跡画像を重畳して描画した場合、各移動軌跡画像の中央値または自乗平均値を算出して、重畳して描画された各移動軌跡画像の幅方向の中心値(中心座標)を繋いだ線を、平均化された移動軌跡画像として描画してもよい。これにより、移動画像描画部23は、マルチパスによるGPSデータの誤差、通信障害を起因とする軌跡情報の座標の揺らぎが抑制される。移動画像描画部23は、座標の揺らぎが抑制されることで描画精度を向上できる。   Further, the moving image drawing unit 23 may repeatedly draw the moving locus image when the vehicle data receiving unit 28 receives the probe data. The moving image drawing unit 23 calculates a median value or a root mean square value of each moving track image when drawing a plurality of moving track images in a superimposed manner, and calculates the moving direction image of each moving track image drawn in the width direction. A line connecting the center values (center coordinates) may be drawn as an averaged movement trajectory image. Thereby, the moving image drawing unit 23 suppresses the fluctuation of the coordinates of the trajectory information caused by the error of the GPS data due to the multipath and the communication failure. The moving image drawing unit 23 can improve drawing accuracy by suppressing the fluctuation of coordinates.

移動画像描画部23は、プローブデータに含まれる走行速度の情報を参照して、走行速度が所定の速度以上のプローブデータを省いて移動軌跡画像を描画してもよい。車載端末3は、GPSデータから走行速度を算出する場合、マルチパスによるGPSデータの誤差、若しくは通信障害を起因として、例えば、車速が通常ありえない300km以上に算出される場合もある。移動画像描画部23は、マルチパスによるGPSデータの誤差、若しくは通信障害を起因とする走行情報の誤検出が抑制できる。移動画像描画部23は、走行情報の誤検出が抑制されることで、描画精度が向上する。   The moving image drawing unit 23 may draw the moving trajectory image by referring to the information on the traveling speed included in the probe data and omitting probe data whose traveling speed is equal to or higher than a predetermined speed. When the in-vehicle terminal 3 calculates the travel speed from the GPS data, for example, the vehicle speed may be calculated to be 300 km or more, which is not normally possible, due to an error in GPS data due to multipath or a communication failure. The moving image drawing unit 23 can suppress erroneous detection of traveling information caused by GPS data errors due to multipath or communication failures. The moving image drawing unit 23 improves drawing accuracy by suppressing erroneous detection of travel information.

移動画像描画部23は、プローブデータに含まれる走行速度の情報を参照して、走行速度が連続しないプローブデータを省いて移動軌跡画像を描画してもよい。これにより、移動画像描画部23は、例えば、駐車場において途中で駐車した車両4の車載端末3から得られるプローブデータを省くことができる。移動画像描画部23は、不要なプローブデータを省くことで、移動軌跡画像の描画精度を向上させることができる。   The movement image drawing unit 23 may draw the movement locus image by referring to the information on the traveling speed included in the probe data and omitting the probe data whose traveling speed is not continuous. Thereby, the moving image drawing part 23 can omit the probe data obtained from the in-vehicle terminal 3 of the vehicle 4 parked in the middle of the parking lot, for example. The moving image drawing unit 23 can improve the drawing accuracy of the moving trajectory image by omitting unnecessary probe data.

移動画像描画部23は、プローブデータに含まれる軌跡情報、走行速度の情報を参照して、高速道路上を移動していると推定できるプローブデータと、一般道路上を移動していると推定できるプローブデータと、を互いに識別して移動軌跡画像を描画することもできる。これにより、地図情報処理装置2は、任意に選択した道路種別だけを道路形状変化の判定処理対象にすることができる。地図情報処理装置2は、処理速度の向上を図ることができる。   The moving image drawing unit 23 can estimate that it is moving on a general road and probe data that can be estimated to be moving on a highway with reference to trajectory information and travel speed information included in the probe data. It is also possible to draw a movement trajectory image by discriminating probe data from each other. Thereby, the map information processing apparatus 2 can make only a road type arbitrarily selected as a road shape change determination processing target. The map information processing apparatus 2 can improve the processing speed.

また、移動画像描画部23は、所定の単位期間に取得された車両4の軌跡情報に基づいて移動軌跡画像を描画してもよい。移動画像描画部23は、例えば、所定の単位期間の間を蓄積した軌跡情報に基づいてデータの正規化を行う。移動画像描画部23は、正規化されたデータから、メッシュ単位毎に、単位期間ごとのプローブデータを作成することができる。所定の単位期間は、例えば、現在時点を基準として、過去30日間分に設定することができる。本実施形態においては、移動画像描画部23は、単位期間ごとのプローブデータとして、2次メッシュのプローブデータを作成する。このように、地図情報処理装置2は、所定の期間にわたって蓄積した軌跡情報に基づいてプローブデータを作成することで、移動軌跡画像の描画精度が向上する。   Further, the moving image drawing unit 23 may draw a moving locus image based on the locus information of the vehicle 4 acquired during a predetermined unit period. The moving image drawing unit 23 normalizes the data based on the trajectory information accumulated during a predetermined unit period, for example. The moving image drawing unit 23 can create probe data for each unit period from the normalized data for each mesh unit. The predetermined unit period can be set, for example, for the past 30 days based on the current time point. In the present embodiment, the moving image drawing unit 23 creates secondary mesh probe data as probe data for each unit period. As described above, the map information processing apparatus 2 creates the probe data based on the trajectory information accumulated over a predetermined period, thereby improving the drawing accuracy of the moving trajectory image.

移動画像描画部23は、過去のプローブデータをリファレンスのために利用している。過去のプローブデータに基づいた軌跡情報は、移動データ記憶部31に記憶されている。まず、移動データ抽出部32は、移動データ記憶部31からリファレンスとなる過去の軌跡情報を抽出する。移動データ抽出部32は、予め設定された特定の期間から過去の所定の軌跡情報を抽出すればよい。移動画像描画部23のうち、第2移動画像描画部232には、移動データ記憶部31からリファレンスとなる過去の軌跡情報が入力される。移動画像描画部23は、第1移動画像描画部231が所定の単位期間に取得した軌跡情報に基づいて作成された2次メッシュのプローブデータから作成された軌跡情報から移動軌跡画像を描画し、第2移動画像描画部232が予め特定の期間にわたって蓄積したより過去の軌跡情報に基づいて、リファレンスとなるより過去の移動軌跡画像を描画する。過去の軌跡情報は、メッシュ単位毎に作成されていることが好ましい。移動画像描画部23は、予め特定の期間として、例えば、30日を過去のプローブデータを利用できる。移動画像描画部23は、過去の全てのプローブデータが対象となるように特定の期間として全てのプローブデータを利用してもよい。本実施形態においては、移動画像描画部23は、過去のプローブデータとして、30日間蓄積された2次メッシュの軌跡情報を作成する。   The moving image drawing unit 23 uses past probe data for reference. Trajectory information based on past probe data is stored in the movement data storage unit 31. First, the movement data extraction unit 32 extracts past trajectory information serving as a reference from the movement data storage unit 31. The movement data extraction unit 32 may extract past predetermined trajectory information from a specific period set in advance. Of the moving image drawing unit 23, the past moving locus information serving as a reference is input from the movement data storage unit 31 to the second moving image drawing unit 232. The moving image drawing unit 23 draws a moving trajectory image from the trajectory information created from the secondary mesh probe data created based on the trajectory information acquired by the first moving image drawing unit 231 in a predetermined unit period, The second moving image drawing unit 232 draws a past moving trajectory image serving as a reference based on the past trajectory information accumulated in advance for a specific period. The past trajectory information is preferably created for each mesh unit. The moving image drawing unit 23 can use the past probe data for 30 days as a specific period in advance. The moving image drawing unit 23 may use all probe data as a specific period so that all past probe data is targeted. In the present embodiment, the moving image drawing unit 23 creates secondary mesh trajectory information accumulated for 30 days as past probe data.

次に、差分抽出部25は、第1移動画像描画部231が新たに作成した2次メッシュのプローブデータと、第2移動画像描画部232が過去に作成した2次メッシュのプローブデータと、を比較して差分データを抽出することができるように構成されている。差分抽出部25は、第1移動画像描画部231および第2移動画像描画部232と別体に構成されているが、移動画像描画部23に含まれるように構成されてもよい。   Next, the difference extraction unit 25 uses the secondary mesh probe data newly created by the first moving image drawing unit 231 and the secondary mesh probe data created by the second moving image drawing unit 232 in the past. Difference data can be extracted by comparison. The difference extraction unit 25 is configured separately from the first moving image drawing unit 231 and the second moving image drawing unit 232, but may be configured to be included in the moving image drawing unit 23.

なお、上述の実施形態では、所定の単位期間を1日間、3日間、7日間、30日間に設定としたがこれに限られるものではない。所定の単位期間は、日単位だけでなく、時間単位、月単位、年単位でもよく、任意の期間に設定することができる。また、上述の実施形態では、特定の期間を30日としたがこれに限られるものではない。特定の期間は、任意の期間に設定することができる。さらに、上述の実施形態では、移動画像描画部23は、2次メッシュのプローブデータを作成する構成だけに限られない。移動画像描画部23は、1次メッシュ、3次メッシュ、若しくは他の単位メッシュに合わせたプローブデータを作成してもよい。   In the above-described embodiment, the predetermined unit period is set to 1 day, 3 days, 7 days, and 30 days. However, the present invention is not limited to this. The predetermined unit period may be not only a day unit but also an hour unit, a month unit, or a year unit, and can be set to an arbitrary period. In the above-described embodiment, the specific period is set to 30 days, but is not limited thereto. The specific period can be set to an arbitrary period. Furthermore, in the above-described embodiment, the moving image drawing unit 23 is not limited to a configuration that creates secondary mesh probe data. The moving image drawing unit 23 may create probe data according to the primary mesh, the tertiary mesh, or other unit mesh.

言い換えれば、差分抽出部25は、所定の期間に取得したベクトル形式のプローブデータに基づいて第1移動画像描画部231により描画されたスカラー形式の移動軌跡画像と、予め特定の期間に取得したベクトル形式のプローブデータに基づいて第2移動画像描画部232により描画された第1移動画像描画部231よりも過去のスカラー形式の移動軌跡画像と、の差分データを抽出することができるように構成されている。所定の期間、及び予め特定の期間は、適宜に設定されていればよい。   In other words, the difference extraction unit 25 uses the scalar-type movement trajectory image drawn by the first moving image drawing unit 231 based on the vector-type probe data acquired during a predetermined period, and the vector acquired in advance for a specific period. Based on the probe data in the format, the first moving image drawing unit 231 drawn by the second moving image drawing unit 232 can extract difference data from the previous scalar moving track image. ing. The predetermined period and the specific period may be set as appropriate.

本実施形態の地図情報処理装置2は、地図情報記憶部21、データ記憶部29および移動データ記憶部31を、例えば、ハードディスクドライブ、若しくは半導体メモリのメモリで構成することができる。メモリには、CPU(Central Processing Unit)を駆動させるプログラムが記憶されていてもよい。CPUは、メモリに記憶されたプログラムが実行されることで、第1移動画像描画部231、第2移動画像描画部232、差分抽出部25、道路形状変化判定部26、地図情報更新部27、移動データ生成部30および移動データ抽出部32を機能させることができるように構成されている。車両データ受信部28は、適宜の通信モジュールで構成することができる。   In the map information processing apparatus 2 of the present embodiment, the map information storage unit 21, the data storage unit 29, and the movement data storage unit 31 can be configured by, for example, a hard disk drive or a semiconductor memory. The memory may store a program for driving a CPU (Central Processing Unit). The CPU executes the program stored in the memory, so that the first moving image drawing unit 231, the second moving image drawing unit 232, the difference extraction unit 25, the road shape change determination unit 26, the map information update unit 27, The movement data generation unit 30 and the movement data extraction unit 32 are configured to function. The vehicle data receiving unit 28 can be configured with an appropriate communication module.

以下、図5A〜図5Dを参照して、差分抽出部25により差分データを抽出する一例について説明する。   Hereinafter, an example in which difference data is extracted by the difference extraction unit 25 will be described with reference to FIGS. 5A to 5D.

差分抽出部25は、第1移動画像描画部231により描画された移動軌跡画像と、第2移動画像描画部232により描画されたより過去の移動軌跡画像と、を取得する。図5Aには、第1移動画像描画部231により描画された移動軌跡画像を例示している。図5Bには、第2移動画像描画部232により描画されたより過去の移動軌跡画像を例示している。次に、差分抽出部25は、図5Cに示すように、取得した移動軌跡画像と、取得した過去の移動軌跡画像と、を合成した合成データの画像を作成する。差分抽出部25は、合成データの画像を作成した結果、図5Dに示すように、図5Aに示す移動軌跡画像と図5Bに示す過去の移動軌跡画像との間で重複しない画像を、差分データの画像として抽出する。図5Dには、差分抽出部25で抽出された差分データの画像を例示している。差分データの画像は、地図情報が生成された時点での道路と、現在の道路との差分を表すと考えられる。すなわち、差分データの画像は、道路形状変化を表すと考えられる。図5A〜図5Dに示す例では、図5中の丸で囲んだ領域において新たな道路が形成された可能性がある。次に、地図情報処理装置2は、図5中の丸で囲われた箇所を含めて、抽出した差分データが道路形状変化であるか否かを判定する。   The difference extraction unit 25 acquires the movement trajectory image drawn by the first moving image drawing unit 231 and the past movement trajectory image drawn by the second moving image drawing unit 232. FIG. 5A illustrates the movement trajectory image drawn by the first moving image drawing unit 231. FIG. 5B illustrates a past movement trajectory image drawn by the second moving image drawing unit 232. Next, as illustrated in FIG. 5C, the difference extraction unit 25 creates an image of combined data obtained by combining the acquired movement trajectory image and the acquired past movement trajectory image. As a result of creating the composite data image, the difference extraction unit 25 creates an image that does not overlap between the movement locus image shown in FIG. 5A and the past movement locus image shown in FIG. Extracted as an image. FIG. 5D illustrates an image of difference data extracted by the difference extraction unit 25. The image of the difference data is considered to represent the difference between the road at the time when the map information is generated and the current road. That is, the image of the difference data is considered to represent the road shape change. In the example shown in FIGS. 5A to 5D, there is a possibility that a new road has been formed in the circled area in FIG. 5. Next, the map information processing apparatus 2 determines whether or not the extracted difference data is a road shape change including the circled portion in FIG.

道路形状変化判定部26は、差分抽出部25が抽出した差分データが道路形状変化であるか否かの判定を機械学習により判定する。機械学習としては、ディープラーニングが用いられている。具体的には、道路形状変化判定部26は、過去に抽出した差分データを教師データとして機械学習を行う。道路形状変化判定部26は、機械学習の結果に基づき、新たに抽出した差分データが道路形状変化であるか否かを判定する。   The road shape change determination unit 26 determines whether or not the difference data extracted by the difference extraction unit 25 is a road shape change by machine learning. Deep learning is used as machine learning. Specifically, the road shape change determination unit 26 performs machine learning using difference data extracted in the past as teacher data. The road shape change determination unit 26 determines whether or not the newly extracted difference data is a road shape change based on the result of machine learning.

次に、図6を参照して、道路形状変化判定部26がディープラーニングにより道路形状変化を判定する方法の一例について説明する。ディープラーニングは、多層のニューラルネットワーク60による機械学習の手法の一種である。ニューラルネットワーク60は、入力データと出力データとを持ち、内部の演算処理は複数の人工ニューロンに基づいて行われる。機械学習において使用するニューラルネットワーク60は、3つの層を含んでいる。3つの層は、入力層61と、中間層62と、出力層63として図示している。中間層62は、隠れ層とも呼ばれ、2以上の層を含んでいてもよい。中間層62は、層の数が少なすぎれば、未学習となる。中間層62は、層の数が多すぎれば、過剰適合となる。道路形状変化判定部26は、差分データが道路形状変化であるか否かを判定するために、適宜に層の数が設定されればよい。人工ニューロンは、前の層の出力に対してパラメータを掛けたものの総和を出力する。人工ニューロンの出力データは、活性化関数により制御され、非線形性が付加される。本実施形態において使用される機械学習のための活性化関数は、例えば、ソフトマックス関数、シグモイド関数、若しくはガウス関数を採用することができる。   Next, an example of a method by which the road shape change determination unit 26 determines a road shape change by deep learning will be described with reference to FIG. Deep learning is a kind of machine learning technique using a multilayer neural network 60. The neural network 60 has input data and output data, and internal arithmetic processing is performed based on a plurality of artificial neurons. The neural network 60 used in machine learning includes three layers. The three layers are illustrated as an input layer 61, an intermediate layer 62, and an output layer 63. The intermediate layer 62 is also called a hidden layer, and may include two or more layers. The intermediate layer 62 becomes unlearned if the number of layers is too small. The intermediate layer 62 is overfitted if there are too many layers. The road shape change determination unit 26 may set the number of layers appropriately in order to determine whether the difference data is a road shape change. The artificial neuron outputs the sum of the previous layer output multiplied by the parameter. The output data of the artificial neuron is controlled by an activation function, and nonlinearity is added. As the activation function for machine learning used in the present embodiment, for example, a softmax function, a sigmoid function, or a Gaussian function can be adopted.

ニューラルネットワーク60は、機械学習を行うため、初めに入力データとして、教師データが入力層61に与えられる。教師データは、例えば、差分抽出部25により過去に抽出された差分データである。道路形状変化判定部26は、教師データを入力層61、中間層62、出力層63により処理する。すなわち、道路形状変化判定部26は、入力した差分データに最適な特徴量を動的に生成して学習し、順方向の情報伝搬により演算処理する順伝播を行う。図6では、順伝播の方向を極太の片矢印で示している。出力結果は、入力された差分データが道路形状変化の画像であるか、ノイズであるかの予測結果を表す。   Since the neural network 60 performs machine learning, teacher data is first given to the input layer 61 as input data. The teacher data is, for example, difference data extracted in the past by the difference extraction unit 25. The road shape change determination unit 26 processes the teacher data by the input layer 61, the intermediate layer 62, and the output layer 63. That is, the road shape change determination unit 26 dynamically generates and learns an optimum feature amount for the input difference data, and performs forward propagation that performs arithmetic processing by forward information propagation. In FIG. 6, the direction of forward propagation is indicated by a thick single arrow. The output result represents a prediction result of whether the input difference data is an image of a road shape change or noise.

また、学習を行う場合には、道路形状変化判定部26は、出力結果が道路形状変化の画像であるか、ノイズであるかの情報を与えることで、逆方向の情報伝搬により演算処理する逆伝播を行う。図6では、逆伝播の方向を太い片矢印で示している。なお、道路形状変化判定部26では、機械学習において、教師データとして学習に使用する入力データと、出力データとの出力誤差を評価する。道路形状変化判定部26は、逆伝播により、出力誤差から逐次的に機械学習における各層と各ノードのパラメータを最適化することが好ましい。   In addition, when learning is performed, the road shape change determination unit 26 gives information on whether the output result is an image of a road shape change or noise, so that the reverse is performed by information propagation in the reverse direction. Propagate. In FIG. 6, the direction of back propagation is indicated by a thick single arrow. The road shape change determination unit 26 evaluates an output error between input data used for learning as teacher data and output data in machine learning. The road shape change determination unit 26 preferably optimizes parameters of each layer and each node in machine learning sequentially from the output error by back propagation.

この学習により、道路形状変化判定部26は、各層のパラメータを徐々に最適値に近づけていける。そして、道路形状変化判定部26は、差分抽出部25により抽出された差分データを入力層61に入力すると、機械学習の結果に基づいて調整されたパラメータを用いて、差分データが道路形状変化の画像であるか否かの判定を行うことができる。   By this learning, the road shape change determination unit 26 can gradually bring the parameters of each layer closer to the optimum values. Then, when the difference data extracted by the difference extraction unit 25 is input to the input layer 61, the road shape change determination unit 26 uses the parameter adjusted based on the result of the machine learning, and the difference data is converted into the road shape change. It is possible to determine whether or not it is an image.

道路形状変化判定部26は、例えば、図6に示すように、n個の差分データd1、d2からdnを教師データとして順伝播させると、出力層63にM個の出力データy1〜yMの情報が得られる。本実施形態において、出力データは、入力された差分データが道路形状変化の画像であるか、それ以外の画像であるかを予測する予測値を表す。   For example, as illustrated in FIG. 6, when the road shape change determination unit 26 sequentially propagates n pieces of difference data d1 and d2 to dn as teacher data, information of M pieces of output data y1 to yM is output to the output layer 63. Is obtained. In the present embodiment, the output data represents a predicted value for predicting whether the input difference data is an image of a road shape change or other image.

道路形状変化判定部26は、得られた出力データy1〜yMに対して、道路形状変化の画像であるか、ノイズであるかを示すM個の正解データt1〜tMの情報が与えられる。道路形状変化判定部26は、正解データt1からtMの情報が与えられて逆伝播を行うと、逐次パラメータを最適な値に調整する機械学習を行う。言い換えれば、道路形状変化判定部26は、逆伝播により出力データと正解データとのずれを評価し、パラメータを最適化している。なお、機械学習のために使用するソフトウェアは、例えば、OpenCV、Numpy、Matplotlib、若しくはChainerを採用することができる。   The road shape change determination unit 26 is provided with information on M pieces of correct answer data t1 to tM indicating whether the obtained output data y1 to yM is an image of road shape change or noise. The road shape change determination unit 26 performs machine learning to sequentially adjust the parameters to optimum values when back propagation is performed with the information of the correct answer data t1 to tM. In other words, the road shape change determination unit 26 evaluates the difference between the output data and the correct data by back propagation and optimizes the parameters. As software used for machine learning, for example, OpenCV, Numpy, Matplotlib, or Chainer can be adopted.

地図情報更新部27は、地図情報記憶部21に記憶される地図情報を更新する。具体的には、地図情報更新部27は、道路形状変化判定部26により、道路形状変化であると判定された差分データに対応する移動軌跡情報から、ベクトルデータの地図情報を生成する。そして、地図情報更新部27は、生成した地図情報で、地図情報記憶部21に記憶される地図情報を更新する。地図情報を更新する処理については、後述の地図情報更新処理において説明する。   The map information update unit 27 updates the map information stored in the map information storage unit 21. Specifically, the map information update unit 27 generates map information of vector data from the movement trajectory information corresponding to the difference data determined to be a road shape change by the road shape change determination unit 26. Then, the map information update unit 27 updates the map information stored in the map information storage unit 21 with the generated map information. The process of updating the map information will be described in the map information update process described later.

本実施形態の地図情報処理装置2は、機械学習により道路地図を作成するため、処理対象をできるだけシンプルにすることで、道路形状変化の判定を容易に行っている。また、地球の形状は、真球ではなく偏球であるため、メッシュの縦横の長さが場所によって異なる場合がある。本実施形態の地図情報処理装置2は、機械学習を行う場合、予め各メッシュの縦横の長さを統一した正規化を行っていることが好ましい。地図情報処理装置2は、機械学習を行った後、正規化されたメッシュを元に戻して利用することで、道路形状変化の判定をより正確に行うことができる。なお、本実施形態の地図情報処理装置2は、プローブデータから移動軌跡画像の生成に不要なデータを削除した後、機械学習により軌跡情報を弁別してもよい。   Since the map information processing apparatus 2 according to the present embodiment creates a road map by machine learning, it is easy to determine a road shape change by making the processing target as simple as possible. In addition, since the shape of the earth is not a true sphere but an oblate sphere, the vertical and horizontal lengths of the mesh may vary depending on the location. When performing the machine learning, the map information processing apparatus 2 of the present embodiment preferably performs normalization that unifies the vertical and horizontal lengths of each mesh in advance. The map information processing apparatus 2 can more accurately determine the road shape change by performing machine learning and then using the normalized mesh after returning to the original state. Note that the map information processing apparatus 2 of the present embodiment may discriminate trajectory information by machine learning after deleting data unnecessary for generating a movement trajectory image from the probe data.

次に、本実施形態に係る地図情報処理装置2による道路形状変化判定処理について、図7および図8を参照して説明する。地図情報処理装置2は、道路形状変化処理の開始の指示を受け付けると、図7のステップ71からステップ77の判定処理を開始する。以下では、ステップをSで示す。   Next, road shape change determination processing by the map information processing apparatus 2 according to the present embodiment will be described with reference to FIGS. 7 and 8. When the map information processing apparatus 2 receives an instruction to start the road shape change process, the map information processing apparatus 2 starts the determination process from step 71 to step 77 in FIG. 7. In the following, the step is denoted by S.

地図情報処理装置2は、道路形状変化であるか否かを判定する前に予め教師データに基づいてパラメータの最適化を実行する。道路形状変化判定部26は、教師データに基づいて機械学習を行う(S71)。   The map information processing apparatus 2 performs parameter optimization based on teacher data in advance before determining whether or not the road shape change. The road shape change determination unit 26 performs machine learning based on the teacher data (S71).

道路形状変化判定部26は、教師データとして予め準備された情報が入力される。予め準備された情報は、抽出された差分データが道路形状変化を示す画像か、それ以外のノイズなどの画像か、を互いに識別するパラメータの設定のために用いられる。そして、設定されたパラメータは、例えば、道路形状変化判定部26で保持されるか、あるいは、道路形状変化判定部26がアクセス可能なメモリに格納される。   The road shape change determination unit 26 receives information prepared in advance as teacher data. The information prepared in advance is used for setting parameters for mutually identifying whether the extracted difference data is an image indicating a change in road shape or an image such as other noise. The set parameters are held in the road shape change determination unit 26 or stored in a memory accessible by the road shape change determination unit 26, for example.

次に、軌跡情報取得部22は、各車載端末3から送信されたプローブデータを車両データ受信部28が受信する。軌跡情報取得部22は、受信したプローブデータをデータ記憶部29が記憶する。これにより、軌跡情報取得部22は、受信したプローブデータに含まれる各車両4の軌跡情報を取得する(S72)。   Next, in the trajectory information acquisition unit 22, the vehicle data reception unit 28 receives the probe data transmitted from each in-vehicle terminal 3. In the trajectory information acquisition unit 22, the data storage unit 29 stores the received probe data. Thereby, the locus information acquisition unit 22 acquires the locus information of each vehicle 4 included in the received probe data (S72).

移動データ生成部30は、軌跡情報取得部22により取得したプローブデータを所定の単位期間の間、蓄積したデータの正規化により2次メッシュのプローブデータを作成する。移動データ生成部30は、ベクトル形式のプローブデータから移動画像の描画に不要なデータを削除する。不要なデータとしては、例えば、走行距離、走行速度、加速度、角速度、自車方位、勾配角が挙げられる。   The movement data generation unit 30 creates secondary mesh probe data by normalizing the accumulated data of the probe data acquired by the trajectory information acquisition unit 22 for a predetermined unit period. The movement data generation unit 30 deletes data unnecessary for drawing the movement image from the probe data in the vector format. Examples of unnecessary data include travel distance, travel speed, acceleration, angular velocity, own vehicle direction, and gradient angle.

第1移動画像描画部231は、正規化した2次メッシュの軌跡情報を利用して、2次メッシュの移動軌跡画像を描画する(S73)。言い換えれば、第1移動画像描画部231は、所定の単位期間に取得されたプローブデータを利用して、移動軌跡画像を作成する。そして、第2移動画像描画部232は、移動データ記憶部31から移動データ抽出部32により抽出された過去の2次メッシュの軌跡情報を利用して、過去の2次メッシュの移動軌跡画像を描画する。過去の2次メッシュの移動軌跡画像は、リファレンス用として参照される。   The first moving image drawing unit 231 draws the moving trajectory image of the secondary mesh using the normalized secondary mesh trajectory information (S73). In other words, the first moving image drawing unit 231 creates a moving trajectory image using probe data acquired during a predetermined unit period. Then, the second moving image drawing unit 232 draws the past secondary mesh movement trajectory image using the past secondary mesh trajectory information extracted from the movement data storage unit 31 by the movement data extraction unit 32. To do. The movement image of the past secondary mesh is referred to for reference.

移動画像描画部23は、2次メッシュのプローブデータに基づいて第1移動画像描画部231が描画した2次メッシュの移動軌跡画像と、より過去の2次メッシュのプローブデータに基づいて第2移動画像描画部232が描画した過去の2次メッシュの移動軌跡画像と、を比較して差分データを抽出する(S74)。   The moving image drawing unit 23 performs the second movement based on the movement trajectory image of the secondary mesh drawn by the first moving image drawing unit 231 based on the probe data of the secondary mesh and the probe data of the past secondary mesh. Difference data is extracted by comparing with the movement trajectory image of the past secondary mesh drawn by the image drawing unit 232 (S74).

上述の実施形態では、移動画像描画部23は、2次メッシュの移動軌跡画像を描画しているがこれに限られるものではない。移動画像描画部23は、1次メッシュ、3次メッシュなどの任意の縮尺のメッシュの移動軌跡画像を描画することができる。また、移動画像描画部23は、2次メッシュの移動軌跡画像と、過去の2次メッシュの移動軌跡画像と、を比較して差分があるか否かを判定する場合だけに限らない。例えば、移動画像描画部23は、2次メッシュのプローブデータに含まれる緯度・経度の情報と、過去の2次メッシュのプローブデータに含まれる緯度・経度の情報と、を直接比較して差分があるか否かを判定することもできる。   In the above-described embodiment, the moving image drawing unit 23 draws the moving trajectory image of the secondary mesh, but is not limited thereto. The moving image drawing unit 23 can draw a moving trajectory image of an arbitrary scale mesh such as a primary mesh or a tertiary mesh. Further, the moving image drawing unit 23 is not limited to the case of comparing the moving trajectory image of the secondary mesh with the moving trajectory image of the past secondary mesh and determining whether or not there is a difference. For example, the moving image drawing unit 23 directly compares the latitude / longitude information included in the secondary mesh probe data with the latitude / longitude information included in the past secondary mesh probe data, and the difference is obtained. It can also be determined whether or not there is.

道路形状変化判定部26は、S71において学習した機械学習の結果に基づき、S74において新たに抽出した差分データが道路形状変化であるか否かを判定する(S75)。   The road shape change determination unit 26 determines whether or not the difference data newly extracted in S74 is a road shape change based on the result of the machine learning learned in S71 (S75).

抽出した差分データが道路形状変化であるS76のYESの場合、道路形状変化判定部26は、抽出した差分データを道路形状変化として出力する(S77)。   In the case of YES in S76 where the extracted difference data is a road shape change, the road shape change determination unit 26 outputs the extracted difference data as a road shape change (S77).

この場合、差分データは、道路形状変化を示すので、後の地図情報作成処理において使用するために保存しておく。   In this case, since the difference data indicates a change in the road shape, it is saved for use in later map information creation processing.

これに対し、抽出した差分データが道路形状変化でないS76のNOの場合、S77はスキップされ、道路形状変化判定処理は終了となる。この場合、差分データは、道路形状変化を示す情報ではなく、単なるノイズである可能性が高い。よって、抽出された差分データは廃棄されてもよい。   On the other hand, if the extracted difference data is NO in S76 that is not a road shape change, S77 is skipped, and the road shape change determination process ends. In this case, the difference data is not information indicating a change in the road shape but is likely to be simple noise. Therefore, the extracted difference data may be discarded.

このように、地図情報処理装置2は、地図情報を用いることなく道路形状変化を検出することができる。   Thus, the map information processing apparatus 2 can detect a road shape change without using map information.

その結果、地図情報処理装置2は、処理速度を向上させ、さらに判定精度を向上させることで道路形状変化の判定を容易に行うことができる。   As a result, the map information processing apparatus 2 can easily determine the road shape change by improving the processing speed and further improving the determination accuracy.

次に、本実施形態に係る地図情報処理装置2による地図情報更新処理について、図9および図10A、図10Bを参照して説明する。   Next, map information update processing by the map information processing apparatus 2 according to the present embodiment will be described with reference to FIGS. 9, 10A, and 10B.

地図情報処理装置2は、地図情報更新処理の開始の指示を受け付けると、以下の地図情報更新処理が開始される。なお、上述の実施形態では、地図情報更新処理の開始の指示を受け付けると、地図情報更新処理を開始しているがこれに限られない。例えば、上述の道路形状変化判定処理のS77において所定数の道路形状変化を出力すると、地図情報更新処理を自動的に開始させてもよい。   When the map information processing apparatus 2 receives an instruction to start the map information update process, the following map information update process is started. In the above-described embodiment, when an instruction to start the map information update process is received, the map information update process is started, but the present invention is not limited to this. For example, the map information update process may be automatically started when a predetermined number of road shape changes are output in S77 of the road shape change determination process described above.

はじめに、地図情報更新部27は、道路形状変化判定処理のS77において出力した差分データをN個蓄積し、プローブデータの誤差を平均化する(S31)。ここで、Nは、任意の自然数である。誤差を平均化したプローブデータを図10Aおよび図10Bに例示する。図10Bは、図10Aの領域F1を拡大した拡大図である。地図情報更新部27は、誤差を平均化した差分データ、すなわち、道路形状変化であると判定された道路形状を表すデータに対しスムース処理を行う(S32)。スムース処理が行われた道路形状は、新たに作られた道路の形状に相当する。   First, the map information update unit 27 accumulates N difference data output in S77 of the road shape change determination process, and averages the probe data errors (S31). Here, N is an arbitrary natural number. The probe data obtained by averaging the errors are illustrated in FIGS. 10A and 10B. FIG. 10B is an enlarged view of an area F1 in FIG. 10A. The map information update unit 27 performs a smooth process on the difference data obtained by averaging the errors, that is, the data representing the road shape determined to be a road shape change (S32). The road shape on which the smooth process has been performed corresponds to the shape of a newly created road.

地図情報更新部27は、地図情報記憶部21に記憶されているベクトルデータの地図情報のうち、S32においてスムース処理を行った道路形状の緯度・経度が含まれるメッシュの地図情報を取得する。差分データに基づいて判定された道路形状は、プローブデータに基づいて作成されているため、緯度・経度の情報を有する。よって、地図情報更新部27は、道路形状のプローブデータの緯度・経度を参照することで、対応するメッシュの地図情報を地図情報記憶部21から取得することができる。   The map information update unit 27 obtains mesh map information including the latitude / longitude of the road shape subjected to the smooth processing in S32 among the map information of the vector data stored in the map information storage unit 21. Since the road shape determined based on the difference data is created based on the probe data, it has latitude / longitude information. Therefore, the map information update unit 27 can acquire the map information of the corresponding mesh from the map information storage unit 21 by referring to the latitude and longitude of the road shape probe data.

図10Cおよび図10Dに示すように、地図情報更新部27は、S32においてスムース処理を行った2次元の道路形状D2を、取得したベクトルデータのメッシュの地図情報に含まれる道路形状D3に重ねる(S33)。図10Dは、図10Cの領域F2を拡大した拡大図である。   As shown in FIGS. 10C and 10D, the map information update unit 27 superimposes the two-dimensional road shape D2 that has been subjected to the smooth process in S32 on the road shape D3 included in the map information of the acquired vector data mesh ( S33). FIG. 10D is an enlarged view of an area F2 in FIG. 10C.

地図情報更新部27は、図10Dに示すように、S32においてスムース処理を行った2次元の道路形状D2と、ベクトルデータのメッシュの地図情報に含まれる道路形状D3との接点を特定する。ここで、地図情報は、ベクトルデータで表されているので、Z軸方向の情報を含む。Z軸方向は、地面に対して垂直な方向を示している。すなわち、地図情報は、各道路のZ軸座標を表す情報を含む。Z軸座標は、例えば、標高である。よって、差分データから生成される道路形状D2と地図情報中の道路との接点は、緯度、経度、標高により表される。そして、地図情報更新部27は、特定した各接点にノードを付加する(S34)。図10Dおよび図10Eでは、ノードN1およびノードN2として例示している。なお、差分データから生成される道路形状D2に付加されるノードには、各道路のZ軸方向を表す接点の情報が含まれるため、道路形状D2は、ベクトルデータに変換される。   As illustrated in FIG. 10D, the map information update unit 27 specifies a contact point between the two-dimensional road shape D2 that has been subjected to the smooth process in S32 and the road shape D3 included in the map information of the mesh of the vector data. Here, since the map information is represented by vector data, it includes information in the Z-axis direction. The Z-axis direction indicates a direction perpendicular to the ground. That is, the map information includes information representing the Z-axis coordinates of each road. The Z-axis coordinate is, for example, an altitude. Therefore, the contact point between the road shape D2 generated from the difference data and the road in the map information is represented by latitude, longitude, and altitude. Then, the map information update unit 27 adds a node to each identified contact (S34). In FIG. 10D and FIG. 10E, it illustrates as the node N1 and the node N2. Note that since the node added to the road shape D2 generated from the difference data includes contact point information indicating the Z-axis direction of each road, the road shape D2 is converted into vector data.

地図情報更新部27は、特定したノードを利用して、ベクトルデータの道路形状D2の軸を生成する(S35)。地図情報更新部27は、差分データから得られた道路形状D2の道路幅を、地図情報に含まれる道路形状D3の道路幅と一致するように修正する。そして、道路幅を修正したベクトルデータの道路形状D2を地図情報に含まれる道路形状D3とノードで連結する(S36)。   The map information update unit 27 generates the axis of the road shape D2 of the vector data using the identified node (S35). The map information update unit 27 corrects the road width of the road shape D2 obtained from the difference data so as to match the road width of the road shape D3 included in the map information. Then, the road shape D2 of the vector data whose road width is corrected is connected to the road shape D3 included in the map information by a node (S36).

地図情報更新部27は、地図情報に含まれる道路形状D3のうち、不要となった道路箇所D4および付加したノードを削除する(S37)。例えば、地図情報更新部27は、変換前の元の2次元の道路形状D2に付加したノード間において、プローブデータが存在しない箇所を不要となった道路箇所D4として削除する。   The map information update unit 27 deletes the unnecessary road location D4 and the added node from the road shape D3 included in the map information (S37). For example, the map information update unit 27 deletes a part where probe data does not exist as a road part D4 that is no longer necessary between nodes added to the original two-dimensional road shape D2 before conversion.

地図情報更新部27は、不要となった道路箇所D4を削除する。地図情報更新部27は、ベクトルデータの道路形状D2が連結された道路形状D3に基づき、地図情報記憶部21内の地図情報を更新する(S38)。この処理が終了すると、地図情報更新処理は終了となる。   The map information update unit 27 deletes the road part D4 that is no longer needed. The map information update unit 27 updates the map information in the map information storage unit 21 based on the road shape D3 to which the road shape D2 of the vector data is connected (S38). When this process ends, the map information update process ends.

これにより、道路形状変化として抽出された2次元の差分データを再び3次元のベクトルデータに戻して地図情報を更新することができる。その結果、地図情報を定期的に自動フォーマット化することができ、地図情報の更新にかかる手間を軽減することができる。   Thereby, the map information can be updated by returning the two-dimensional difference data extracted as the road shape change back to the three-dimensional vector data. As a result, the map information can be automatically formatted regularly, and the effort required for updating the map information can be reduced.

なお、本実施形態の地図情報処理装置2は、制御部、一時記憶部、記憶部、無線通信部を有する。制御部は、記憶部に読込んだプログラムを実行する。本実施形態の車両データ受信部28、移動画像描画部23、差分抽出部25、道路形状変化判定部26、地図情報更新部27、移動データ生成部30、移動データ抽出部32は、地図情報処理装置2の制御部に含まれる。本実施形態の地図情報記憶部21、データ記憶部29および移動データ記憶部31は、地図情報処理装置2の記憶部に含まれる。一時記憶部は、記憶部から読込まれたプログラムや各種データを展開するワーキングエリアである。制御部、一時記憶部、記憶部、無線通信部などの各部位は相互に接続される。   Note that the map information processing apparatus 2 of the present embodiment includes a control unit, a temporary storage unit, a storage unit, and a wireless communication unit. The control unit executes the program read into the storage unit. The vehicle data receiving unit 28, the moving image drawing unit 23, the difference extracting unit 25, the road shape change determining unit 26, the map information updating unit 27, the moving data generating unit 30, and the moving data extracting unit 32 of the present embodiment It is included in the control unit of the device 2. The map information storage unit 21, the data storage unit 29, and the movement data storage unit 31 of the present embodiment are included in the storage unit of the map information processing apparatus 2. The temporary storage unit is a working area for developing programs and various data read from the storage unit. Each part such as the control unit, temporary storage unit, storage unit, and wireless communication unit is connected to each other.

本実施形態の地図情報処理装置2は、例えば、カーナビゲーションシステムや、自動運転支援システムで使用される地図データを自動でフォーマットする技術として使用することができる。   The map information processing apparatus 2 of the present embodiment can be used as a technology for automatically formatting map data used in, for example, a car navigation system or an automatic driving support system.

また、本実施形態における地図情報処理方法は、複数の移動体それぞれのプローブデータを取得し、複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式の移動軌跡画像を生成し、複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式のより過去の移動軌跡画像を生成する。また、地図情報処理方法は、上記移動軌跡画像と、上記過去の移動軌跡画像との差分を表す差分データを抽出し、機械学習により前記差分データが道路形状変化であるか否かを判定する処理をコンピュータが実行する。   Further, the map information processing method according to the present embodiment acquires probe data of each of a plurality of moving objects, and moves a scalar moving trajectory image based on vector-form probe data acquired during a predetermined period of each of the plurality of moving objects. And a moving history image in the past in the scalar format is generated based on the probe data in the vector format acquired in advance for a specific period of each of the plurality of moving objects. Further, the map information processing method extracts difference data representing a difference between the movement trajectory image and the past movement trajectory image, and determines whether or not the difference data is a road shape change by machine learning. Is executed by the computer.

さらに、本実施形態における地図情報処理プログラムは、複数の移動体それぞれのプローブデータを取得する。地図情報処理プログラムは、複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式の移動軌跡画像を生成し、複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式のより過去の移動軌跡画像を生成する。地図情報処理プログラムは、上記移動軌跡画像と、上記過去の移動軌跡画像との差分を表す差分データを抽出し、機械学習により前記差分データが道路形状変化であるか否かを判定する処理をコンピュータに実行させる。   Furthermore, the map information processing program in the present embodiment acquires probe data for each of a plurality of moving objects. The map information processing program generates a scalar movement trajectory image based on probe data in a vector format acquired during a predetermined period of each of a plurality of moving objects, and a vector acquired in advance for a specific period of each of the plurality of moving objects. Based on the probe data in the format, a moving history image in the past in the scalar format is generated. The map information processing program extracts a difference data representing a difference between the movement trajectory image and the past movement trajectory image, and performs a process of determining whether the difference data is a road shape change by machine learning. To run.

尚、本発明は上述した実施形態そのままに限定されるものではなく、実施段階でのその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素を適宜組み合わせても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このような、発明の趣旨を逸脱しない範囲内において種々の変形や応用が可能であることはもちろんである。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, all the constituent elements shown in the embodiments may be appropriately combined. Furthermore, constituent elements over different embodiments may be appropriately combined. It goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1 地図情報処理システム
2 地図情報処理装置
3 車載端末
4 車両
5 通信端末
21 地図情報記憶部
22 軌跡情報取得部
23 移動画像描画部
231 第1移動画像描画部
232 第2移動画像描画部
25 差分抽出部
26 道路形状変化判定部
27 地図情報更新部
28 車両データ受信部
29 データ記憶部
30 移動データ生成部
31 移動データ記憶部
32 移動データ抽出部

DESCRIPTION OF SYMBOLS 1 Map information processing system 2 Map information processing apparatus 3 Car-mounted terminal 4 Vehicle 5 Communication terminal 21 Map information storage part 22 Trajectory information acquisition part 23 Moving image drawing part 231 1st moving image drawing part 232 2nd moving image drawing part 25 Difference extraction Unit 26 road shape change determination unit 27 map information update unit 28 vehicle data reception unit 29 data storage unit 30 movement data generation unit 31 movement data storage unit 32 movement data extraction unit

Claims (3)

複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式の移動軌跡画像を生成する第1移動画像描画部と、
複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式のより過去の移動軌跡画像を生成する第2移動画像描画部と、
前記第1移動画像描画部で生成した前記移動軌跡画像と前記第2移動画像描画部で生成した前記過去の移動軌跡画像とを比較して差分データを抽出する差分抽出部と、
機械学習により前記差分データが道路形状変化であるか否かを判定する道路形状変化判定部と、を備え
前記道路形状変化判定部は、過去に抽出した前記差分データにより機械学習を行い、当該機械学習の結果に基づき、新たに抽出した前記差分データが道路形状変化であるか否かを判定することを特徴とする地図情報処理装置。
A first moving image drawing unit that generates a scalar moving trajectory image based on vector-form probe data acquired during a predetermined period of each of the plurality of moving bodies;
A second moving image drawing unit that generates a more historical movement trajectory image in scalar format based on probe data in vector format acquired in advance for a specific period of each of the plurality of moving objects;
A difference extraction unit that compares the movement trajectory image generated by the first moving image drawing unit with the past movement trajectory image generated by the second moving image drawing unit and extracts difference data;
A road shape change determination unit for determining whether the difference data is a road shape change by machine learning ,
The road shape change determination unit performs machine learning by the differential data extracted in the past, based on the result of the machine learning, Rukoto to determine the difference data newly extracted whether the road shape change A map information processing apparatus characterized by the above.
複数の移動体それぞれのプローブデータを取得し、
複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式の移動軌跡画像を生成し、
複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式のより過去の移動軌跡画像を生成し、
前記移動軌跡画像と、前記過去の移動軌跡画像との差分を表す差分データを抽出し、
過去に抽出した前記差分データにより機械学習を行い、当該機械学習の結果に基づき、新たに抽出した前記差分データが道路形状変化であるか否かを判定する処理をコンピュータが実行することを特徴とする地図情報処理方法
Obtain probe data for each of multiple mobile units,
Generate a scalar movement trajectory image based on vector-form probe data acquired during a predetermined period of each of a plurality of moving objects,
Based on the probe data in the vector format acquired in advance for a specific period of each of the plurality of moving objects, generate a more historical movement trajectory image in the scalar format,
Extracting difference data representing a difference between the movement trajectory image and the past movement trajectory image;
The machine performs a machine learning with the difference data extracted in the past, and the computer executes a process of determining whether the newly extracted difference data is a road shape change based on the result of the machine learning. MAP information processing how to.
複数の移動体それぞれのプローブデータを取得し、
複数の移動体それぞれの所定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式の移動軌跡画像を生成し、
複数の移動体それぞれの予め特定の期間に取得したベクトル形式のプローブデータに基づいてスカラー形式のより過去の移動軌跡画像を生成し、
前記移動軌跡画像と、前記過去の移動軌跡画像との差分を表す差分データを抽出し、
過去に抽出した前記差分データにより機械学習を行い、当該機械学習の結果に基づき、新たに抽出した前記差分データが道路形状変化であるか否かを判定する処理をコンピュータ実行させることを特徴とする地図情報処理プログラム。
Obtain probe data for each of multiple mobile units,
Generate a scalar movement trajectory image based on vector-form probe data acquired during a predetermined period of each of a plurality of moving objects,
Based on the probe data in the vector format acquired in advance for a specific period of each of the plurality of moving objects, generate a more historical movement trajectory image in the scalar format,
Extracting difference data representing a difference between the movement trajectory image and the past movement trajectory image;
Machine learning is performed on the difference data extracted in the past, and the computer is caused to execute a process of determining whether or not the newly extracted difference data is a road shape change based on the result of the machine learning. Map information processing program.
JP2018201337A 2017-11-22 2018-10-25 Map information processing apparatus, map information processing method, and map information processing program Active JP6557392B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018201337A JP6557392B1 (en) 2018-10-25 2018-10-25 Map information processing apparatus, map information processing method, and map information processing program
EP18881072.5A EP3614366A4 (en) 2017-11-22 2018-11-21 Map information processing device, map information processing method, and map information processing program
PCT/JP2018/043027 WO2019103049A1 (en) 2017-11-22 2018-11-21 Map information processing device, map information processing method, and map information processing program
CN201880039595.8A CN110914888A (en) 2017-11-22 2018-11-21 Map information processing device, map information processing method, and map information processing program
US16/688,891 US10760920B2 (en) 2017-11-22 2019-11-19 Map information processing device and map information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018201337A JP6557392B1 (en) 2018-10-25 2018-10-25 Map information processing apparatus, map information processing method, and map information processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019129160A Division JP2020067656A (en) 2019-07-11 2019-07-11 Map information processing device, map information processing method, and map information processing program

Publications (2)

Publication Number Publication Date
JP6557392B1 true JP6557392B1 (en) 2019-08-07
JP2020067601A JP2020067601A (en) 2020-04-30

Family

ID=67539887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018201337A Active JP6557392B1 (en) 2017-11-22 2018-10-25 Map information processing apparatus, map information processing method, and map information processing program

Country Status (1)

Country Link
JP (1) JP6557392B1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3557776B2 (en) * 1996-03-08 2004-08-25 日産自動車株式会社 Route guidance device for vehicles
JP2004109021A (en) * 2002-09-20 2004-04-08 Clarion Co Ltd Updating system of road map information
JP4380151B2 (en) * 2002-12-20 2009-12-09 株式会社デンソー Map evaluation system and map evaluation device
JP5223192B2 (en) * 2006-12-27 2013-06-26 アイシン・エィ・ダブリュ株式会社 Map information generation system
US9322660B2 (en) * 2009-10-22 2016-04-26 Tomtom Germany Gmbh & Co. Kg Incremental map generation, refinement and extension with GPS traces
JP5930920B2 (en) * 2012-09-10 2016-06-08 株式会社日立製作所 Map generation server, map generation method, and map generation system
JP6047006B2 (en) * 2012-12-25 2016-12-21 株式会社デンソー Map display system

Also Published As

Publication number Publication date
JP2020067601A (en) 2020-04-30

Similar Documents

Publication Publication Date Title
WO2019103049A1 (en) Map information processing device, map information processing method, and map information processing program
US10621696B2 (en) Deep convolutional image up-sampling
JP6586146B2 (en) Map information processing apparatus, map information processing method, and map information processing program
US10839262B2 (en) Machine learning a feature detector using synthetic training data
CN111198560B (en) Method and apparatus for predicting feature spatial attenuation using a variational self-encoder network
CN111351502B (en) Method, apparatus and computer program product for generating a top view of an environment from a perspective view
CN109086277A (en) A kind of overlay region building ground drawing method, system, mobile terminal and storage medium
US11085791B2 (en) Method, apparatus, and computer program product for on-street parking localization
US10908609B2 (en) Apparatus and method for autonomous driving
US11193789B2 (en) Method, apparatus, and computer program product for identifying at-risk road infrastructure
CN114930122B (en) Method and processor circuit for updating digital road map
CN111565213B (en) Method, device and system for providing interface for issuing sensor data request
US9766081B2 (en) System and method for roundabouts from probe data using vector fields
CN113450455A (en) Method, device and computer program product for generating a map of road links of a parking lot
CN116518960A (en) Road network updating method, device, electronic equipment and storage medium
JP2020067656A (en) Map information processing device, map information processing method, and map information processing program
CN112534446B (en) Electronic control device and neural network updating system
CN114396956A (en) Navigation method and apparatus, computing device, storage medium, and computer program product
JP7039536B2 (en) Map information processing system
EP3470790B1 (en) Information processing device and travel control system
JP6557392B1 (en) Map information processing apparatus, map information processing method, and map information processing program
JP2019139346A (en) Image recognition device, image recognition system and program
CN114543788B (en) Multi-layer global perception map construction method and system universal to structural unstructured environment
CN116776999A (en) System and method for joint learning of self-supervising networks in an autopilot system
US20240203255A1 (en) System to predict vehicle parking bunching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190711

R150 Certificate of patent or registration of utility model

Ref document number: 6557392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20210728