JP6360000B2 - Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program - Google Patents
Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program Download PDFInfo
- Publication number
- JP6360000B2 JP6360000B2 JP2015104089A JP2015104089A JP6360000B2 JP 6360000 B2 JP6360000 B2 JP 6360000B2 JP 2015104089 A JP2015104089 A JP 2015104089A JP 2015104089 A JP2015104089 A JP 2015104089A JP 6360000 B2 JP6360000 B2 JP 6360000B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- map image
- database
- gps
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する技術に関する。 The present invention relates to a technique for generating a moving means estimation model for estimating moving means based on a GPS trajectory.
スマートフォンの普及に伴い、GPS測位などにより取得されたユーザの位置情報を利用して、ユーザの状況に合わせた情報提供や、ユーザの行動を記録するライフログのサービスが多く利用されるようになった。それに伴い、ユーザの位置情報からユーザの状況を推定する技術が求められている。 With the spread of smartphones, the use of user location information acquired by GPS positioning and the like, and the provision of information according to the user's situation and the life log service that records the user's behavior have come to be frequently used. It was. Accordingly, there is a demand for a technique for estimating the user situation from the user position information.
関連技術の一つとして移動手段判定があげられる。この移動手段判定は、GPS測位やWiFi測位などで取得された位置情報と時刻情報を持つ測定点の系列(GPS軌跡)に対して同一移動手段である区間(セグメント)の抽出と、セグメントに対する移動手段(例えば歩行、自動車、電車など)の推定を行う。 One of related techniques is moving means determination. This moving means determination is performed by extracting a section (segment) that is the same moving means with respect to a series of measurement points (GPS trajectory) having position information and time information acquired by GPS positioning or WiFi positioning, and moving with respect to the segment. Estimation of means (for example, walking, automobile, train, etc.) is performed.
このように移動手段判定は(1)セグメント抽出と(2)移動手段推定の二つのフェーズから構成される。(1)セグメント抽出については、一定時間で区間を区切る方法やGPS軌跡から得られる速度、加速度情報を手がかりとした変化点にもとづく方法などがある。(2)移動手段推定については、GPS軌跡に対する移動手段アノテーションを用いることで、教師あり学習の枠組みで移動手段予測モデルを構築する方法が利用されている(非特許文献1、非特許文献2)。
Thus, the moving means determination is composed of two phases: (1) segment extraction and (2) moving means estimation. (1) As for segment extraction, there are a method of dividing a section at a fixed time, a method based on a change point using a speed and acceleration information obtained from a GPS trajectory, and the like. (2) For moving means estimation, a method is used to construct a moving means prediction model in a supervised learning framework by using moving means annotations for GPS trajectories (Non-patent
移動手段推定においては、セグメントにおける単純な測位点の羅列からなる情報から、予測に有効な特徴量を如何に獲得できるかが重要である。非特許文献1及び非特許文献2は、セグメントにおけるGPS軌跡の移動距離、速度、加速度、速度変化率、停止率、方向転換率を特徴量として抽出している。さらに、非特許文献3においては、移動軌跡を表した画像形式のデータからdeep learningを用いて特徴量を抽出し、この特徴量を移動手段予測に利用することでさらに移動手段推定の精度を向上させる手法が開示されている。
In moving means estimation, it is important how a feature quantity effective for prediction can be acquired from information consisting of simple positioning points in a segment.
しかしながら、非特許文献3に記載された技術では、移動手段推定に利用する特徴量として、セグメント上の地図画像情報が何ら利用されていない。すなわち、移動軌跡に基づく特徴量だけでは移動手段を区別できないときに、地図画像における情報(例えば経路の形や色情報、周囲の建物の景観情報等)を特徴量として利用することができず、移動手段の推定精度が上がらないという問題があった。
However, in the technique described in Non-Patent
本発明は、上記の事情に鑑みなされ、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段の判別を可能とすることを課題とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to make it possible to determine a moving unit that cannot be determined by a conventional speed, acceleration, feature amount of a trajectory image, or the like.
そこで、本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用する。 Therefore, the present invention uses a feature amount extracted from a map image corresponding to the GPS trajectory when generating the moving means estimation model for estimating the moving means based on the GPS trajectory.
本発明の装置としての態様は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、前記ラベルなし軌跡地図画像を格納する第3データベースと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、を備える。 An aspect of the device of the present invention is a device that generates a moving device estimation model for estimating a moving device based on a GPS trajectory, and the positioning points acquired by GPS positioning for each section that is the same moving device. A first database for storing enumeration information as GPS trajectory segments; a second database for storing labeled GPS trajectory segments with labels on the GPS trajectory segments; and positioning points for each GPS trajectory segment stored in both databases When extracting the trajectory image from the sequence information, the trajectory image extraction unit that images the center of gravity of the sequence information of the positioning points as the center of the image, and the map image database that stores the map image, A map image acquisition unit for acquiring a map image corresponding to a GPS locus segment; and the first database. A non-labeled trajectory map image is generated based on the trajectory image extracted from the GPS trajectory segment and the map image corresponding to the GPS trajectory segment, while the trajectory image extracted from the GPS trajectory segment with the label of the second database and the relevant label exist A trajectory map image generation unit that generates a labeled trajectory map image based on a map image corresponding to a GPS trajectory segment, a third database that stores the unlabeled trajectory map image, and the labeled trajectory map image as the label. The DNN feature value is extracted from the learning result of the fourth database stored in correspondence with the third database and the storage data of the third database and the fourth database, and the extracted DNN feature value is associated with the label. DNN feature values stored in the fifth database A basic feature amount extraction unit that extracts a basic feature amount from a GPS trajectory segment with a label in the second database and stores the extracted basic feature amount in a sixth database in association with the label; And a seventh database that stores the linked feature values in association with the labels, and a feature value linking unit that connects the DNN feature values and the basic feature values corresponding to each of the five databases and the sixth database. An estimation model generation unit that generates the estimation model based on
本発明の方法としての態様は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、を有する。 According to an aspect of the method of the present invention, a first database that stores, as a GPS trajectory segment, a list of positioning points acquired by GPS positioning for each section that is the same moving means, and a label attached to the GPS trajectory segment A second database for storing labeled GPS trajectory segments, and a computer for generating a moving means estimation model for estimating moving means, the positioning of each GPS trajectory segment stored in both databases; When extracting the trajectory image from the point sequence information, a trajectory image extraction step for imaging the center of gravity of the sequence information of the positioning points as the center of the image, and a map image database for storing the map image are stored in both databases. A map image acquisition step of acquiring a map image corresponding to each GPS locus segment; A trajectory image extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generating step for generating a labeled trajectory map image based on the map image corresponding to the labeled GPS trajectory segment, and a trajectory map image storing step for storing the unlabeled trajectory map image in a third database; From the learning result of the multilayer neural network based on the third database and the stored data of the fourth database, DNN from the labeled locus map image storing step of storing the labeled locus map image in correspondence with the label in the fourth database. Extract features A DNN feature extraction step for storing the extracted DNN feature quantity in the fifth database in correspondence with the label; a basic feature quantity is extracted from the labeled GPS trajectory segment of the second database; and the extracted basic feature quantity The basic feature quantity extracting step for storing the data in the sixth database in association with the label, and the DNN feature quantity and the basic feature quantity respectively corresponding to the fifth database and the sixth database are connected to form a connected feature quantity. A feature amount connecting step; and an estimated model generating step for generating the estimated model based on a seventh database storing the connected feature amount in association with the label.
尚、本発明は上記装置の各手段としてコンピュータを機能させるプログラム若しくは上記方法の各ステップをコンピュータに実行させるプログラムの態様とすることもできる。 Note that the present invention may be in the form of a program that causes a computer to function as each unit of the apparatus or a program that causes a computer to execute each step of the method.
本発明によれば、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。 According to the present invention, it is possible to discriminate moving means that could not be discriminated based on the conventional speed, acceleration, feature amount of a trajectory image, and the like.
以下に図面を参照しながら本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
≪概要≫
図1に示された移動手段推定モデル生成装置1は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用することにより、従来よりも高精度に移動手段の判別を行う。
≪Overview≫
The moving means estimation
≪装置の構成例≫
移動手段推定モデル生成装置1は、コンピュータにより構成され、CPU,主記憶装置(RAM,ROM等),補助記憶装置(ハードディスクドライブ装置,ソリッドステートドライブ装置等)などのハードウェアリソースを備える。
≪Example of device configuration≫
The moving means estimation
このハードウェアリソースとソフトウェアリソース(OS,アプリケーションなど)との協同の結果、移動手段推定モデル生成装置1は、ラベルなしGPS軌跡セグメントDB10,ラベルありGPS軌跡セグメントDB20,軌跡画像抽出部30,地図画像DB160,地図画像取得部170,軌跡地図画像生成部180,ラベルなし軌跡地図画像DB40,ラベルあり軌跡地図画像DB50,DNN学習部60,DNNDB70,DNN特徴量抽出部80,DNN特徴量DB90,基本特徴量抽出部100,基本特徴量DB110,特徴量連結部120,連結特徴量DB130,推定モデル生成部140,推定モデルDB150を実装する。
As a result of the cooperation between the hardware resource and the software resource (OS, application, etc.), the moving means estimation
ラベルなしGPS軌跡セグメントDB10は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する。
The unlabeled GPS
ラベルありGPS軌跡セグメントDB20は、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する。
The labeled GPS
軌跡画像抽出部30は、前記DB10,20に格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、当該測位点の羅列情報の重心を画像の中心として画像化する。
When the trajectory
地図画像取得部170は、地図画像を格納した地図画像DB160から前記DB10,20に格納された各GPS軌跡セグメントに対応する地図画像を取得する。具体的には、前記DB10,20から一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度並びに緯度を算出し、この経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を地図画像DB160から取得する。
The map
軌跡地図画像生成部180は、前記DB10のGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する。具体的には、前記DB10のGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルなし軌跡地図画像はラベルなし軌跡地図画像DB40に格納される。
The trajectory map
また、軌跡地図画像生成部180は、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する。具体的には、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルあり軌跡地図画像は前記ラベルと対応させてラベルあり軌跡地図画像DB50に格納される。
Further, the trajectory map
DNN特徴量抽出部80は、前記DB40,50の格納データに基づくDNN学習部60による多層ニューラルネットワーク(Deep Neural Network)の学習結果をDNNDB70から引き出してDNN特徴量を抽出する。DNN特徴量は前記ラベルと対応させてDNN特徴量DB90に格納される。
The DNN feature
基本特徴量抽出部100は、前記DB20のラベルありGPS軌跡セグメントから基本特徴量を抽出し、この抽出した基本特徴量を前記ラベルと対応させて基本特徴量DB110に格納する。
The basic feature
特徴量連結部120は、DNN特徴量DB90と基本特徴量DB110のそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする。連結特徴量は前記ラベルと対応させて連結特徴量DB130に格納される。
The feature
推定モデル生成部140は、連結特徴量DB130の連結特徴量に基づき移動手段を推定するための移動手段推定モデルを生成する。移動手段推定モデルは推定モデルDB150に格納される。
The estimation
前記各DB10,20,40,50,70,90,110,130,150,160は、前記記憶装置に構築されている。尚、移動手段推定モデル生成装置1は、単一のコンピュータに構成してもよく、あるいは複数のコンピュータに構成してもよいものとする。
Each of the
以下、前記各構成10〜180の詳細を説明する。
Hereinafter, the details of each of the
≪ラベルなしGPS軌跡セグメントDB10≫
図3に基づき前記DB10のデータ構造を説明する。この前記DB10には、同一の移動手段である区間(セグメント)毎にGPS測位によって取得された測位点の羅列情報が格納されている。この測位点の羅列情報は、図3においてはGPS軌跡セグメントと示されている。
≪Unlabeled GPS track segment DB10≫
The data structure of the
このGPS軌跡セグメントは、前記測位点の羅列情報として緯度・経度・測位時刻をペア(組)にした情報を保有する。尚、図3のセグメントIDは、GPS軌跡セグメントに付与されたIDを示し、該IDの単位には特に制約がないものとする。 This GPS trajectory segment holds information in which latitude / longitude / positioning time is paired as enumeration information of the positioning points. The segment ID in FIG. 3 indicates the ID assigned to the GPS trajectory segment, and there are no particular restrictions on the unit of the ID.
≪ラベルありGPS軌跡セグメントDB20≫
図4に基づき前記DB20のデータ構造を説明する。この前記DB20には、GPS軌跡セグメントおよびセグメントIDに加えて、各GPSセグメントに対する移動手段のラベル情報が格納されている。
≪Labeled GPS track segment DB20≫
The data structure of the
≪軌跡画像抽出部30≫
軌跡画像抽出部30は、前記各DB10,20からデータを読み出し、それぞれのデータから軌跡画像を抽出する。まず、図11に基づき軌跡画像抽出部30の全体的な処理ステップを説明する。ここでは軌跡画像抽出部30は、処理が開始されると前記DB10からすべてのGPS軌跡セグメントを受け取る(S110)。続いて前記DB20からすべてのラベル情報とGPS軌跡セグメントを受け取る(S120)。
<< Trace
The trajectory
その後に前記DB10,20から取得した各GPS軌跡セグメントsにおける前記測位点の羅列情報をPsとし、Psから軌跡画像を抽出する(S130)。そして、軌跡画像I、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す(S140)。
Then the enumeration information of the positioning points in each GPS path segment s acquired from the DB10,20 and P s, extracts the path image from P s (S130). Then, the trajectory image I and the segment ID are transferred to the trajectory map
次いで図12に基づき軌跡画像抽出部30の中心的な処理内容、即ちS130の軌跡画像抽出ステップを詳細に説明する。
Next, the central processing content of the trajectory
S201:処理が開始されると測位点の羅列情報PsをT秒間隔でサンプリングしたPs’を生成する。ここでTは任意のパラメータとする。 S201: When the process starts the enumerated information P s of the positioning point to produce a P s' sampled at intervals of T seconds. Here, T is an arbitrary parameter.
S202:緯度経度座標系において測位点の羅列情報における重心座標の経度成分centerlngを計算する。具体的には式(1)により計算する。この式(1)中の|Ps’|は、Ps’の要素数を示している。また、p(j).lngは、Ps’におけるj番目の測位点の経度を示している。 S202: Calculate the longitude component center lng of the barycentric coordinates in the enumeration information of the positioning points in the latitude / longitude coordinate system. Specifically, the calculation is performed according to the equation (1). | P s '| in the equation (1) indicates the number of elements of P s '. P (j). lng represents the longitude of the j-th positioning point at P s ′.
S203:緯度経度座標系において測位点の羅列情報における重心座標の緯度成分centerlatを計算する。具体的には式(2)により計算する。この式(2)中のp(j).latは、Ps’におけるj番目の測位点の緯度を示している。 S203: Calculate the latitude component center lat of the barycentric coordinates in the positioning information in the latitude / longitude coordinate system. Specifically, the calculation is performed according to Expression (2). In this equation (2), p (j). “lat” represents the latitude of the j-th positioning point at P s ′.
S204:Ps’における最も南西にある座標の経度座標minlngを計算する。具体的には式(3)により計算する。 S204: The longitude coordinate min lng of the coordinate at the most southwest in P s ′ is calculated. Specifically, the calculation is performed according to Equation (3).
S205:Ps’における最も南西にある座標の緯度座標minlatを計算する。具体的には式(4)により計算する。 S205: The latitude coordinate min lat of the coordinate at the most southwest in P s ' is calculated. Specifically, the calculation is performed according to Equation (4).
S206:緯度経度座標系において測位点の羅列情報における重心座標の経度座標が、画像座標系の中心座標の水平成分と一致させるために用いる補正値offsetxを計算する。具体的には式(5)により計算する。 S206: Calculate a correction value offset x used to make the longitude coordinate of the barycentric coordinate in the arrangement information of the positioning points in the latitude / longitude coordinate system coincide with the horizontal component of the center coordinate of the image coordinate system. Specifically, the calculation is performed according to Equation (5).
ここで、Wmは、軌跡画像の水平幅を表す任意のパラメータである。また、εは定数であり、例えば10-9のような任意の小さい値を用いる。 Here, W m is an arbitrary parameter representing the horizontal width of the trajectory image. Also, ε is a constant, and an arbitrarily small value such as 10 −9 is used.
S207:緯度経度座標系において測位点の羅列情報における重心座標の緯度座標が、画像座標系の中心座標の垂直成分と一致させるために用いる補正値offsetyを計算する。具体的には式(6)により計算する。この式(6)中のHmは、軌跡画像の垂直幅を表す任意のパラメータである。 S207: latitude and longitude coordinates latitude coordinate of the barycentric coordinates in enumerated information of the positioning points in the system, to calculate a correction value offset y used to match the vertical component of the center coordinates of the image coordinate system. Specifically, the calculation is performed according to Equation (6). H m in this equation (6) is an arbitrary parameter representing the vertical width of the trajectory image.
S208:抽出する軌跡画像を表すWm×Hmの行列Iを用意し、すべての要素を0で初期化し、その後にS209〜S212のループ処理に移行する。このループ処理においては、測位点の順番jに1〜|Ps’|まで値を順次に代入する。以下、S209〜S212のループ処理を説明する。 S208: A W m × H m matrix I representing a trajectory image to be extracted is prepared, all elements are initialized with 0, and then the process proceeds to a loop process of S209 to S212. In this loop processing, values from 1 to | P s ' | are sequentially substituted for the order j of positioning points. Hereinafter, the loop processing of S209 to S212 will be described.
S209:p(j).lngを緯度経度座標系の経度成分から画像座標系の水平成分xに変換する。この変換は、式(7)の計算により行われる。この式(7)中のWpは、Ps‘の重心を画像の中心として画像化する際の経度幅を示している。 S209: p (j) . Lng is converted from the longitude component of the latitude-longitude coordinate system to the horizontal component x of the image coordinate system. This conversion is performed by the calculation of Expression (7). W p in this equation (7) indicates the longitude width when imaging with the center of gravity of P s ′ as the center of the image.
S210:p(j).latを緯度経度座標系の緯度成分から画像座標系の垂直成分yに変換する。この変換は、式(8)の計算により行われている。この式(8)中、HpはPs‘の重心を画像の中心として画像化する際の緯度幅を示している。 S210: p (j) . lat is converted from the latitude component of the latitude-longitude coordinate system to the vertical component y of the image coordinate system. This conversion is performed by the calculation of Expression (8). In this equation (8), H p indicates the latitude width when imaging with the center of gravity of P s ′ as the center of the image.
S211:S209で変換した座標xまたはS210で変換した座標yが、決められた画像サイズの範囲内の場合にはS212に進む一方、そうでない場合にはS212をスキップする。 S211: If the coordinate x converted in S209 or the coordinate y converted in S210 is within the determined image size range, the process proceeds to S212, and if not, S212 is skipped.
S212:測位点の存在する画素に定数を加算する。ここでは式(9)の計算を行うものとする。 S212: A constant is added to the pixel where the positioning point exists. Here, the calculation of Expression (9) is performed.
式(9)中のI(x,y)は、行列Iのx行y列の要素を示している。この式(9)の加算処理によって、同じ地点での滞在時間に応じて画素値が調節される。例えば同じ地点に長く滞在すると、軌跡画像の対応する画素値が大きくなり、これにより滞在時間の判別が可能となる。なお、|Ps’|の要素数のすべてをjに代入してS209〜S212の処理が完了すれば、ループ処理を終了する。 I (x, y ) in the equation (9) indicates an element of x rows and y columns of the matrix I. The pixel value is adjusted according to the staying time at the same point by the addition processing of Equation (9). For example, if the user stays at the same point for a long time, the corresponding pixel value of the trajectory image increases, and thus the staying time can be determined. If all the elements of | P s ' | are substituted for j and the processing of S209 to S212 is completed, the loop processing is terminated.
≪地図画像DB160≫
地図画像DB160には、地図画像が格納されている。地図画像とは、図2に示す通り、地物(建物や道路)を一定の縮尺で表した色情報付きの任意の画像であり、人が描いて作成した地図以外にも航空写真やベクトル地図データ等から生成された画像も含まれる。データ構造としては図2に示す通り行列で表現され、行列の各要素には色情報を表すための次元数からなるベクトルを有する。地図画像に用いる色空間は例えば3次元からなるRGB色空間などを利用できる。
≪
The
≪地図画像取得部170≫
地図画像取得部170は、ラベルなしGPS軌跡セグメントDB10及びラベルありGPS軌跡セグメントDB20からデータを読み出す。ラベルなしGPS軌跡セグメントDB10のデータ構造は図3に示す通り、セグメントIDおよびGPS軌跡セグメントの情報を持つ。ラベルありGPS軌跡セグメントDB20のデータ構造は、図4に示す通り、セグメントID、ラベル、GPS軌跡セグメントの情報を持つ。
≪Map
The map
読みだしたデータの座標に該当する地図画像を地図画像DB160から読みだし、軌跡画像抽出部30で抽出した軌跡画像と同じサイズに拡大または縮小する。ここで軌跡画像とは、図5に示す通りユーザが通過した経路が直線や曲線によって表されている。データ構造としては図5に示す通り行列で表現され、行列の各要素には当該画素における滞在時間として実数値を持つ。
A map image corresponding to the coordinates of the read data is read from the
図6は地図画像取得部170の処理の流れを示すフローチャートである。図6を参照して地図画像取得部170の処理の流れを説明する。
FIG. 6 is a flowchart showing the flow of processing of the map
S610:ラベルなしGPS軌跡セグメントDB10またはラベルありGPS軌跡セグメントDB20から、セグメントsにおけるセグメントID、GPS軌跡Psを受け取る。ラベルが存在すればラベルも受け取る。 S610: The segment ID and the GPS trajectory Ps in the segment s are received from the unlabeled GPS trajectory segment DB10 or the labeled GPS trajectory segment DB20. If a label exists, it will also receive a label.
S620:GPS軌跡の測位時間間隔の誤差を軽減するために、GPS軌跡PsをT秒間隔でサンプリングし、Ps’を生成する。ここでTは定数であり、例えば60のような任意の実数値を利用する。 S620: In order to reduce the error in the positioning time interval of the GPS trajectory, the GPS trajectory P s is sampled at intervals of T seconds to generate P s ′. Here, T is a constant, and an arbitrary real value such as 60 is used.
S630:GPS軌跡Psの重心座標の経度centerlngを式(1)の通り算出する。 S630: The longitude center lng of the barycentric coordinates of the GPS trajectory P s is calculated as in equation (1).
S640:GPS軌跡Psの重心座標の緯度centerlatを式(2)の通り算出する。 S640: The latitude center lat of the barycentric coordinates of the GPS trajectory P s is calculated as in equation (2).
S650:(centerlng,centerlat)を中心とする経度幅Wp、緯度幅Hpの範囲に含まれる縮尺scale地図画像を地図画像DB160に要求し、地図画像DB160は該当する地図画像Imを送信する。ここでWpおよびHpは軌跡画像抽出部30と同じ値を利用する。またscaleは1/10000や1/5000など任意の値を設定する。
S650: (center lng, center lat ) and longitude width W p centered on, the scale scale map image included in the scope of the latitudinal width H p requests the
S660:取得した地図画像Imを横幅Wmピクセル、縦幅Hmピクセルになるように拡大または縮小する。ここでWmおよびHmは軌跡画像抽出部30と同じ値を利用する。
S660: acquired map image I m the width W m pixels, enlarged or reduced so that the vertical width H m pixels. Here, W m and H m use the same values as the trajectory
S670:地図画像Im、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す。
S670: The map image I m and the segment ID are transferred to the trajectory map
≪軌跡地図画像生成部180≫
軌跡地図画像生成部180は軌跡画像抽出部30から軌跡画像等を受け取り、地図画像取得部170から地図画像等を受け取る。次に受け取った軌跡画像と地図画像を結合することで軌跡地図画像を生成し、ラベルあり軌跡地図画像DB50またはラベルなし軌跡地図画像DB40に地図軌跡画像等を格納する。
≪Track map
The trajectory map
図7は軌跡地図画像生成部180の処理の流れを示すフローチャートである。図7を参照して、軌跡地図画像生成部180の処理の流れを説明する。
FIG. 7 is a flowchart showing a processing flow of the locus map
S710:地図画像取得部170から地図画像Im、セグメントIDを受け取る。ラベルがあればラベルも受け取る。
S710: The map image I m and the segment ID are received from the map
S720:軌跡画像抽出部30から軌跡画像I、セグメントIDを受け取る。
S720: The trajectory image I and the segment ID are received from the trajectory
S730:セグメントIDが一致する軌跡画像と地図画像を結合する。具体的には、各画素に対応するベクトルを結合する。例えば軌跡画像の1画素の要素を表すベクトルが1次元、地図画像の1画素の要素を表すベクトルが3次元であれば、それらを結合した1画素の要素が4次元のベクトルからなる軌跡地図画像I’が生成される。図8に生成される軌跡地図画像I’のデータ構造の例を示す。 S730: A trajectory image having a matching segment ID and a map image are combined. Specifically, the vectors corresponding to the respective pixels are combined. For example, if the vector representing the one-pixel element of the trajectory image is one-dimensional and the vector representing the one-pixel element of the map image is three-dimensional, the one-pixel element obtained by combining them is a four-dimensional vector. I ′ is generated. FIG. 8 shows an example of the data structure of the locus map image I ′ generated.
S740:S710において地図画像取得部170からラベルを受け取っているか否かを確認する。
S740: It is confirmed whether a label is received from the map
S750:S740においてYesと判断された場合、セグメントID、ラベル、生成された軌跡画像I’をラベルあり軌跡地図画像DB50に格納する。
S750: When it is determined Yes in S740, the segment ID, the label, and the generated trajectory image I 'are stored in the trajectory
S760:S740においてNoと判断された場合、セグメントID、生成された軌跡画像I’をラベルなし軌跡地図画像DB40に格納する。
S760: When it is determined No in S740, the segment ID and the generated trajectory image I 'are stored in the unlabeled trajectory
≪ラベルなし軌跡地図画像DB40≫
ラベルなし軌跡地図画像DB40は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDを格納するDBである。図9にラベルなし軌跡地図画像DB40のデータ構造の例を示す。
≪Label map image DB40 without label≫
The unlabeled trajectory
≪ラベルあり軌跡地図画像DB50≫
ラベルあり軌跡地図画像DB50は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDとラベルを格納するDBである。図10にラベルあり軌跡地図画像DB50のデータ構造の例を示す。
≪Label map image DB50 with label≫
The labeled trajectory
≪DNN学習部60,DNNDB70≫
DNN学習部60は、前記DB40,50から軌跡地図画像とラベル情報とを読み出して入力とし、多層ニューラルネットワーク(Deep Neural Network:DNN)の学習を行う。
<<
The
図13に基づきDNN学習部60の処理ステップを説明する。すなわち、処理が開始されると、まず前記DB40から軌跡地図画像を受け取る(S310)。つぎに前記DB50からラベル情報と軌跡地図画像とを受け取る(S320)。
The processing steps of the
続いてS310,S320で取得したすべての軌跡地図画像を用いて、DNNのPre−trainingを行う(S330)。Pre−trainingの方法としては、非特許文献4の「Stacked Denoising Autoencoder」など公知の技術を用いることができる。
Subsequently, DN-Pre-training is performed using all the trajectory map images acquired in S310 and S320 (S330). As a pre-training method, a known technique such as “Stacked Denoising Autoencoder” of
Pre−trainingの結果として、中間層の数がNのDNNに対して、出力としてN個の重み行列「W=(W1 T,W2 T,…,Wm T)T」およびバイアス項bが得られる。 As a result of the pre-training, N weight matrices “W = (W 1 T , W 2 T ,..., W m T ) T ” and a bias term b are output for a DNN with N intermediate layers Is obtained.
そして、S320で取得した軌跡地図画像とラベル情報とを用いて、DNN全体の重み行列Wおよびバイアス項bを調整するfine−tuningを行う(S340)。fine−tuningの方法は、非特許文献5の誤差逆伝播法などに基づく公知技術を用いることができる。 Then, fine-tuning for adjusting the weight matrix W and the bias term b of the entire DNN is performed using the trajectory map image and label information acquired in S320 (S340). As the fine-tuning method, a known technique based on the error back propagation method of Non-Patent Document 5 or the like can be used.
その後、前記DB70に重み行列Wおよびバイアス項bの情報を格納し(S350)、処理を終了する。これにより前記DB70には、図14に示すように、DNN学習部60の学習結果として、各中間層の番号毎に重み行列Wおよびバイアス項bが格納される。
Thereafter, the information of the weight matrix W and the bias term b is stored in the DB 70 (S350), and the process ends. As a result, as shown in FIG. 14, the
≪DNN特徴量抽出部80,DNN特徴量DB90≫
DNN特徴量抽出部80は、前記DB70の格納データを読み出して入力とし、DNN特徴量の抽出を実行する。図15に基づき説明すれば、処理が開始されるとDNN特徴量抽出部80は、まず前記DB50からラベル情報と軌跡地図画像とを受け取り(S410)、続いて前記DB70から各中間層における重み行列Wおよびバイアス項bを受け取る(S420)。
<< DNN feature
The DNN feature
次に、S420で受け取った重み行列Wおよびバイアス項bとを用いたDNNから、S410で受け取った各軌跡画像の特徴量を計算する(S430)。この特徴量の計算方法としては、非特許文献4などで用いられている公知の方法を利用できる。例えば軌跡画像をDNNの入力層に与えることで得られるDNNの最も深い中間層の出力を軌跡画像の特徴量とすることができる。
Next, the feature amount of each trajectory image received in S410 is calculated from the DNN using the weight matrix W and the bias term b received in S420 (S430). As a method for calculating the feature amount, a known method used in
そして、S430で計算された各軌跡画像の特徴量(以下、DNN特徴量とする。)と、該軌跡画像に対応するラベル情報とのペアを前記DB90に格納し(S440)、処理を終了する。これにより前記DB90には、図16に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報およびDNN特徴量が格納される。
Then, a pair of the feature amount (hereinafter referred to as DNN feature amount) of each trajectory image calculated in S430 and label information corresponding to the trajectory image is stored in the DB 90 (S440), and the processing is terminated. . As a result, as shown in FIG. 16, the
≪基本特徴量抽出部100,基本特徴量DB110≫
基本特徴量抽出部100は、図1に示すように、前記DB20のデータを読み出し、読み出したデータから特徴量(以下、基本特徴量とする。)を抽出する。この基本特徴の抽出方法としては、例えば非特許文献1,2に記載された公知の技術(feature engineeringなど)を用いることができる。
<< Basic
As shown in FIG. 1, the basic feature
ここで抽出された基本特徴量は、ラベル情報と対応付けて前記DB110に格納される。これにより前記DB110は、図17に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報および基本特徴量が格納される。
The basic feature amount extracted here is stored in the
≪特徴量連結部120,連結特徴量DB130≫
特徴量連結部120は、DB90,110のデータを読み出し、それぞれのデータ間における同じセグメントIDに係る基本特徴量とDNN特徴量とを連結させる。ここで連結された特徴量を連結特徴量と呼ぶ。
<< Feature
The feature
図18に基づき特徴量連結部120の処理ステップを説明する。すなわち、特徴量連結部120は、処理が開始されると、まずDB90からセグメントIDとラベル情報とDNN特徴量とを受け取り(S510)、続いて前記DB110からセグメントIDとラベル情報と基本特徴量とを受け取る(S520)。
The processing steps of the feature
つぎに特徴量連結部120は、S510、S520で受け取ったデータ間においてセグメントIDが対応する基本特徴量とDNN特徴量とを特定し、特定された基本特徴量とDNN特徴量とを一つのベクトルに連結し(S530)、連結された連結特徴量を前記DB130に格納する(S540)。これにより前記DB130には、連結特徴量がラベル情報毎に格納される。
Next, the feature
≪推定モデル生成部140,推定モデルDB150≫
推定モデル生成部140は、前記DB130からデータを読み出し、読み出したデータ中の連結特徴量と該連結特徴量に応じたラベル情報とを用いて移動手段推定モデルを生成する。推定モデルの生成には、例えばロジステック回帰やSVM,決定木などの公知技術を用いることができる(非特許文献1,2参照)。ここで生成された移動手段推定モデルは、前記DB150に格納される。
<< Estimated
The estimation
≪本実施形態の効果≫
以上の移動手段推定モデル生成装置1によれば、地図画像からdeep learningによって特徴量を抽出し、これを従来の特徴量と合わせて移動手段推定に利用することで、従来よりも高精度に移動手段を推定することが可能となる。具体的には、地図画像における経路の色や形、周囲の景観の違い等の移動手段に効果的な特徴量をdeep learningによって定量化及び抽出し、これを利用することにより、従来の速度、加速度や軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。
<< Effects of this embodiment >>
According to the moving means estimation
≪プログラム等≫
本発明は、上記実施形態に限定されるものではなく、各請求項に記載された範囲内で変形・応用して実施することができる。例えば本発明は、移動手段推定モデル生成装置1の各部10〜180の一部もしくは全部として、コンピュータを機能させる移動手段推定モデル生成プログラムとして構成することもできる。このプログラムによれば、S110〜S140,S201〜S212,S310〜S350,S410〜S440,S510〜S540,S610〜670,S710〜S760の一部あるいは全部をコンピュータに実行させることが可能となる。
≪Programs≫
The present invention is not limited to the above-described embodiment, and can be implemented by being modified and applied within the scope described in each claim. For example, this invention can also be comprised as a moving means estimation model production | generation program which makes a computer function as some or all of each part 10-180 of the movement means estimation model production |
前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。 The program can be provided through a network such as a website or e-mail. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, BD-ROM, BD-R, or BD-RE. It is also possible to record, save and distribute. This recording medium is read using a recording medium driving device, and the program code itself realizes the processing of the above embodiment, so that the recording medium also constitutes the present invention.
1…移動手段推定モデル生成装置
10…ラベルなしGPS軌跡セグメントDB(第1データベース)
20…ラベルありGPS軌跡セグメントDB(第2データベース)
30…軌跡画像抽出部
40…ラベルなし軌跡地図画像DB(第3データベース)
50…ラベルあり軌跡地図画像DB(第4データベース)
60…DNN学習部
70…DNNDB
80…DNN特徴量抽出部
90…DNN特徴量DB(第5データベース)
100…基本特徴量抽出部
110…基本特徴量DB(第6データベース)
120…特徴量連結部
130…連結特徴量DB(第7データベース)
140…推定モデル生成部
150…推定モデルDB
160…地図画像DB(地図画像データベース)
170…地図画像取得部
180…軌跡地図画像生成部
DESCRIPTION OF
20 ... GPS track segment DB with label (second database)
30 ... locus
50 ... Trace map image DB with label (4th database)
60 ...
80 ... DNN feature
100 ... basic feature
120... Feature
140 ... Estimated
160 ... Map image DB (map image database)
170 ... Map
Claims (7)
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、
地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、
前記ラベルなし軌跡地図画像を格納する第3データベースと、
前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、
前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、
前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、
前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、
前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、
を備えることを特徴とする移動手段推定モデル生成装置。 An apparatus for generating a moving means estimation model for estimating moving means based on a GPS trajectory,
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
A trajectory image extraction unit that visualizes the center of gravity of the positioning information of the positioning points when extracting a trajectory image from the positioning information of the positioning points of each GPS trajectory segment stored in the both databases;
A map image acquisition unit for acquiring a map image corresponding to each GPS trajectory segment stored in both databases from a map image database storing map images;
A trajectory extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generation unit that generates a labeled trajectory map image based on the image and the map image corresponding to the labeled GPS trajectory segment;
A third database for storing the unlabeled locus map image;
A fourth database for storing the labeled locus map image in association with the label;
DNN feature values are extracted from learning results of the multilayer neural network based on the storage data of the third database and the fourth database, and the extracted DNN feature values are stored in the fifth database in correspondence with the labels. An extractor;
A basic feature amount extraction unit that extracts a basic feature amount from the labeled GPS trajectory segment of the second database and stores the extracted basic feature amount in the sixth database in association with the label;
A feature value linking unit that links DNN feature values and basic feature values corresponding to the fifth database and the sixth database, respectively, to be connected feature values;
An estimated model generation unit that generates the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation apparatus comprising:
前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出する手段と、
前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出する手段と、
前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得する手段と、
を備えることを特徴とする請求項1に記載の移動手段推定モデル生成装置。 The map image acquisition unit
Means for calculating the longitude of the center-of-gravity coordinates of the GPS trajectory based on the GPS trajectory acquired from the both databases at regular time intervals;
Means for calculating the latitude of the barycentric coordinates of the GPS trajectory based on the GPS trajectory acquired at an interval of the predetermined time;
Means for obtaining from the map image database a map image included in a range of a longitude width and latitude width centered on the coordinates of the calculated longitude and latitude;
The moving means estimation model generation apparatus according to claim 1, comprising:
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
を備えることを特徴とする請求項1または2に記載の移動手段推定モデル生成装置。 The locus map image generation unit
The unlabeled trajectory map image is configured by combining a vector indicating a pixel element of the trajectory image extracted from the GPS trajectory segment of the first database and a vector indicating a pixel element of the map image corresponding to the GPS trajectory segment. Means for generating a vector indicating the elements of the pixel;
The labeled trajectory map image is obtained by combining a vector indicating a pixel element of the trajectory image extracted from the labeled GPS trajectory segment of the second database and a vector indicating a pixel of the map image corresponding to the labeled GPS trajectory segment. Means for generating a vector indicating the elements of the constituent pixels;
The moving means estimation model generation device according to claim 1, comprising:
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、
地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、
前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、
前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、
前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、
前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、
前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、
前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、
を有することを特徴とする移動手段推定モデル生成方法。 A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
The computer generates a moving means estimation model for estimating the moving means, comprising:
A trajectory image extraction step for imaging the center of gravity of the positioning information of the positioning points when extracting the trajectory image from the positioning information of the positioning points of the GPS trajectory segments stored in the both databases;
A map image acquisition step for acquiring a map image corresponding to each GPS trajectory segment stored in the both databases from the map image database storing the map image;
A trajectory extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generating step for generating a labeled trajectory map image based on the image and the map image corresponding to the labeled GPS trajectory segment;
A trajectory map image storage step of storing the unlabeled trajectory map image in a third database;
A labeled trajectory map image storing step of storing the labeled trajectory map image in a fourth database in association with the label;
DNN feature values are extracted from learning results of the multilayer neural network based on the storage data of the third database and the fourth database, and the DNN feature values are stored in the fifth database in correspondence with the labels. An extraction step;
A basic feature amount extracting step of extracting a basic feature amount from the labeled GPS trajectory segment of the second database and storing the extracted basic feature amount in the sixth database in association with the label;
A feature amount linking step of linking the corresponding DNN feature amounts and basic feature amounts of the fifth database and the sixth database, respectively, into a connected feature amount;
An estimated model generating step for generating the estimated model based on a seventh database storing the connected feature values in association with the labels;
A moving means estimation model generation method characterized by comprising:
前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出するステップと、
前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出するステップと、
前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得するステップと、
を有することを特徴とする請求項4に記載の移動手段推定モデル生成方法。 The map image acquisition step includes:
Calculating the longitude of the center-of-gravity coordinates of the GPS trajectory based on the GPS trajectory acquired from the both databases at regular time intervals;
Calculating the latitude of the barycentric coordinates of the GPS trajectory based on the GPS trajectory acquired at the predetermined time interval;
Obtaining a map image included in a range of a longitude width and a latitude width from the map image database centered on the coordinates of the calculated longitude and latitude; and
The moving means estimation model generation method according to claim 4, comprising:
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
を有することを特徴とする請求項4または5に記載の移動手段推定モデル生成方法。 The locus map image generation step includes:
The unlabeled trajectory map image is configured by combining a vector indicating a pixel element of the trajectory image extracted from the GPS trajectory segment of the first database and a vector indicating a pixel element of the map image corresponding to the GPS trajectory segment. Generating a vector indicating the elements of the pixel;
The labeled trajectory map image is obtained by combining a vector indicating a pixel element of the trajectory image extracted from the labeled GPS trajectory segment of the second database and a vector indicating a pixel of the map image corresponding to the labeled GPS trajectory segment. Generating a vector indicating the elements of the constituent pixels;
The moving means estimation model generation method according to claim 4 or 5, characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015104089A JP6360000B2 (en) | 2015-05-22 | 2015-05-22 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015104089A JP6360000B2 (en) | 2015-05-22 | 2015-05-22 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016218812A JP2016218812A (en) | 2016-12-22 |
JP6360000B2 true JP6360000B2 (en) | 2018-07-18 |
Family
ID=57578988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015104089A Active JP6360000B2 (en) | 2015-05-22 | 2015-05-22 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6360000B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10599146B2 (en) | 2018-03-26 | 2020-03-24 | Ford Global Technologies, Llc | Action-conditioned vehicle control |
WO2023209938A1 (en) * | 2022-04-28 | 2023-11-02 | 楽天グループ株式会社 | Information processing device, information processing method, program, and learning model |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005056002A (en) * | 2003-08-07 | 2005-03-03 | Aisin Aw Co Ltd | Information processing center, information processing method and information providing system |
JP5193808B2 (en) * | 2008-11-04 | 2013-05-08 | 日本電信電話株式会社 | Determination device, determination method, determination program and recording medium for moving means |
JP5509932B2 (en) * | 2010-03-02 | 2014-06-04 | 日本電気株式会社 | Mobile communication device, program, and peripheral information output method |
JP6189620B2 (en) * | 2013-04-11 | 2017-08-30 | 株式会社ゼンリンデータコム | Information processing apparatus, information processing method, and program |
-
2015
- 2015-05-22 JP JP2015104089A patent/JP6360000B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016218812A (en) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200611B2 (en) | Computer vision for unsuccessful queries and iterative search | |
US11693901B2 (en) | Systems and methods for geolocation prediction | |
US11562002B2 (en) | Enabling advanced analytics with large data sets | |
KR102261061B1 (en) | Systems and methods for detecting a point of interest change using a convolutional neural network | |
Vatsavai et al. | Spatiotemporal data mining in the era of big spatial data: algorithms and applications | |
JP6759844B2 (en) | Systems, methods, programs and equipment that associate images with facilities | |
US9123259B2 (en) | Discovering functional groups of an area | |
Sun et al. | Tour recommendations by mining photo sharing social media | |
Rashdi et al. | Scanning technologies to building information modelling: A review | |
JP7218754B2 (en) | Vacant house determination device, vacant house determination method and program | |
Skoumas et al. | Location estimation using crowdsourced spatial relations | |
JP2018045302A (en) | Information processing device, information processing method and program | |
JP6360000B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
Song et al. | Web video geolocation by geotagged social resources | |
JP6038857B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
Wilson et al. | Object tracking and geo-localization from street images | |
JP6110281B2 (en) | Moving unit prediction model generation apparatus, moving unit prediction model generation method, and moving unit prediction model generation program | |
Kargah-Ostadi et al. | Automated real-time roadway asset inventory using artificial intelligence | |
JP6174527B2 (en) | Moving means estimation apparatus, operation method thereof, and program | |
JP6149024B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
Ogawa et al. | Distress image retrieval for infrastructure maintenance via self-Trained deep metric learning using experts’ knowledge | |
JP6433876B2 (en) | Parameter estimation apparatus, prediction apparatus, method, and program | |
Rangel et al. | Automatic Understanding and Mapping of Regions in Cities Using Google Street View Images | |
US11989626B2 (en) | Generating performance predictions with uncertainty intervals | |
WO2021033273A1 (en) | Estimation program, estimation device, method for generating detection model, learning method, and learning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6360000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |