JP2016081272A - Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program - Google Patents

Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program Download PDF

Info

Publication number
JP2016081272A
JP2016081272A JP2014211510A JP2014211510A JP2016081272A JP 2016081272 A JP2016081272 A JP 2016081272A JP 2014211510 A JP2014211510 A JP 2014211510A JP 2014211510 A JP2014211510 A JP 2014211510A JP 2016081272 A JP2016081272 A JP 2016081272A
Authority
JP
Japan
Prior art keywords
database
trajectory
latitude
longitude
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014211510A
Other languages
Japanese (ja)
Other versions
JP6038857B2 (en
Inventor
結城 遠藤
Yuki Endo
結城 遠藤
良彦 数原
Yoshihiko Kazuhara
良彦 数原
浩之 戸田
Hiroyuki Toda
浩之 戸田
義昌 小池
Yoshimasa Koike
義昌 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014211510A priority Critical patent/JP6038857B2/en
Publication of JP2016081272A publication Critical patent/JP2016081272A/en
Application granted granted Critical
Publication of JP6038857B2 publication Critical patent/JP6038857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a movement means estimation model with which it is possible to estimate movement means with high accuracy.SOLUTION: The locus image extraction unit 30 of a movement means estimation model generation device 1 extracts locus images from the enumeration list information of measurement points of each GPS locus segment stored in databases 10, 20, and stores each of the extracted images in databases 40, 50. A Deep Neutral Network (DNN) learning unit 60 stores, in a database 70, the learning results of a multilayer neutral network based on the stored data of the databases 40, 50. A DNN feature value extraction unit 80 extracts a DNN feature value from the stored information of the database 70, and stores the extracted feature value in a database 90. A basic feature value extraction unit 100 extracts a basic feature value from the stored information of the database 20, and stores the extracted feature value in a database 110. A feature value coupling unit 120 stores, in a database 130, a coupled feature value in which the feature values of the databases 90, 110 are coupled. An estimation model generation unit 140 generates an estimation model from the stored information of the database 130, and stores the generated estimation model in a database 150.SELECTED DRAWING: Figure 1

Description

本発明は、GPS軌跡に基づき移動手段を推定するため移動手段推定モデルを生成する技術に関する。   The present invention relates to a technique for generating a moving means estimation model for estimating moving means based on a GPS trajectory.

スマートフォンの普及に伴い、GPS測位などにより取得されたユーザの位置情報を利用して、ユーザの状況に合わせた情報提供や、ユーザの行動を記録するライフログのサービスが多く利用されるようになった。それに伴い、ユーザの位置情報からユーザの状況を推定する技術が求められている。   With the spread of smartphones, the use of user location information acquired by GPS positioning and the like, and the provision of information according to the user's situation and the life log service that records the user's behavior have come to be frequently used. It was. Accordingly, there is a demand for a technique for estimating the user situation from the user position information.

関連技術の一つとして移動手段判定があげられる。この移動手段判定は、GPS測位やWiFi測位などで取得された位置情報と時刻情報を持つ測定点の系列(GPS軌跡)に対して同一移動手段である区間(セグメント)の抽出と、セグメントに対する移動手段(例えば歩行、自動車、電車など)の推定を行う。   One of related techniques is moving means determination. This moving means determination is performed by extracting a section (segment) that is the same moving means with respect to a series of measurement points (GPS trajectory) having position information and time information acquired by GPS positioning or WiFi positioning, and moving with respect to the segment. Estimation of means (for example, walking, automobile, train, etc.) is performed.

このように移動手段判定は、セグメント抽出と移動手段推定の二つのフェーズから構成される。セグメント抽出としては、一定時間で区間を区切る方法やGPS軌跡から得られる速度や加速度情報を手がかりとした変化点に基づく方法などがある。   Thus, the moving means determination is composed of two phases of segment extraction and moving means estimation. As segment extraction, there are a method of dividing a section at a fixed time, a method based on a change point using a speed and acceleration information obtained from a GPS trajectory, and the like.

また、移動手段推定としては、非特許文献1,2に示すように、GPS軌跡に対する移動手段アノテーションを用いることで、教師あり学習の枠組みで移動手段予測モデルを構築する方法が利用されている。移動手段推定においては、単純な測位点の羅列情報から、予測に有効な特徴量を如何に獲得できるかが重要である。データから特徴量を抽出するアプローチは大きく二つに分けられる。   Further, as the movement means estimation, as shown in Non-Patent Documents 1 and 2, a method of building a movement means prediction model in a supervised learning framework by using a movement means annotation for a GPS trajectory is used. In moving means estimation, it is important how to obtain feature quantities effective for prediction from simple positioning point enumeration information. There are two main approaches for extracting features from data.

一つ目のアプローチはタスクに有効な特徴を人手で設計(feature engineering)することである。例えば移動手段推定の従来研究(非特許文献1)は、GPS軌跡から移動距離や速度、加速度など計10次元の特徴を設計し、その特徴量をもとに予測モデルを構築している。さらにその後、非特許文献2の発展的な特徴量が追加され、予測精度の向上が確認されている。   The first approach is to manually design the features that are useful for the task (feature engineering). For example, in the conventional research (Non-patent Document 1) of moving means estimation, 10-dimensional features such as moving distance, speed, and acceleration are designed from a GPS trajectory, and a prediction model is constructed based on the features. Further, after that, the advanced feature amount of Non-Patent Document 2 is added, and improvement in prediction accuracy is confirmed.

具体的には、一定区間において大きな速度変化のある測位点の割合(Velocity Change Rate)、停止している測位点の割合(Stop Rate)、大きく進行方向を変えている測位点の割合(Heading Change Rate)の三つである。   Specifically, the ratio of positioning points having a large speed change in a certain section (Velocity Change Rate), the ratio of positioning points that have stopped (Stop Rate), the ratio of positioning points that have greatly changed the traveling direction (Heading Change). Rate).

二つ目のアプローチは表現学習である。表現学習は人によってほとんど加工されていない生のデータから、より抽象的な高次の特徴量を自動で抽出することができる。代表的な手法として、近年画像認識や音声認識の分野において高い認識精度を達成した非特許文献3の「Deep Learning」が注目を集めている。「Deep Learning」は、多層のニューラルネットワーク(Deep Neural Network;DNN)を学習することで、高い表現力をもつ特徴量を獲得することができる。   The second approach is expression learning. Expression learning can automatically extract more abstract higher-order features from raw data that is hardly processed by humans. As a representative technique, “Deep Learning” of Non-Patent Document 3 which has achieved high recognition accuracy in the fields of image recognition and voice recognition in recent years has attracted attention. “Deep Learning” can acquire a feature value having high expressive power by learning a multilayer neural network (DNN).

移動手段推定においては、従来の「Feature Engineering」のアプローチに加えて、「Deep Learning」のアプローチを新しく利用することで、新たな特徴付与が可能になる。新たな特徴量を用いた教師あり学習を行うことで、予測精度の向上が期待できる。   In moving means estimation, in addition to the conventional “Feature Engineering” approach, the “Deep Learning” approach is newly used, and new features can be assigned. By performing supervised learning using a new feature amount, an improvement in prediction accuracy can be expected.

移動手段推定において「Deep Learning」を用いる際には、各セグメントのGPS軌跡を画像化した軌跡画像を生成し、それらの軌跡画像を表現学習の入力として用いる方法が考えられる。GPS軌跡の範囲は、セグメントによって異なるため、全範囲を同じ縮尺で画像化すると、異なる画像サイズの軌跡画像が生成される。   When “Deep Learning” is used in moving means estimation, a method of generating a trajectory image obtained by imaging a GPS trajectory of each segment and using the trajectory image as an input for expression learning is conceivable. Since the range of the GPS trajectory differs depending on the segment, if the entire range is imaged at the same scale, trajectory images having different image sizes are generated.

「Deep Learning」を適用するには、基本的に画像サイズが同じである必要があるため、画像化の際には、例えば拡大縮小などの方法によって各セグメントの軌跡画像を同じサイズに揃える必要がある。さらにGPS軌跡を画像化する際には連続的な情報を離散的な情報に変換する必要がある.   In order to apply “Deep Learning”, the image size basically needs to be the same. Therefore, when imaging, it is necessary to align the trajectory image of each segment to the same size by a method such as enlargement / reduction, for example. is there. Furthermore, it is necessary to convert continuous information into discrete information when imaging the GPS trajectory.

Zheng, Y., Liu, L., Wang, L., and Xie, X.: Learning transportation mode from raw GPS data for geographic applications on the web, In Proc. of WWW'08, pp. 247-256, 2008.Zheng, Y., Liu, L., Wang, L., and Xie, X .: Learning transportation mode from raw GPS data for geographic applications on the web, In Proc. Of WWW'08, pp. 247-256, 2008 . Zheng, Y., Chen, Y., Li, Q., Xie, X., and Ma, W.-Y.: Understanding transportation modes based on GPS data for web applications, ACM Trans. Web, Vol. 4, No. 1, pp.1:1-1:36, 2010.Zheng, Y., Chen, Y., Li, Q., Xie, X., and Ma, W.-Y .: Understanding transportation modes based on GPS data for web applications, ACM Trans. Web, Vol. 4, No .1, pp.1: 1-1: 36, 2010. Bengio, Y.: Learning deep architectures for AI. FTML,Vol. 2, No. 1, pp. 1-127, 2009.Bengio, Y .: Learning deep architectures for AI. FTML, Vol. 2, No. 1, pp. 1-127, 2009. Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y. and Manzagol,P.-A.: Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion. In Proc. of JMLR'10, 11:3371-3408, Dec. 2010.Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y. and Manzagol, P.-A .: Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion.In Proc. Of JMLR '10, 11: 3371-3408, Dec. 2010. Rumelhart, D., Hinton, G., & Williams, R. (1986a). Learning representations by back-propagating errors. Nature, 323, 533_536.Rumelhart, D., Hinton, G., & Williams, R. (1986a). Learning representations by back-propagating errors. Nature, 323, 533_536.

しかしながら、各セグメントの全範囲のGPS軌跡を画像化して、拡大縮小によって大きさを揃えた場合には画像ごとに縮尺が変わってしまうため、距離的な情報が失われてしまい効果的に表現学習を行えないという問題があった(問題1)。   However, if the GPS trajectory of the entire range of each segment is converted into an image and the size is made uniform by enlargement / reduction, the scale changes for each image, so distance information is lost and effective expression learning is performed. (Problem 1).

また、経緯度という高精細なGPS軌跡を量子化する際に、画像サイズを小さくするほど移動手段推定に有効なGPS軌跡の情報が多く失われる一方、画像サイズを大きくするほど情報が失われるのは防げるが、全画素に対してGPS軌跡に関わる情報を持つ画素が少ない画像となり、効果的に表現学習を行えないという問題もあった(問題2)。この問題1,2により従来は、高精度に移動手段を推定できる移動手段推定モデルを提供することが困難であった。   Also, when quantizing a high-definition GPS trajectory called longitude and latitude, the smaller the image size, the more GPS track information that is effective for moving means estimation is lost, while the larger the image size, the more information is lost. However, there is also a problem that the expression learning is not performed effectively because there are few pixels having information related to the GPS trajectory for all pixels (problem 2). Conventionally, due to these problems 1 and 2, it has been difficult to provide a moving means estimation model capable of estimating moving means with high accuracy.

本発明は、従来の問題1,2を解決するためになされ、移動手段を高精度に推定可能な移動手段推定モデルを生成することを解決課題としている。   An object of the present invention is to solve the conventional problems 1 and 2, and to generate a moving means estimation model capable of estimating moving means with high accuracy.

本発明の一態様は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、第1データベースのGPS軌跡セグメントから抽出した軌跡画像を格納する第3データベースと、第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて格納する第4データベースと、第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、を備える。   One aspect of the present invention is an apparatus that generates a moving unit estimation model for estimating a moving unit based on a GPS trajectory, and includes a list of positioning points acquired by GPS positioning for each section that is the same moving unit. A first database for storing GPS trajectory segments, a second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments, and a list of positioning points for each GPS trajectory segment stored in both databases When extracting a trajectory image from information, a trajectory image extraction unit that visualizes the center of gravity of the enumeration information of the positioning points as the center of the image, a third database that stores a trajectory image extracted from the GPS trajectory segment of the first database, , The trajectory image extracted from the labeled GPS trajectory segment of the second database is the label The DNN feature quantity is extracted from the learning result of the fourth database stored in response and the third database and the stored data of the fourth database, and the extracted DNN feature quantity is associated with the label. 5 Basic features for extracting a basic feature from a DN trajectory extraction unit stored in a database and a GPS locus segment with a label in the second database, and storing the extracted basic feature in a sixth database in association with the label A quantity extracting unit, a feature quantity linking unit that links DNN feature quantities and basic feature quantities corresponding to the fifth database and the sixth database, respectively, and makes the linked feature quantity correspond to the label. An estimated model generation unit configured to generate the estimated model based on a seventh database to be stored.

本発明の他の態様は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、第1データベースのGPS軌跡セグメントから抽出した軌跡画像を第3データベースに格納する軌跡画像格納ステップと、第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡画像格納ステップと、第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、を有する。   According to another aspect of the present invention, there is provided a first database that stores, as a GPS trajectory segment, a list of positioning points acquired by GPS positioning for each section that is the same moving means, and a label that labels the GPS trajectory segment. A second database that stores GPS trajectory segments, and a computer that generates a moving means estimation model for estimating moving means, the positioning points of the GPS trajectory segments stored in both databases When extracting the trajectory image from the sequence information, the trajectory image extraction step for imaging the center of gravity of the sequence information of the positioning point as the center of the image, and the trajectory image extracted from the GPS trajectory segment of the first database in the third database A trajectory image storing step to store, and a GPS trajectory segment with a label of the second database The trajectory image extracted from the trajectory image is stored in the fourth database in correspondence with the label, and the DNN feature quantity is extracted from the learning result of the third neural network based on the third database and the stored data of the fourth database. A DNN feature amount extracting step for storing the extracted DNN feature amount in the fifth database in correspondence with the label, and extracting a basic feature amount from the labeled GPS trajectory segment of the second database, and extracting the extracted basic feature A feature extraction step for storing a quantity in the sixth database in association with the label, and a feature that connects the DNN feature quantity and the basic feature quantity in the fifth database and the sixth database, respectively, to form a connected feature quantity A quantity linking step and storing the linked feature quantity in association with the label It has a estimation model generation step of generating the estimation model on the basis of the seventh database that, the.

なお、本発明は、前記装置としてコンピュータを機能させるプログラムの態様としてもよい。このプログラムは、ネットワークや記録媒体などを通じて提供することができる。   In addition, this invention is good also as an aspect of the program which makes a computer function as said apparatus. This program can be provided through a network or a recording medium.

本発明によれば、移動手段を高精度に推定可能な移動手段推定モデルを生成することができる。   According to the present invention, it is possible to generate a moving means estimation model capable of estimating moving means with high accuracy.

本発明の実施形態に係る移動手段推定モデル生成装置の全体構成図。The whole block diagram of the moving means estimation model production | generation apparatus which concerns on embodiment of this invention. 同 ラベルなしGPS軌跡セグメントDBのデータ構造図。The data structure figure of GPS locus segment DB without the label. 同 ラベルありGPS軌跡セグメントDBのデータ構造図。The data structure figure of GPS locus segment DB with the label. 同 ラベルなし軌跡画像DBのデータ構造図。The data structure figure of the locus image DB without a label. 同 ラベルあり軌跡画像DBのデータ構造図。The data structure figure of locus image DB with the label. 同 軌跡画像抽出部の処理ステップを示すフローチャート。The flowchart which shows the process step of the locus image extraction part. 同 図6のS130の詳細を示すフローチャート。The flowchart which shows the detail of S130 of the same FIG. 同 DNN学習部の処理ステップを示すフローチャート。The flowchart which shows the processing step of the same DNN learning part. DNNDBのデータ構造図。The data structure figure of DNDB. DNN特徴量抽出部の処理ステップを示すフローチャート。The flowchart which shows the process step of a DNN feature-value extraction part. DNN特徴量DBのデータ構造図。The data structure figure of DNN feature-value DB. 基本特徴量DBのデータ構造図。The data structure figure of basic feature-value DB. 特徴量連結部の処理ステップを示すフローチャート。The flowchart which shows the process step of a feature-value connection part.

以下、本発明の実施形態に係る移動手段推定モデル生成装置を説明する。この移動手段推定モデル生成装置は、GPS軌跡の重心付近を画像化し、さらに滞在時間の情報をも付加した形で画像化して軌跡画像を作成する。この軌跡画像をDNN学習させ、DNN特徴量を得る。このDNN特徴量を従来の基本特徴量に加えて利用することで移動手段の推定精度を向上させている。   Hereinafter, a moving means estimation model generation device according to an embodiment of the present invention will be described. This moving means estimation model generation device creates an image of the vicinity of the center of gravity of the GPS locus, and further forms an image of the locus by adding information on the staying time. This trajectory image is subjected to DNN learning to obtain DNN feature values. By using this DNN feature amount in addition to the conventional basic feature amount, the estimation accuracy of the moving means is improved.

≪構成例≫
図1に基づき前記移動手段推定モデル生成装置の全体構成を説明する。この移動手段推定モデル生成装置1は、コンピュータにより構成され、CPU,主記憶装置(RAM,ROM等),補助記憶装置(ハードディスクドライブ装置,ソリッドステートドライブ装置等)などのハードウェアリースを備える。
≪Configuration example≫
Based on FIG. 1, the whole structure of the said movement means estimation model production | generation apparatus is demonstrated. The moving means estimation model generation device 1 is configured by a computer and includes hardware leases such as a CPU, a main storage device (RAM, ROM, etc.), an auxiliary storage device (hard disk drive device, solid state drive device, etc.).

このハードウェアリソースとソフトウェアリソース(OS,アプリケーションなど)との協同の結果、移動手段推定モデル生成装置1は、ラベルなしGPS軌跡セグメントDB10,ラベルありGPS軌跡セグメントDB20,軌跡画像抽出部30,ラベルなし軌跡画像DB40,ラベルあり軌跡画像DB50,DNN学習部60,DNNDB70,DNN特徴量抽出部80,DNN特徴量DB90,基本特徴量抽出部100,基本特徴量DB110,特徴量連結部120,連結特徴量DB130,推定モデル生成部140,推定モデルDB150を実装する。   As a result of the cooperation between the hardware resource and the software resource (OS, application, etc.), the moving means estimation model generation device 1 has an unlabeled GPS trajectory segment DB 10, a labeled GPS trajectory segment DB 20, a trajectory image extraction unit 30, and no label. Trajectory image DB 40, labeled trajectory image DB 50, DNN learning unit 60, DNN DB 70, DNN feature amount extraction unit 80, DNN feature amount DB 90, basic feature amount extraction unit 100, basic feature amount DB 110, feature amount connection unit 120, connected feature amount A DB 130, an estimated model generation unit 140, and an estimated model DB 150 are mounted.

この各DB10,20,40,50,70,90,110,130,150は、前記記憶装置に構築されている。なお、移動手段推定モデル生成装置1は、単一のコンピュータに構成してもよく、あるいは複数のコンピュータに構成してもよいものとする。以下、前記各構成10〜150の詳細を説明する。   Each DB 10, 20, 40, 50, 70, 90, 110, 130, 150 is constructed in the storage device. Note that the moving means estimation model generation device 1 may be configured as a single computer or a plurality of computers. Hereinafter, the details of each of the configurations 10 to 150 will be described.

≪ラベルなしGPS軌跡セグメントDB10≫
図2に基づき前記DB10のデータ構造を説明する。この前記DB10には、同一の移動手段である区間(セグメント)毎にGPS測位によって取得された測位点の羅列情報が格納されている。この測位点の羅列情報は、図2中ではGPS軌跡セグメントと示されている。
≪Unlabeled GPS track segment DB10≫
The data structure of the DB 10 will be described with reference to FIG. The DB 10 stores list information of positioning points acquired by GPS positioning for each section (segment) which is the same moving means. The enumeration information of the positioning points is shown as a GPS locus segment in FIG.

このGPS軌跡セグメントは、前記測位点の羅列情報として緯度・経度・測位時刻をペア(組)にした情報を保有する。なお、図2中のセグメントIDは、GPS軌跡セグメントに付与されたIDを示し、該IDの単位には特に制約がないものとする。   This GPS trajectory segment holds information in which latitude / longitude / positioning time is paired as enumeration information of the positioning points. The segment ID in FIG. 2 indicates the ID assigned to the GPS trajectory segment, and there are no particular restrictions on the unit of the ID.

≪ラベルありGPS軌跡セグメントDB20≫
図3に基づき前記DB20のデータ構造を説明する。この前記DB20には、GPS軌跡セグメントおよびセグメントIDに加えて、各GPSセグメントに対する移動手段のラベル情報が格納されている。
≪Labeled GPS track segment DB20≫
The data structure of the DB 20 will be described with reference to FIG. In the DB 20, in addition to the GPS trajectory segment and the segment ID, label information of the moving means for each GPS segment is stored.

≪ラベルなし軌跡画像DB40≫
図4に基づき前記DB40のデータ構造を説明する。この前記DB40には、軌跡画像抽出部30から受け取った軌跡画像と、前記DB10のGPS軌跡セグメントに対応するセグメントIDの各情報とが格納されている。ここでは軌跡画像は行列で表され、各画素と対応する行列の各要素には実数値が入る。
<< Unlabeled locus image DB40 >>
The data structure of the DB 40 will be described with reference to FIG. The DB 40 stores a trajectory image received from the trajectory image extraction unit 30 and each piece of segment ID information corresponding to the GPS trajectory segment of the DB 10. Here, the trajectory image is represented by a matrix, and a real value is entered in each element of the matrix corresponding to each pixel.

≪ラベルあり軌跡画像DB50≫
図5に基づき前記DB50のデータ構造を説明する。この前記DB50には、軌跡画像抽出部30から受け取った軌跡画像と、前記DB20のGPS軌跡セグメントに対応するセグメントIDおよびラベル情報とが格納されている。ここでも軌跡画像は行列で表され、各画素と対応する行列の各要素には実数値が入る。
<< Label image DB50 with label >>
The data structure of the DB 50 will be described with reference to FIG. The DB 50 stores a trajectory image received from the trajectory image extraction unit 30, and a segment ID and label information corresponding to the GPS trajectory segment of the DB 20. Again, the trajectory image is represented by a matrix, and a real value is entered in each element of the matrix corresponding to each pixel.

≪軌跡画像抽出部30≫
軌跡画像抽出部30は、前記各DB10,20からデータを読み出し、それぞれのデータから軌跡画像を抽出する。ここで抽出した軌跡画像を前記DB40,50に格納させる。
<< Trace image extraction unit 30 >>
The trajectory image extraction unit 30 reads data from each of the DBs 10 and 20 and extracts a trajectory image from each data. The locus image extracted here is stored in the DBs 40 and 50.

まず、図6に基づき軌跡画像抽出部30の全体的な処理ステップを説明する。ここでは軌跡画像抽出部30は、処理が開始されると前記DB10からすべてのGPS軌跡セグメントを受け取る(S110)。続いて前記DB20からすべてのラベル情報とGPS軌跡セグメントを受け取る(S120)。   First, the overall processing steps of the trajectory image extraction unit 30 will be described with reference to FIG. Here, the trajectory image extraction unit 30 receives all GPS trajectory segments from the DB 10 when the process is started (S110). Subsequently, all label information and GPS trajectory segments are received from the DB 20 (S120).

その後に前記DB10,20から取得した各GPS軌跡セグメントsにおける前記測位点の羅列情報をPsとし、Psから軌跡画像を抽出する(S130)。そして、前記DB20のGPS軌跡セグメントから抽出した軌跡画像と、該軌跡画像に対応するラベル情報とを前記DB50に格納する(S140)。また、前記DB20のGPS軌跡セグメントから抽出した軌跡画像を前記DB40に格納し(S150)、処理を終了する。 Then the enumeration information of the positioning points in each GPS path segment s acquired from the DB10,20 and P s, extracts the path image from P s (S130). Then, the trajectory image extracted from the GPS trajectory segment of the DB 20 and the label information corresponding to the trajectory image are stored in the DB 50 (S140). The trajectory image extracted from the GPS trajectory segment of the DB 20 is stored in the DB 40 (S150), and the process is terminated.

つぎに図7に基づき軌跡画像抽出部30の中心的な処理内容、即ちS130の軌跡画像抽出ステップを詳細に説明する。   Next, the central processing content of the trajectory image extraction unit 30, that is, the trajectory image extraction step of S130 will be described in detail with reference to FIG.

S201:処理が開始されると測位点の羅列情報PsをT秒間隔でサンプリングしたPs’を生成する。ここでTは任意のパラメータとする。 S201: When the process starts the enumerated information P s of the positioning point to produce a P s' sampled at intervals of T seconds. Here, T is an arbitrary parameter.

S202:緯度経度座標系において測位点の羅列情報における重心座標の緯度成分centerlngを計算する。具体的には式(1)により計算する。この式(1)中の|Ps’|は、Ps’の要素数を示している。また、p(j).lngは、Ps’におけるj番目の測位点の経度を示している。 S202: Calculate the latitude component center lng of the barycentric coordinates in the positioning point enumeration information in the latitude / longitude coordinate system. Specifically, the calculation is performed according to the equation (1). | P s '| in the equation (1) indicates the number of elements of P s '. In addition, p (j) . lng represents the longitude of the j-th positioning point at P s ′.

Figure 2016081272
Figure 2016081272

S203:緯度経度系において測位点の羅列情報における重心座標の緯度成分centerlatを計算する。具体的には式(2)により計算する。この式(2)中のp(j).latは、Ps’におけるj番目の測位点の緯度を示している。 S203: Calculate the latitude component center lat of the center-of-gravity coordinates in the list information of the positioning points in the latitude / longitude system. Specifically, the calculation is performed according to Expression (2). In this equation (2), p (j) . “lat” represents the latitude of the j-th positioning point at P s ′.

Figure 2016081272
Figure 2016081272

S204:Ps’における最も南西にある座標の経度座標minlngを計算する。具体的には式(3)により計算する。 S204: The longitude coordinate min lng of the coordinate at the most southwest in P s ′ is calculated. Specifically, the calculation is performed according to Equation (3).

Figure 2016081272
Figure 2016081272

S205:Ps’における最も南西にある座標の緯度座標minlatを計算する。具体的には式(4)により計算する。 S205: The latitude coordinate min lat of the coordinate at the most southwest in P s ' is calculated. Specifically, the calculation is performed according to Equation (4).

Figure 2016081272
Figure 2016081272

S206:緯度経度座標系において測位点の羅列情報における重心座標の経度座標が、画像座標系の中心座標の水平成分と一致させるために用いる補正値offsetxを計算する。具体的には式(5)により計算する。 S206: Calculate a correction value offset x used to make the longitude coordinate of the barycentric coordinate in the arrangement information of the positioning points in the latitude / longitude coordinate system coincide with the horizontal component of the center coordinate of the image coordinate system. Specifically, the calculation is performed according to Equation (5).

Figure 2016081272
Figure 2016081272

ここでWmは、軌跡画像の水平幅を表す任意のパラメータである。また、εは定数であり、例えば10-9のような任意の小さい値を用いる。 Here, W m is an arbitrary parameter representing the horizontal width of the trajectory image. Also, ε is a constant, and an arbitrarily small value such as 10 −9 is used.

S207:緯度経度座標系において測位点の羅列情報における重心座標の緯度座標が、画像座標系の中心座標の垂直成分と一致させるために用いる補正値offsetyを計算する。具体的には式(6)により計算する。この式(6)中のHmは、軌跡画像の垂直幅を表す任意のパラメータである。 S207: latitude and longitude coordinates latitude coordinate of the barycentric coordinates in enumerated information of the positioning points in the system, to calculate a correction value offset y used to match the vertical component of the center coordinates of the image coordinate system. Specifically, the calculation is performed according to Equation (6). H m in this equation (6) is an arbitrary parameter representing the vertical width of the trajectory image.

Figure 2016081272
Figure 2016081272

S208:抽出する軌跡画像を表すWm×Hmの行列Iを用意し、すべての要素を0で初期化し、その後にS209〜S212のループ処理に移行する。このループ処理においては、測位点の順番jに1〜|Ps’|まで値を順次に代入する。以下、S209〜S212のループ処理を説明する。 S208: A W m × H m matrix I representing a trajectory image to be extracted is prepared, all elements are initialized with 0, and then the process proceeds to a loop process of S209 to S212. In this loop processing, values from 1 to | P s ' | are sequentially substituted for the order j of positioning points. Hereinafter, the loop processing of S209 to S212 will be described.

S209:p(j).lngを緯度経度座標系の経度成分から画像座標系の水平成分xに変換する。この変換は、式(7)の計算により行われる。この式(7)中のWpは、PS’の重心を画像の中心として画像化する際の経度幅を示している。 S209: p (j) . Lng is converted from the longitude component of the latitude-longitude coordinate system to the horizontal component x of the image coordinate system. This conversion is performed by the calculation of Expression (7). W p in this equation (7) indicates the longitude width when imaging with the center of gravity of P S ′ as the center of the image.

Figure 2016081272
Figure 2016081272

S210:p(j).latを緯度経度座標系の経度成分から画像座標系の垂直成分yに変換する。この変換は、式(8)の計算により行われている。この式(8)中、HpはPS’の重心を画像の中心として画像化する際の緯度幅を示している。 S210: p (j) . lat is converted from the longitude component of the latitude-longitude coordinate system to the vertical component y of the image coordinate system. This conversion is performed by the calculation of Expression (8). In this equation (8), H p represents the latitude width when imaging with the center of gravity of P S ′ as the center of the image.

Figure 2016081272
Figure 2016081272

S211:S209で変換した座標xまたはS210で変換した座標yが、決められた画像サイズの範囲内の場合にはS212に進む一方、そうでない場合にはS212をスキップする。   S211: If the coordinate x converted in S209 or the coordinate y converted in S210 is within the determined image size range, the process proceeds to S212, and if not, S212 is skipped.

S212:測位点の存在する画素に定数を加算する。ここでは式(9)の計算を行うものとする。   S212: A constant is added to the pixel where the positioning point exists. Here, the calculation of Expression (9) is performed.

Figure 2016081272
Figure 2016081272

式(9)中のI(x,y)は、行列Iのx行y列の要素を示している。この式(9)の加算処理によって、同じ地点での滞在時間に応じて画素値が調節される。例えば同じ地点に長く滞在すると、軌跡画像の対応する画素値が大きくなり、これにより滞在時間の判別が可能となる。なお、|Ps’|の要素数のすべてをjに代入してS209〜S212の処理が完了すれば、ループ処理を終了する。 I (x, y ) in the equation (9) indicates an element of x rows and y columns of the matrix I. The pixel value is adjusted according to the staying time at the same point by the addition processing of Equation (9). For example, if the user stays at the same point for a long time, the corresponding pixel value of the trajectory image increases, and thus the staying time can be determined. If all the elements of | P s ' | are substituted for j and the processing of S209 to S212 is completed, the loop processing is terminated.

≪DNN学習部60,DNNDB70≫
DNN学習部60は、前記DB40,50から軌跡画像とラベル情報とを読み出して入力とし、多層ニューラルネットワーク(Deep Neural Network:DNN)の学習を行う。
<< DNN learning unit 60, DNNNDB70 >>
The DNN learning unit 60 reads the trajectory image and the label information from the DBs 40 and 50 and inputs them, and performs learning of a multilayer neural network (DEEP Neural Network: DNN).

図8に基づきDNN学習部30の処理ステップを説明する。すなわち、処理が開始されると、まず前記DB40から軌跡画像を受け取る(S310)。つぎに前記DB50からラベル情報と軌跡画像とを受け取る(S320)。   The processing steps of the DNN learning unit 30 will be described with reference to FIG. That is, when the process is started, a trajectory image is first received from the DB 40 (S310). Next, label information and a trajectory image are received from the DB 50 (S320).

続いてS310,S320で取得したすべての軌跡画像を用いて、DNNのPre−trainingを行う(S330)。Pre−trainingの方法としては、非特許文献4の「Stacked Denoising Autoencoder」など公知の技術を用いることができる。   Subsequently, DN-Pre-training is performed using all the trajectory images acquired in S310 and S320 (S330). As a pre-training method, a known technique such as “Stacked Denoising Autoencoder” of Non-Patent Document 4 can be used.

Pre−trainingの結果として、中間層の数がNのDNNに対して、出力としてN個の重み行列「W=(W1 T,W2 T,...,Wm TT」およびバイアス項bが得られる。 As a result of the pre-training, N weight matrices “W = (W 1 T , W 2 T ,..., W m T ) T ” and a bias are output as an output for a DNN having N intermediate layers. The term b is obtained.

そして、S320で取得した軌跡画像とラベル情報とを用いて、DNN全体の重み行列Wおよびバイアス項bを調整するfine−tuningを行う(S340)。fine−tuningの方法は、非特許文献5の誤差逆伝播法などに基づく公知技術を用いることができる。   Then, fine-tuning for adjusting the weight matrix W and the bias term b of the entire DNN is performed using the trajectory image and label information acquired in S320 (S340). As the fine-tuning method, a known technique based on the error back propagation method of Non-Patent Document 5 or the like can be used.

その後、前記DB70に重み行列Wおよびバイアス項bの情報を格納し(S350)、処理を終了する。これにより前記DB70には、図9に示すように、DNN学習部60の学習結果として、各中間層の番号毎に重み行列Wおよびバイアス項bが格納される。   Thereafter, the information of the weight matrix W and the bias term b is stored in the DB 70 (S350), and the process ends. As a result, as shown in FIG. 9, the DB 70 stores the weight matrix W and the bias term b for each intermediate layer number as the learning result of the DNN learning unit 60.

≪DNN特徴量抽出部80,DNN特徴量DB90≫
DNN特徴量抽出部80は、前記DB70の格納データを読み出して入力とし、DNN特徴量の抽出を実行する。図10に基づき説明すれば、処理が開始されるとDNN特徴量抽出部80は、まず前記DB50からラベル情報と軌跡画像とを受け取り(S410)、続いて前記DB70から各中間層における重み行列Wおよびバイアス項bを受け取る(S420)。
<< DNN feature quantity extraction unit 80, DNN feature quantity DB 90 >>
The DNN feature quantity extraction unit 80 reads out the stored data of the DB 70 as an input, and executes DNN feature quantity extraction. Referring to FIG. 10, when the process is started, the DNN feature quantity extraction unit 80 first receives the label information and the trajectory image from the DB 50 (S410), and then the weight matrix W in each intermediate layer from the DB 70. And a bias term b are received (S420).

つぎにS420で受け取った重み行列Wおよびバイアス項bとを用いたDNNから、S410で受け取った各軌跡画像の特徴量を計算する(S430)。この特徴量の計算方法としては、非特許文献4などで用いられている公知の方法を利用できる。例えば軌跡画像をDNNの入力層に与えることで得られるDNNの最も深い中間層の出力を軌跡画像の特徴量とすることができる。   Next, the feature amount of each trajectory image received in S410 is calculated from the DNN using the weight matrix W and the bias term b received in S420 (S430). As a method for calculating the feature amount, a known method used in Non-Patent Document 4 or the like can be used. For example, the output of the deepest intermediate layer of DNN obtained by applying the trajectory image to the DNN input layer can be used as the feature amount of the trajectory image.

そして、S430で計算された各軌跡画像の特徴量(DNN特徴量)と、該軌跡画像に対応するラベル情報とのペアを前記DB90に格納し(S440)、処理を終了する。これにより前記DB90には、図11に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報およびDNN特徴量が格納される。   Then, the pair of the feature amount (DNN feature amount) of each trajectory image calculated in S430 and the label information corresponding to the trajectory image is stored in the DB 90 (S440), and the processing is terminated. As a result, as shown in FIG. 11, the DB 90 stores label information and DNN feature values for each segment ID of the GPS trajectory segment.

≪基本特徴量抽出部100,基本特徴量DB110≫
基本特徴量抽出部100は、図1に示すように、前記DB20のデータを読み出し、読み出したデータから特徴量(基本特徴量)を抽出する。この基本特徴量の抽出方法としては、例えば非特許文献1,2に記載された公知の技術(feature engineeringなど)を用いることができる。
<< Basic Feature Extraction Unit 100, Basic Feature DB 110 >>
As shown in FIG. 1, the basic feature quantity extraction unit 100 reads the data in the DB 20, and extracts a feature quantity (basic feature quantity) from the read data. As a basic feature amount extraction method, for example, a known technique (feature engineering or the like) described in Non-Patent Documents 1 and 2 can be used.

ここで抽出された基本特徴量は、ラベル情報と対応付けて前記DB110に格納される。これにより前記DB110は、図12に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報および基本特徴量が格納される。   The basic feature amount extracted here is stored in the DB 110 in association with the label information. Thereby, as shown in FIG. 12, the DB 110 stores label information and basic features for each segment ID of the GPS trajectory segment.

≪特徴量連結部120,連結特徴量DB130≫
特徴量連結部120は、前記各DB90,110のデータを読み出し、それぞれのデータ間における同じセグメントIDに係る基本特徴量とDNN特徴量とを連結させる。ここで連結された特徴量を連結特徴量と呼ぶ。
<< Feature Quantity Linking Unit 120, Linked Feature Quantity DB 130 >>
The feature amount linking unit 120 reads the data of each of the DBs 90 and 110 and connects the basic feature amount and the DNN feature amount related to the same segment ID between the respective data. The feature quantity connected here is referred to as a connected feature quantity.

図13に基づき特徴量連結部120の処理ステップを説明する。すなわち、特徴量連結部120は、処理が開始されると、まず前記DB90からセグメントIDとラベル情報とDNN特徴量とを受け取り(S510)、続いて前記DB110からセグメントIDとラベル情報と基本特徴量とを受け取る(S520)。   The processing steps of the feature amount linking unit 120 will be described based on FIG. That is, when the processing is started, the feature amount linking unit 120 first receives the segment ID, label information, and DNN feature amount from the DB 90 (S510), and then receives the segment ID, label information, and basic feature amount from the DB 110. Are received (S520).

つぎに特徴量連結部120は、S510、S520で受け取ったデータ間においてセグメントIDが対応する基本特徴量とDNN特徴量とを特定し、特定された基本特徴量とDNN特徴量とを一つのベクトルに連結し(S530)、連結された連結特徴量を前記DB130に格納する(S540)。これにより前記DB130には、連結特徴量がラベル情報毎に格納される。   Next, the feature amount linking unit 120 specifies the basic feature amount and the DNN feature amount corresponding to the segment ID between the data received in S510 and S520, and combines the specified basic feature amount and the DNN feature amount into one vector. (S530), and the connected feature quantity is stored in the DB 130 (S540). As a result, the connection feature amount is stored in the DB 130 for each label information.

≪推定モデル生成部140,推定モデルDB150≫
推定モデル生成部140は、前記DB130からデータを読み出し、読み出したデータ中の連結特徴量と該連結特徴量に応じたラベル情報とを用いて移動手段推定モデルを生成する。推定モデルの生成には、例えばロジステック回帰やSVM,決定木などの公知技術を用いることができる(非特許文献1,2参照)。ここで生成された移動手段推定モデルは、前記DB150に格納される。
<< Estimated Model Generation Unit 140, Estimated Model DB 150 >>
The estimation model generation unit 140 reads data from the DB 130, and generates a moving means estimation model using the connected feature amount in the read data and the label information corresponding to the connected feature amount. For generating the estimation model, for example, known techniques such as logistic regression, SVM, and decision tree can be used (see Non-Patent Documents 1 and 2). The moving means estimation model generated here is stored in the DB 150.

このような移動手段推定モデル生成装置1によれば、軌跡画像抽出部30のS130は、GPS軌跡セグメントから軌跡画像を抽出する際、GPS軌跡の尺度を変えずに重心付近を画像化するため(S201〜S212)、移動手段推定に有効な情報を多く含む領域を画像化した軌跡画像を生成することができる。   According to such a moving means estimation model generation device 1, when the trajectory image is extracted from the GPS trajectory segment, S130 of the trajectory image extraction unit 30 images the vicinity of the center of gravity without changing the scale of the GPS trajectory ( S201 to S212), it is possible to generate a trajectory image obtained by imaging a region containing a lot of information effective for moving means estimation.

また、画像サイズを大きくせずに各画素に滞在時間の情報を保持させることにより(S212)、移動手段推定に有効なGPS軌跡の情報の損失を防ぐとともに、全画素に対してGPS軌跡に関わる情報を持つ画素が少なくなることが防止できる。   In addition, by retaining the information of the staying time in each pixel without increasing the image size (S212), it is possible to prevent the loss of GPS trajectory information effective for moving means estimation and to relate to the GPS trajectory for all pixels. It is possible to prevent the number of pixels having information from decreasing.

これによりDNN学習部60において、S330,S340の表現学習をGPS軌跡セグメントに対して効果的に適用可能となり、移動手段推定に有効な特徴量(DNN特徴量)を抽出できるようになる。   As a result, the DNN learning unit 60 can effectively apply the expression learning of S330 and S340 to the GPS trajectory segment, and can extract a feature quantity (DNN feature quantity) effective for moving means estimation.

その結果、従来の「feature engineering」による基本特徴量に加えて表現学習によるDNN特徴量を、推定モデル生成部140のモデル生成に利用可能となり、この点で移動手段を高精度に推定可能な移動手段推定モデルを提供することができる。   As a result, in addition to the basic feature amount by the conventional “feature engineering”, the DNN feature amount by the expression learning can be used for the model generation of the estimation model generation unit 140, and the movement means can be estimated with high accuracy at this point. A means estimation model can be provided.

≪プログラム等≫
本発明は、上記実施形態に限定されるものではなく、各請求項に記載された範囲内で変形・応用して実施することができる。例えば本発明は、移動手段推定モデル生成装置1の各部10〜150の一部もしくは全部として、コンピュータを機能させる移動手段推定モデル生成プログラムとして構成することもできる。このプログラムによれば、S110〜S150,S201〜S212,S310〜S350,S410〜S440,S510〜S540の一部あるいは全部をコンピュータに実行させることが可能となる。
≪Programs≫
The present invention is not limited to the above-described embodiment, and can be implemented by being modified and applied within the scope described in each claim. For example, this invention can also be comprised as a moving means estimation model production | generation program which makes a computer function as some or all of each part 10-150 of the movement means estimation model production | generation apparatus 1. FIG. According to this program, it is possible to cause the computer to execute part or all of S110 to S150, S201 to S212, S310 to S350, S410 to S440, and S510 to S540.

前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。   The program can be provided through a network such as a website or e-mail. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, BD-ROM, BD-R, or BD-RE. It is also possible to record, save and distribute. This recording medium is read using a recording medium driving device, and the program code itself realizes the processing of the above embodiment, so that the recording medium also constitutes the present invention.

1…移動手段推定モデル生成装置
10…ラベルなしGPS軌跡セグメントDB
20…ラベルありGPS軌跡セグメントDB
30…軌跡画像抽出部
40…ラベルなし軌跡画像DB
50…ラベルあり軌跡画像DB
60…DNN学習部
70…DNNDB
80…DNN特徴量抽出部
90…DNN特徴量DB
100…基本特徴量抽出部
110…基本特徴量DB
120…特徴量連結部
130…連結特徴量DB
140…推定モデル生成部
150…推定モデルDB
DESCRIPTION OF SYMBOLS 1 ... Moving means estimation model production | generation apparatus 10 ... GPS locus segment DB without a label
20 ... Labeled GPS track segment DB
30 ... Trajectory image extraction unit 40 ... Trajectory image DB without label
50 ... Label image DB with label
60 ... DNN learning unit 70 ... DNNDB
80 ... DNN feature amount extraction unit 90 ... DNN feature amount DB
100: Basic feature value extraction unit 110: Basic feature value DB
120 ... feature amount connecting unit 130 ... connection feature amount DB
140 ... Estimated model generation unit 150 ... Estimated model DB

Claims (7)

GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、
第1データベースのGPS軌跡セグメントから抽出した軌跡画像を格納する第3データベースと、
第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて格納する第4データベースと、
第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、
第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、
第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、
該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、
を備えることを特徴とする移動手段推定モデル生成装置。
An apparatus for generating a moving means estimation model for estimating moving means based on a GPS trajectory,
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
A trajectory image extraction unit that visualizes the center of gravity of the positioning information of the positioning points when extracting a trajectory image from the positioning information of the positioning points of each GPS trajectory segment stored in the both databases;
A third database for storing trajectory images extracted from GPS trajectory segments of the first database;
A fourth database for storing a trajectory image extracted from the labeled GPS trajectory segment of the second database in association with the label;
A DNN feature quantity extraction unit that extracts DNN feature values from the learning result of the multilayer neural network based on the storage data of the third database and the fourth database, and stores the extracted DNN feature values in the fifth database in correspondence with the labels. When,
A basic feature amount extraction unit that extracts a basic feature amount from a labeled GPS trajectory segment of the second database and stores the extracted basic feature amount in the sixth database in association with the label;
A feature value linking unit that links DNN feature values and basic feature values corresponding to the fifth database and the sixth database, respectively, to form a connected feature value;
An estimated model generating unit that generates the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation apparatus comprising:
第1データベースおよび第2データベースのGPS軌跡セグメントは、測位点の羅列情報として緯度・経度・測位時刻の情報を保有する一方、
軌跡画像抽出部は、緯度経度座標系において前記羅列情報における重心座標の経度成分と緯度成分とを計算する手段と、
前記羅列情報における最も南西にある座標の経度座標および緯度座標を計算する手段と、
緯度経度座標系において前記重心座標の経度座標を画像座標系の中心座標の水平成分と一致させる補正値と、緯度経度座標系において前記重心座標の緯度座標を、前記中心座標の垂直成分と一致させる補正値と、を計算する手段と、
前記測位点の経度を緯度経度座標系の経度成分から画像座標系の水平成分に変換する手段と、
前記測位点の緯度を緯度経度座標系の緯度成分から画像座標系の垂直成分に変換する手段と、
を備えることを特徴とする請求項1記載の移動手段推定モデル生成装置。
While the GPS trajectory segments of the first database and the second database have information on latitude, longitude, and positioning time as enumeration information of positioning points,
The locus image extraction unit calculates a longitude component and a latitude component of the center-of-gravity coordinates in the list information in the latitude-longitude coordinate system;
Means for calculating the longitude and latitude coordinates of the most southwestern coordinates in the list information;
In the latitude / longitude coordinate system, the correction value for matching the longitude coordinate of the centroid coordinate with the horizontal component of the center coordinate of the image coordinate system, and the latitude coordinate of the centroid coordinate in the latitude / longitude coordinate system are matched with the vertical component of the center coordinate. Means for calculating a correction value;
Means for converting the longitude of the positioning point from a longitude component of a latitude-longitude coordinate system to a horizontal component of an image coordinate system;
Means for converting the latitude of the positioning point from a latitude component of a latitude-longitude coordinate system to a vertical component of an image coordinate system;
The moving means estimation model generation apparatus according to claim 1, further comprising:
軌跡画像抽出部は、前記水平成分に変換した座標または前記垂直成分に変換した座標が予め決められた画像サイズ内であれば、
前記測位点の存在する画素に定数を加算する手段をさらに備えることを特徴とする請求項2記載の移動手段推定モデル生成装置。
The trajectory image extraction unit, if the coordinate converted to the horizontal component or the coordinate converted to the vertical component is within a predetermined image size,
The moving means estimation model generation apparatus according to claim 2, further comprising means for adding a constant to a pixel in which the positioning point exists.
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、
第1データベースのGPS軌跡セグメントから抽出した軌跡画像を第3データベースに格納する軌跡画像格納ステップと、
第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡画像格納ステップと、
第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、
第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、
第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、
該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、
を有することを特徴とする移動手段推定モデル生成方法。
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
The computer generates a moving means estimation model for estimating the moving means, comprising:
A trajectory image extraction step for imaging the center of gravity of the positioning information of the positioning points when extracting the trajectory image from the positioning information of the positioning points of the GPS trajectory segments stored in the both databases;
A trajectory image storage step of storing the trajectory image extracted from the GPS trajectory segment of the first database in the third database;
A labeled trajectory image storage step of storing a trajectory image extracted from the labeled GPS trajectory segment of the second database in the fourth database in association with the label;
A DNN feature extraction step of extracting DNN feature values from the learning result of the multilayer neural network based on the storage data of the third database and the fourth database, and storing the extracted DNN feature values in the fifth database in correspondence with the labels. When,
A basic feature amount extracting step of extracting a basic feature amount from the GPS trajectory segment with a label in the second database and storing the extracted basic feature amount in the sixth database in association with the label;
A feature amount connecting step of connecting the corresponding DNN feature amounts and basic feature amounts of the fifth database and the sixth database to make a connected feature amount;
An estimated model generating step for generating the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation method characterized by comprising:
第1データベースおよび第2データベースのGPS軌跡セグメントは、測位点の羅列情報として緯度・経度・測位時刻の情報を保有する一方、
軌跡画像抽出ステップは、緯度経度座標系において前記羅列情報における重心座標の経度成分と緯度成分とを計算するステップと、
前記羅列情報における最も南西にある座標の経度座標および緯度座標を計算するステップと、
緯度経度座標系において前記重心座標の経度座標を画像座標系の中心座標の水平成分と一致させる補正値と、緯度経度座標系において前記重心座標の緯度座標を前記中心座標の垂直成分と一致させる補正値と、を計算するステップと、
前記測位点の経度を緯度経度座標系の経度成分から画像座標系の水平成分に変換するステップと、
前記測位点の緯度を緯度経度座標系の緯度成分から画像座標系の垂直成分に変換するステップと、
を有することを特徴とする請求項4記載の移動手段推定モデル生成方法。
While the GPS trajectory segments of the first database and the second database have information on latitude, longitude, and positioning time as enumeration information of positioning points,
The trajectory image extraction step includes a step of calculating a longitude component and a latitude component of the barycentric coordinates in the sequence information in the latitude / longitude coordinate system;
Calculating the longitude and latitude coordinates of the most southwest coordinates in the list information;
Correction value for matching the longitude coordinate of the barycentric coordinate with the horizontal component of the center coordinate of the image coordinate system in the latitude / longitude coordinate system, and correction for matching the latitude coordinate of the barycentric coordinate with the vertical component of the center coordinate in the latitude / longitude coordinate system Calculating a value; and
Converting the longitude of the positioning point from a longitude component of a latitude-longitude coordinate system to a horizontal component of an image coordinate system;
Converting the latitude of the positioning point from a latitude component of a latitude-longitude coordinate system to a vertical component of an image coordinate system;
5. The moving means estimation model generation method according to claim 4, further comprising:
軌跡画像抽出ステップは、前記水平成分に変換した座標または前記垂直成分に変換した座標が予め決められた画像サイズ内であれば、
前記測位点の存在する画素に定数を加算するステップをさらに有することを特徴とする請求項5記載の移動手段推定モデル生成方法。
In the trajectory image extraction step, if the coordinate converted into the horizontal component or the coordinate converted into the vertical component is within a predetermined image size,
6. The moving means estimation model generation method according to claim 5, further comprising a step of adding a constant to a pixel in which the positioning point exists.
請求項1〜3の移動手段推定モデル生成装置としてコンピュータを機能させることを特徴とする移動手段推定モデル生成プログラム。   A moving means estimation model generation program for causing a computer to function as the moving means estimation model generation apparatus according to claim 1.
JP2014211510A 2014-10-16 2014-10-16 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program Active JP6038857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014211510A JP6038857B2 (en) 2014-10-16 2014-10-16 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014211510A JP6038857B2 (en) 2014-10-16 2014-10-16 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Publications (2)

Publication Number Publication Date
JP2016081272A true JP2016081272A (en) 2016-05-16
JP6038857B2 JP6038857B2 (en) 2016-12-07

Family

ID=55958724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014211510A Active JP6038857B2 (en) 2014-10-16 2014-10-16 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Country Status (1)

Country Link
JP (1) JP6038857B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099110A (en) * 2014-11-18 2016-05-30 日本電信電話株式会社 Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program
JP2019211984A (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Learning apparatus, prediction apparatus, method, and program
CN112329832A (en) * 2020-10-27 2021-02-05 中国人民解放军战略支援部队信息工程大学 Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010019811A (en) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> Device and method for determining movement means
JP2012003494A (en) * 2010-06-16 2012-01-05 Sony Corp Information processing device, information processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010019811A (en) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> Device and method for determining movement means
JP2012003494A (en) * 2010-06-16 2012-01-05 Sony Corp Information processing device, information processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099110A (en) * 2014-11-18 2016-05-30 日本電信電話株式会社 Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program
JP2019211984A (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Learning apparatus, prediction apparatus, method, and program
CN112329832A (en) * 2020-10-27 2021-02-05 中国人民解放军战略支援部队信息工程大学 Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network
CN112329832B (en) * 2020-10-27 2023-01-31 中国人民解放军战略支援部队信息工程大学 Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network

Also Published As

Publication number Publication date
JP6038857B2 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
Pilzer et al. Refine and distill: Exploiting cycle-inconsistency and knowledge distillation for unsupervised monocular depth estimation
KR102469261B1 (en) Adaptive artificial neural network selection techniques
US11561943B2 (en) Feature-based deduplication of metadata for places
US11562002B2 (en) Enabling advanced analytics with large data sets
WO2016062095A1 (en) Video classification method and apparatus
US20130086072A1 (en) Method and system for extracting and classifying geolocation information utilizing electronic social media
US10592786B2 (en) Generating labeled data for deep object tracking
Dong et al. A dual-network progressive approach to weakly supervised object detection
JP6038857B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
US20130304363A1 (en) Identifying purpose-based origin-destination using call detailed records
WO2019225597A1 (en) Vacant house determination device, vacant house determination method, and recording medium
Silva et al. A road map for planning-deploying machine vision artifacts in the context of industry 4.0
JP2020507857A (en) Agent navigation using visual input
JP6360000B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
JP6149024B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
JPWO2019171416A1 (en) Image classification system, image classification method and image classification program
JP6174527B2 (en) Moving means estimation apparatus, operation method thereof, and program
CN104463864B (en) Multistage parallel key frame cloud extracting method and system
JP2010151637A (en) Target tracking device
US20220180744A1 (en) System and method for task control based on bayesian meta-reinforcement learning
JP2014149788A (en) Object area boundary estimation device, object area boundary estimation method, and object area boundary estimation program
US9922262B2 (en) Method and apparatus for tracking target object
Zhang et al. A novel framework for semantic segmentation with generative adversarial network
US20230237644A1 (en) Meta-learning for detecting object anomaly from images
JP6927161B2 (en) Learning devices, predictors, methods, and programs

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R150 Certificate of patent or registration of utility model

Ref document number: 6038857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150