JP6360000B2 - Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program - Google Patents

Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program Download PDF

Info

Publication number
JP6360000B2
JP6360000B2 JP2015104089A JP2015104089A JP6360000B2 JP 6360000 B2 JP6360000 B2 JP 6360000B2 JP 2015104089 A JP2015104089 A JP 2015104089A JP 2015104089 A JP2015104089 A JP 2015104089A JP 6360000 B2 JP6360000 B2 JP 6360000B2
Authority
JP
Japan
Prior art keywords
trajectory
map image
database
gps
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015104089A
Other languages
Japanese (ja)
Other versions
JP2016218812A (en
Inventor
結城 遠藤
結城 遠藤
浩之 戸田
浩之 戸田
義昌 小池
義昌 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015104089A priority Critical patent/JP6360000B2/en
Publication of JP2016218812A publication Critical patent/JP2016218812A/en
Application granted granted Critical
Publication of JP6360000B2 publication Critical patent/JP6360000B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する技術に関する。   The present invention relates to a technique for generating a moving means estimation model for estimating moving means based on a GPS trajectory.

スマートフォンの普及に伴い、GPS測位などにより取得されたユーザの位置情報を利用して、ユーザの状況に合わせた情報提供や、ユーザの行動を記録するライフログのサービスが多く利用されるようになった。それに伴い、ユーザの位置情報からユーザの状況を推定する技術が求められている。   With the spread of smartphones, the use of user location information acquired by GPS positioning and the like, and the provision of information according to the user's situation and the life log service that records the user's behavior have come to be frequently used. It was. Accordingly, there is a demand for a technique for estimating the user situation from the user position information.

関連技術の一つとして移動手段判定があげられる。この移動手段判定は、GPS測位やWiFi測位などで取得された位置情報と時刻情報を持つ測定点の系列(GPS軌跡)に対して同一移動手段である区間(セグメント)の抽出と、セグメントに対する移動手段(例えば歩行、自動車、電車など)の推定を行う。   One of related techniques is moving means determination. This moving means determination is performed by extracting a section (segment) that is the same moving means with respect to a series of measurement points (GPS trajectory) having position information and time information acquired by GPS positioning or WiFi positioning, and moving with respect to the segment. Estimation of means (for example, walking, automobile, train, etc.) is performed.

このように移動手段判定は(1)セグメント抽出と(2)移動手段推定の二つのフェーズから構成される。(1)セグメント抽出については、一定時間で区間を区切る方法やGPS軌跡から得られる速度、加速度情報を手がかりとした変化点にもとづく方法などがある。(2)移動手段推定については、GPS軌跡に対する移動手段アノテーションを用いることで、教師あり学習の枠組みで移動手段予測モデルを構築する方法が利用されている(非特許文献1、非特許文献2)。   Thus, the moving means determination is composed of two phases: (1) segment extraction and (2) moving means estimation. (1) As for segment extraction, there are a method of dividing a section at a fixed time, a method based on a change point using a speed and acceleration information obtained from a GPS trajectory, and the like. (2) For moving means estimation, a method is used to construct a moving means prediction model in a supervised learning framework by using moving means annotations for GPS trajectories (Non-patent Documents 1 and 2). .

移動手段推定においては、セグメントにおける単純な測位点の羅列からなる情報から、予測に有効な特徴量を如何に獲得できるかが重要である。非特許文献1及び非特許文献2は、セグメントにおけるGPS軌跡の移動距離、速度、加速度、速度変化率、停止率、方向転換率を特徴量として抽出している。さらに、非特許文献3においては、移動軌跡を表した画像形式のデータからdeep learningを用いて特徴量を抽出し、この特徴量を移動手段予測に利用することでさらに移動手段推定の精度を向上させる手法が開示されている。   In moving means estimation, it is important how a feature quantity effective for prediction can be acquired from information consisting of simple positioning points in a segment. Non-Patent Document 1 and Non-Patent Document 2 extract the movement distance, speed, acceleration, speed change rate, stop rate, and direction change rate of the GPS trajectory in the segment as feature amounts. Furthermore, in Non-Patent Document 3, the feature amount is extracted from the image format data representing the movement trajectory using deep learning, and the feature amount is used for the prediction of the movement unit, thereby further improving the accuracy of the movement unit estimation. The technique to make it disclosed is disclosed.

Zheng, Y., Liu, L., Wang, L., and Xie, X.: Learning transportation mode from raw GPS data for geographic applications on the web, In Proc. of WWW'08, pp. 247-256, 2008.Zheng, Y., Liu, L., Wang, L., and Xie, X .: Learning transportation mode from raw GPS data for geographic applications on the web, In Proc. Of WWW'08, pp. 247-256, 2008 . Zheng, Y., Chen, Y., Li, Q., Xie, X., and Ma, W.-Y.: Understanding transportation modes based on GPS data for web applications, ACM Trans. Web, Vol. 4, No. 1, pp.1:1-1:36, 2010.Zheng, Y., Chen, Y., Li, Q., Xie, X., and Ma, W.-Y .: Understanding transportation modes based on GPS data for web applications, ACM Trans. Web, Vol. 4, No .1, pp.1: 1-1: 36, 2010. 遠藤結城,数原良彦,戸田浩之,小池義昌:”移動手段判定のための表現学習を用いたGPS軌跡からの特徴抽出”,WebDB Forum 2014,2014-11-19.Endo Yuuki, Yoshihiko Kazuhara, Hiroyuki Toda, Yoshimasa Koike: “Feature Extraction from GPS Trajectory Using Representation Learning for Moving Means”, WebDB Forum 2014, 2014-11-19. Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y. and anzagol,P.-A.: Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion. In Proc. of JMLR'10, 11:3371-3408, Dec. 2010.Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y. and anzagol, P.-A .: Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion.In Proc. Of JMLR '10, 11: 3371-3408, Dec. 2010. Rumelhart, D., Hinton, G., and Williams, R. (1986a). Learning representations by back-propagating errors. Nature, 323, 533-536.Rumelhart, D., Hinton, G., and Williams, R. (1986a). Learning representations by back-propagating errors. Nature, 323, 533-536.

しかしながら、非特許文献3に記載された技術では、移動手段推定に利用する特徴量として、セグメント上の地図画像情報が何ら利用されていない。すなわち、移動軌跡に基づく特徴量だけでは移動手段を区別できないときに、地図画像における情報(例えば経路の形や色情報、周囲の建物の景観情報等)を特徴量として利用することができず、移動手段の推定精度が上がらないという問題があった。   However, in the technique described in Non-Patent Document 3, no map image information on the segment is used as a feature amount used for moving means estimation. That is, when the moving means cannot be distinguished only by the feature amount based on the movement trajectory, information in the map image (for example, route shape and color information, landscape information of surrounding buildings, etc.) cannot be used as the feature amount, There was a problem that the estimation accuracy of the moving means did not increase.

本発明は、上記の事情に鑑みなされ、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段の判別を可能とすることを課題とする。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to make it possible to determine a moving unit that cannot be determined by a conventional speed, acceleration, feature amount of a trajectory image, or the like.

そこで、本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用する。   Therefore, the present invention uses a feature amount extracted from a map image corresponding to the GPS trajectory when generating the moving means estimation model for estimating the moving means based on the GPS trajectory.

本発明の装置としての態様は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、前記ラベルなし軌跡地図画像を格納する第3データベースと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、を備える。   An aspect of the device of the present invention is a device that generates a moving device estimation model for estimating a moving device based on a GPS trajectory, and the positioning points acquired by GPS positioning for each section that is the same moving device. A first database for storing enumeration information as GPS trajectory segments; a second database for storing labeled GPS trajectory segments with labels on the GPS trajectory segments; and positioning points for each GPS trajectory segment stored in both databases When extracting the trajectory image from the sequence information, the trajectory image extraction unit that images the center of gravity of the sequence information of the positioning points as the center of the image, and the map image database that stores the map image, A map image acquisition unit for acquiring a map image corresponding to a GPS locus segment; and the first database. A non-labeled trajectory map image is generated based on the trajectory image extracted from the GPS trajectory segment and the map image corresponding to the GPS trajectory segment, while the trajectory image extracted from the GPS trajectory segment with the label of the second database and the relevant label exist A trajectory map image generation unit that generates a labeled trajectory map image based on a map image corresponding to a GPS trajectory segment, a third database that stores the unlabeled trajectory map image, and the labeled trajectory map image as the label. The DNN feature value is extracted from the learning result of the fourth database stored in correspondence with the third database and the storage data of the third database and the fourth database, and the extracted DNN feature value is associated with the label. DNN feature values stored in the fifth database A basic feature amount extraction unit that extracts a basic feature amount from a GPS trajectory segment with a label in the second database and stores the extracted basic feature amount in a sixth database in association with the label; And a seventh database that stores the linked feature values in association with the labels, and a feature value linking unit that connects the DNN feature values and the basic feature values corresponding to each of the five databases and the sixth database. An estimation model generation unit that generates the estimation model based on

本発明の方法としての態様は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、を有する。   According to an aspect of the method of the present invention, a first database that stores, as a GPS trajectory segment, a list of positioning points acquired by GPS positioning for each section that is the same moving means, and a label attached to the GPS trajectory segment A second database for storing labeled GPS trajectory segments, and a computer for generating a moving means estimation model for estimating moving means, the positioning of each GPS trajectory segment stored in both databases; When extracting the trajectory image from the point sequence information, a trajectory image extraction step for imaging the center of gravity of the sequence information of the positioning points as the center of the image, and a map image database for storing the map image are stored in both databases. A map image acquisition step of acquiring a map image corresponding to each GPS locus segment; A trajectory image extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generating step for generating a labeled trajectory map image based on the map image corresponding to the labeled GPS trajectory segment, and a trajectory map image storing step for storing the unlabeled trajectory map image in a third database; From the learning result of the multilayer neural network based on the third database and the stored data of the fourth database, DNN from the labeled locus map image storing step of storing the labeled locus map image in correspondence with the label in the fourth database. Extract features A DNN feature extraction step for storing the extracted DNN feature quantity in the fifth database in correspondence with the label; a basic feature quantity is extracted from the labeled GPS trajectory segment of the second database; and the extracted basic feature quantity The basic feature quantity extracting step for storing the data in the sixth database in association with the label, and the DNN feature quantity and the basic feature quantity respectively corresponding to the fifth database and the sixth database are connected to form a connected feature quantity. A feature amount connecting step; and an estimated model generating step for generating the estimated model based on a seventh database storing the connected feature amount in association with the label.

尚、本発明は上記装置の各手段としてコンピュータを機能させるプログラム若しくは上記方法の各ステップをコンピュータに実行させるプログラムの態様とすることもできる。   Note that the present invention may be in the form of a program that causes a computer to function as each unit of the apparatus or a program that causes a computer to execute each step of the method.

本発明によれば、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。   According to the present invention, it is possible to discriminate moving means that could not be discriminated based on the conventional speed, acceleration, feature amount of a trajectory image, and the like.

本発明の実施形態における移動手段推定モデル生成装置の全体構成図。BRIEF DESCRIPTION OF THE DRAWINGS The whole block diagram of the moving means estimation model production | generation apparatus in embodiment of this invention. (a)は地図画像の可視化例を示した図、(b)は当該例のデータ構造図。(A) is the figure which showed the visualization example of a map image, (b) is the data structure figure of the said example. ラベルなしGPS軌跡セグメントDBのデータ構造図。The data structure figure of GPS locus segment DB without a label. ラベルありGPS軌跡セグメントDBのデータ構造図。The data structure figure of GPS locus segment DB with a label. (a)は軌跡画像の可視化例を示した図、(b)は当該例のデータ構造図。(A) is the figure which showed the visualization example of a locus | trajectory image, (b) is the data structure figure of the said example. 地図画像取得部の処理ステップを示すフローチャート。The flowchart which shows the process step of a map image acquisition part. 軌跡地図画像生成部の処理ステップを示すフローチャート。The flowchart which shows the process step of a locus | trajectory map image generation part. 軌跡地図画像のデータ構造図。The data structure figure of a locus map image. ラベルなし軌跡地図画像DBのデータ構造図。The data structure figure of a locus map image DB without a label. ラベルあり軌跡地図画像DBのデータ構造図。The data structure figure of locus map image DB with a label. 軌跡画像抽出部の処理ステップを示すフローチャート。The flowchart which shows the process step of a locus | trajectory image extraction part. 図11のS130の詳細を示すフローチャート。The flowchart which shows the detail of S130 of FIG. DNN学習部の処理ステップを示すフローチャート。The flowchart which shows the process step of a DNN learning part. DNNDBのデータ構造図。The data structure figure of DNDB. DNN特徴量抽出部の処理ステップを示すフローチャート。The flowchart which shows the process step of a DNN feature-value extraction part. DNN特徴量DBのデータ構造図。The data structure figure of DNN feature-value DB. 基本特徴量DBのデータ構造図。The data structure figure of basic feature-value DB. 特徴量連結部の処理ステップを示すフローチャート。The flowchart which shows the process step of a feature-value connection part.

以下に図面を参照しながら本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

≪概要≫
図1に示された移動手段推定モデル生成装置1は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用することにより、従来よりも高精度に移動手段の判別を行う。
≪Overview≫
The moving means estimation model generation apparatus 1 shown in FIG. 1 uses the feature amount extracted from the map image corresponding to the GPS trajectory when generating the moving means estimation model for estimating the moving means based on the GPS trajectory. Thus, the moving means is determined with higher accuracy than in the past.

≪装置の構成例≫
移動手段推定モデル生成装置1は、コンピュータにより構成され、CPU,主記憶装置(RAM,ROM等),補助記憶装置(ハードディスクドライブ装置,ソリッドステートドライブ装置等)などのハードウェアリソースを備える。
≪Example of device configuration≫
The moving means estimation model generation device 1 is configured by a computer and includes hardware resources such as a CPU, a main storage device (RAM, ROM, etc.), and an auxiliary storage device (hard disk drive device, solid state drive device, etc.).

このハードウェアリソースとソフトウェアリソース(OS,アプリケーションなど)との協同の結果、移動手段推定モデル生成装置1は、ラベルなしGPS軌跡セグメントDB10,ラベルありGPS軌跡セグメントDB20,軌跡画像抽出部30,地図画像DB160,地図画像取得部170,軌跡地図画像生成部180,ラベルなし軌跡地図画像DB40,ラベルあり軌跡地図画像DB50,DNN学習部60,DNNDB70,DNN特徴量抽出部80,DNN特徴量DB90,基本特徴量抽出部100,基本特徴量DB110,特徴量連結部120,連結特徴量DB130,推定モデル生成部140,推定モデルDB150を実装する。   As a result of the cooperation between the hardware resource and the software resource (OS, application, etc.), the moving means estimation model generation device 1 has an unlabeled GPS trajectory segment DB10, a labeled GPS trajectory segment DB20, a trajectory image extraction unit 30, and a map image. DB 160, map image acquisition unit 170, trajectory map image generation unit 180, unlabeled trajectory map image DB 40, labeled trajectory map image DB 50, DNN learning unit 60, DNN DB 70, DNN feature amount extraction unit 80, DNN feature amount DB 90, basic features An amount extraction unit 100, a basic feature amount DB 110, a feature amount connection unit 120, a connection feature amount DB 130, an estimation model generation unit 140, and an estimation model DB 150 are mounted.

ラベルなしGPS軌跡セグメントDB10は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する。   The unlabeled GPS trajectory segment DB 10 stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section which is the same moving means.

ラベルありGPS軌跡セグメントDB20は、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する。   The labeled GPS trajectory segment DB 20 stores a labeled GPS trajectory segment with a label attached to the GPS trajectory segment.

軌跡画像抽出部30は、前記DB10,20に格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、当該測位点の羅列情報の重心を画像の中心として画像化する。   When the trajectory image extraction unit 30 extracts a trajectory image from the enumeration information of the positioning points of the GPS trajectory segments stored in the DBs 10 and 20, the trajectory image extraction unit 30 images the center of gravity of the enumeration information of the positioning points as the center of the image.

地図画像取得部170は、地図画像を格納した地図画像DB160から前記DB10,20に格納された各GPS軌跡セグメントに対応する地図画像を取得する。具体的には、前記DB10,20から一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度並びに緯度を算出し、この経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を地図画像DB160から取得する。   The map image acquisition unit 170 acquires a map image corresponding to each GPS trajectory segment stored in the DBs 10 and 20 from the map image DB 160 storing the map image. Specifically, the longitude and latitude of the barycentric coordinates of the GPS trajectory are calculated based on the GPS trajectory acquired from the DBs 10 and 20 at regular time intervals, and the longitude width centered on the coordinates composed of the longitude and latitude, A map image included in the range of the latitude width is acquired from the map image DB 160.

軌跡地図画像生成部180は、前記DB10のGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する。具体的には、前記DB10のGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルなし軌跡地図画像はラベルなし軌跡地図画像DB40に格納される。   The trajectory map image generation unit 180 generates an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the DB 10 and the map image corresponding to the GPS trajectory segment. Specifically, the unlabeled trajectory map image is configured by combining a vector indicating the pixel element of the trajectory image extracted from the GPS trajectory segment of the DB 10 and a vector indicating the pixel element of the map image corresponding to the segment. A vector indicating the element of the pixel to be generated is generated. The unlabeled locus map image is stored in the unlabeled locus map image DB 40.

また、軌跡地図画像生成部180は、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する。具体的には、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルあり軌跡地図画像は前記ラベルと対応させてラベルあり軌跡地図画像DB50に格納される。   Further, the trajectory map image generation unit 180 generates a labeled trajectory map image based on the trajectory image extracted from the labeled GPS trajectory segment in the DB 20 and the map image corresponding to the labeled GPS trajectory segment. Specifically, the labeled trajectory map image is configured by combining a vector indicating a pixel element of a trajectory image extracted from the labeled GPS trajectory segment of the DB 20 and a vector indicating a map image pixel corresponding to the segment. A vector indicating the element of the pixel to be generated is generated. The labeled trajectory map image is stored in the labeled trajectory map image DB 50 in association with the label.

DNN特徴量抽出部80は、前記DB40,50の格納データに基づくDNN学習部60による多層ニューラルネットワーク(Deep Neural Network)の学習結果をDNNDB70から引き出してDNN特徴量を抽出する。DNN特徴量は前記ラベルと対応させてDNN特徴量DB90に格納される。   The DNN feature quantity extraction unit 80 extracts the DNN feature quantity by extracting the learning result of the multilayer neural network (Deep Neural Network) by the DNN learning unit 60 based on the data stored in the DBs 40 and 50 from the DNN DB 70. The DNN feature value is stored in the DNN feature value DB 90 in association with the label.

基本特徴量抽出部100は、前記DB20のラベルありGPS軌跡セグメントから基本特徴量を抽出し、この抽出した基本特徴量を前記ラベルと対応させて基本特徴量DB110に格納する。   The basic feature amount extraction unit 100 extracts a basic feature amount from the labeled GPS trajectory segment of the DB 20, and stores the extracted basic feature amount in the basic feature amount DB 110 in association with the label.

特徴量連結部120は、DNN特徴量DB90と基本特徴量DB110のそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする。連結特徴量は前記ラベルと対応させて連結特徴量DB130に格納される。   The feature amount linking unit 120 connects the DNN feature amount and the basic feature amount respectively corresponding to the DNN feature amount DB 90 and the basic feature amount DB 110 to obtain a connected feature amount. The connected feature value is stored in the connected feature value DB 130 in association with the label.

推定モデル生成部140は、連結特徴量DB130の連結特徴量に基づき移動手段を推定するための移動手段推定モデルを生成する。移動手段推定モデルは推定モデルDB150に格納される。   The estimation model generation unit 140 generates a moving means estimation model for estimating moving means based on the connected feature values in the connected feature value DB 130. The moving means estimation model is stored in the estimation model DB 150.

前記各DB10,20,40,50,70,90,110,130,150,160は、前記記憶装置に構築されている。尚、移動手段推定モデル生成装置1は、単一のコンピュータに構成してもよく、あるいは複数のコンピュータに構成してもよいものとする。   Each of the DBs 10, 20, 40, 50, 70, 90, 110, 130, 150, and 160 is constructed in the storage device. The moving means estimation model generation apparatus 1 may be configured as a single computer or a plurality of computers.

以下、前記各構成10〜180の詳細を説明する。   Hereinafter, the details of each of the configurations 10 to 180 will be described.

≪ラベルなしGPS軌跡セグメントDB10≫
図3に基づき前記DB10のデータ構造を説明する。この前記DB10には、同一の移動手段である区間(セグメント)毎にGPS測位によって取得された測位点の羅列情報が格納されている。この測位点の羅列情報は、図3においてはGPS軌跡セグメントと示されている。
≪Unlabeled GPS track segment DB10≫
The data structure of the DB 10 will be described with reference to FIG. The DB 10 stores list information of positioning points acquired by GPS positioning for each section (segment) which is the same moving means. The enumeration information of the positioning points is shown as a GPS locus segment in FIG.

このGPS軌跡セグメントは、前記測位点の羅列情報として緯度・経度・測位時刻をペア(組)にした情報を保有する。尚、図3のセグメントIDは、GPS軌跡セグメントに付与されたIDを示し、該IDの単位には特に制約がないものとする。   This GPS trajectory segment holds information in which latitude / longitude / positioning time is paired as enumeration information of the positioning points. The segment ID in FIG. 3 indicates the ID assigned to the GPS trajectory segment, and there are no particular restrictions on the unit of the ID.

≪ラベルありGPS軌跡セグメントDB20≫
図4に基づき前記DB20のデータ構造を説明する。この前記DB20には、GPS軌跡セグメントおよびセグメントIDに加えて、各GPSセグメントに対する移動手段のラベル情報が格納されている。
≪Labeled GPS track segment DB20≫
The data structure of the DB 20 will be described with reference to FIG. In the DB 20, in addition to the GPS trajectory segment and the segment ID, label information of the moving means for each GPS segment is stored.

≪軌跡画像抽出部30≫
軌跡画像抽出部30は、前記各DB10,20からデータを読み出し、それぞれのデータから軌跡画像を抽出する。まず、図11に基づき軌跡画像抽出部30の全体的な処理ステップを説明する。ここでは軌跡画像抽出部30は、処理が開始されると前記DB10からすべてのGPS軌跡セグメントを受け取る(S110)。続いて前記DB20からすべてのラベル情報とGPS軌跡セグメントを受け取る(S120)。
<< Trace image extraction unit 30 >>
The trajectory image extraction unit 30 reads data from each of the DBs 10 and 20 and extracts a trajectory image from each data. First, the overall processing steps of the trajectory image extraction unit 30 will be described with reference to FIG. Here, the trajectory image extraction unit 30 receives all GPS trajectory segments from the DB 10 when the process is started (S110). Subsequently, all label information and GPS trajectory segments are received from the DB 20 (S120).

その後に前記DB10,20から取得した各GPS軌跡セグメントsにおける前記測位点の羅列情報をPsとし、Psから軌跡画像を抽出する(S130)。そして、軌跡画像I、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す(S140)。 Then the enumeration information of the positioning points in each GPS path segment s acquired from the DB10,20 and P s, extracts the path image from P s (S130). Then, the trajectory image I and the segment ID are transferred to the trajectory map image generation unit 180. If there is a label, the label is also delivered (S140).

次いで図12に基づき軌跡画像抽出部30の中心的な処理内容、即ちS130の軌跡画像抽出ステップを詳細に説明する。   Next, the central processing content of the trajectory image extraction unit 30, that is, the trajectory image extraction step of S130 will be described in detail with reference to FIG.

S201:処理が開始されると測位点の羅列情報PsをT秒間隔でサンプリングしたPs’を生成する。ここでTは任意のパラメータとする。 S201: When the process starts the enumerated information P s of the positioning point to produce a P s' sampled at intervals of T seconds. Here, T is an arbitrary parameter.

S202:緯度経度座標系において測位点の羅列情報における重心座標の経度成分centerlngを計算する。具体的には式(1)により計算する。この式(1)中の|Ps’|は、Ps’の要素数を示している。また、p(j).lngは、Ps’におけるj番目の測位点の経度を示している。 S202: Calculate the longitude component center lng of the barycentric coordinates in the enumeration information of the positioning points in the latitude / longitude coordinate system. Specifically, the calculation is performed according to the equation (1). | P s '| in the equation (1) indicates the number of elements of P s '. P (j). lng represents the longitude of the j-th positioning point at P s ′.

Figure 0006360000
Figure 0006360000

S203:緯度経度座標系において測位点の羅列情報における重心座標の緯度成分centerlatを計算する。具体的には式(2)により計算する。この式(2)中のp(j).latは、Ps’におけるj番目の測位点の緯度を示している。 S203: Calculate the latitude component center lat of the barycentric coordinates in the positioning information in the latitude / longitude coordinate system. Specifically, the calculation is performed according to Expression (2). In this equation (2), p (j). “lat” represents the latitude of the j-th positioning point at P s ′.

Figure 0006360000
Figure 0006360000

S204:Ps’における最も南西にある座標の経度座標minlngを計算する。具体的には式(3)により計算する。 S204: The longitude coordinate min lng of the coordinate at the most southwest in P s ′ is calculated. Specifically, the calculation is performed according to Equation (3).

Figure 0006360000
Figure 0006360000

S205:Ps’における最も南西にある座標の緯度座標minlatを計算する。具体的には式(4)により計算する。 S205: The latitude coordinate min lat of the coordinate at the most southwest in P s ' is calculated. Specifically, the calculation is performed according to Equation (4).

Figure 0006360000
Figure 0006360000

S206:緯度経度座標系において測位点の羅列情報における重心座標の経度座標が、画像座標系の中心座標の水平成分と一致させるために用いる補正値offsetxを計算する。具体的には式(5)により計算する。 S206: Calculate a correction value offset x used to make the longitude coordinate of the barycentric coordinate in the arrangement information of the positioning points in the latitude / longitude coordinate system coincide with the horizontal component of the center coordinate of the image coordinate system. Specifically, the calculation is performed according to Equation (5).

Figure 0006360000
Figure 0006360000

ここで、Wmは、軌跡画像の水平幅を表す任意のパラメータである。また、εは定数であり、例えば10-9のような任意の小さい値を用いる。 Here, W m is an arbitrary parameter representing the horizontal width of the trajectory image. Also, ε is a constant, and an arbitrarily small value such as 10 −9 is used.

S207:緯度経度座標系において測位点の羅列情報における重心座標の緯度座標が、画像座標系の中心座標の垂直成分と一致させるために用いる補正値offsetyを計算する。具体的には式(6)により計算する。この式(6)中のHmは、軌跡画像の垂直幅を表す任意のパラメータである。 S207: latitude and longitude coordinates latitude coordinate of the barycentric coordinates in enumerated information of the positioning points in the system, to calculate a correction value offset y used to match the vertical component of the center coordinates of the image coordinate system. Specifically, the calculation is performed according to Equation (6). H m in this equation (6) is an arbitrary parameter representing the vertical width of the trajectory image.

Figure 0006360000
Figure 0006360000

S208:抽出する軌跡画像を表すWm×Hmの行列Iを用意し、すべての要素を0で初期化し、その後にS209〜S212のループ処理に移行する。このループ処理においては、測位点の順番jに1〜|Ps’|まで値を順次に代入する。以下、S209〜S212のループ処理を説明する。 S208: A W m × H m matrix I representing a trajectory image to be extracted is prepared, all elements are initialized with 0, and then the process proceeds to a loop process of S209 to S212. In this loop processing, values from 1 to | P s ' | are sequentially substituted for the order j of positioning points. Hereinafter, the loop processing of S209 to S212 will be described.

S209:p(j).lngを緯度経度座標系の経度成分から画像座標系の水平成分xに変換する。この変換は、式(7)の計算により行われる。この式(7)中のWpは、Ps‘の重心を画像の中心として画像化する際の経度幅を示している。 S209: p (j) . Lng is converted from the longitude component of the latitude-longitude coordinate system to the horizontal component x of the image coordinate system. This conversion is performed by the calculation of Expression (7). W p in this equation (7) indicates the longitude width when imaging with the center of gravity of P s ′ as the center of the image.

Figure 0006360000
Figure 0006360000

S210:p(j).latを緯度経度座標系の緯度成分から画像座標系の垂直成分yに変換する。この変換は、式(8)の計算により行われている。この式(8)中、HpはPs‘の重心を画像の中心として画像化する際の緯度幅を示している。 S210: p (j) . lat is converted from the latitude component of the latitude-longitude coordinate system to the vertical component y of the image coordinate system. This conversion is performed by the calculation of Expression (8). In this equation (8), H p indicates the latitude width when imaging with the center of gravity of P s ′ as the center of the image.

Figure 0006360000
Figure 0006360000

S211:S209で変換した座標xまたはS210で変換した座標yが、決められた画像サイズの範囲内の場合にはS212に進む一方、そうでない場合にはS212をスキップする。   S211: If the coordinate x converted in S209 or the coordinate y converted in S210 is within the determined image size range, the process proceeds to S212, and if not, S212 is skipped.

S212:測位点の存在する画素に定数を加算する。ここでは式(9)の計算を行うものとする。   S212: A constant is added to the pixel where the positioning point exists. Here, the calculation of Expression (9) is performed.

Figure 0006360000
Figure 0006360000

式(9)中のI(x,y)は、行列Iのx行y列の要素を示している。この式(9)の加算処理によって、同じ地点での滞在時間に応じて画素値が調節される。例えば同じ地点に長く滞在すると、軌跡画像の対応する画素値が大きくなり、これにより滞在時間の判別が可能となる。なお、|Ps’|の要素数のすべてをjに代入してS209〜S212の処理が完了すれば、ループ処理を終了する。 I (x, y ) in the equation (9) indicates an element of x rows and y columns of the matrix I. The pixel value is adjusted according to the staying time at the same point by the addition processing of Equation (9). For example, if the user stays at the same point for a long time, the corresponding pixel value of the trajectory image increases, and thus the staying time can be determined. If all the elements of | P s ' | are substituted for j and the processing of S209 to S212 is completed, the loop processing is terminated.

≪地図画像DB160≫
地図画像DB160には、地図画像が格納されている。地図画像とは、図2に示す通り、地物(建物や道路)を一定の縮尺で表した色情報付きの任意の画像であり、人が描いて作成した地図以外にも航空写真やベクトル地図データ等から生成された画像も含まれる。データ構造としては図2に示す通り行列で表現され、行列の各要素には色情報を表すための次元数からなるベクトルを有する。地図画像に用いる色空間は例えば3次元からなるRGB色空間などを利用できる。
Map image DB 160≫
The map image DB 160 stores map images. A map image, as shown in FIG. 2, is an arbitrary image with color information representing features (buildings and roads) at a certain scale. Images generated from data and the like are also included. The data structure is represented by a matrix as shown in FIG. 2, and each element of the matrix has a vector consisting of the number of dimensions for representing color information. For example, a three-dimensional RGB color space can be used as the color space for the map image.

≪地図画像取得部170≫
地図画像取得部170は、ラベルなしGPS軌跡セグメントDB10及びラベルありGPS軌跡セグメントDB20からデータを読み出す。ラベルなしGPS軌跡セグメントDB10のデータ構造は図3に示す通り、セグメントIDおよびGPS軌跡セグメントの情報を持つ。ラベルありGPS軌跡セグメントDB20のデータ構造は、図4に示す通り、セグメントID、ラベル、GPS軌跡セグメントの情報を持つ。
≪Map image acquisition unit 170≫
The map image acquisition unit 170 reads data from the unlabeled GPS track segment DB 10 and the labeled GPS track segment DB 20. As shown in FIG. 3, the data structure of the unlabeled GPS trajectory segment DB 10 has a segment ID and GPS trajectory segment information. The data structure of the labeled GPS trajectory segment DB 20 has segment ID, label, and GPS trajectory segment information as shown in FIG.

読みだしたデータの座標に該当する地図画像を地図画像DB160から読みだし、軌跡画像抽出部30で抽出した軌跡画像と同じサイズに拡大または縮小する。ここで軌跡画像とは、図5に示す通りユーザが通過した経路が直線や曲線によって表されている。データ構造としては図5に示す通り行列で表現され、行列の各要素には当該画素における滞在時間として実数値を持つ。   A map image corresponding to the coordinates of the read data is read from the map image DB 160 and enlarged or reduced to the same size as the trajectory image extracted by the trajectory image extraction unit 30. Here, in the trajectory image, a route that the user has passed is represented by a straight line or a curve as shown in FIG. The data structure is represented by a matrix as shown in FIG. 5, and each element of the matrix has a real value as a stay time in the pixel.

図6は地図画像取得部170の処理の流れを示すフローチャートである。図6を参照して地図画像取得部170の処理の流れを説明する。   FIG. 6 is a flowchart showing the flow of processing of the map image acquisition unit 170. The processing flow of the map image acquisition unit 170 will be described with reference to FIG.

S610:ラベルなしGPS軌跡セグメントDB10またはラベルありGPS軌跡セグメントDB20から、セグメントsにおけるセグメントID、GPS軌跡Psを受け取る。ラベルが存在すればラベルも受け取る。 S610: The segment ID and the GPS trajectory Ps in the segment s are received from the unlabeled GPS trajectory segment DB10 or the labeled GPS trajectory segment DB20. If a label exists, it will also receive a label.

S620:GPS軌跡の測位時間間隔の誤差を軽減するために、GPS軌跡PsをT秒間隔でサンプリングし、Ps’を生成する。ここでTは定数であり、例えば60のような任意の実数値を利用する。 S620: In order to reduce the error in the positioning time interval of the GPS trajectory, the GPS trajectory P s is sampled at intervals of T seconds to generate P s ′. Here, T is a constant, and an arbitrary real value such as 60 is used.

S630:GPS軌跡Psの重心座標の経度centerlngを式(1)の通り算出する。 S630: The longitude center lng of the barycentric coordinates of the GPS trajectory P s is calculated as in equation (1).

Figure 0006360000
Figure 0006360000

S640:GPS軌跡Psの重心座標の緯度centerlatを式(2)の通り算出する。 S640: The latitude center lat of the barycentric coordinates of the GPS trajectory P s is calculated as in equation (2).

Figure 0006360000
Figure 0006360000

S650:(centerlng,centerlat)を中心とする経度幅Wp、緯度幅Hpの範囲に含まれる縮尺scale地図画像を地図画像DB160に要求し、地図画像DB160は該当する地図画像Imを送信する。ここでWpおよびHpは軌跡画像抽出部30と同じ値を利用する。またscaleは1/10000や1/5000など任意の値を設定する。 S650: (center lng, center lat ) and longitude width W p centered on, the scale scale map image included in the scope of the latitudinal width H p requests the map image DB 160, the map image I m of the map image DB 160 is applicable Send. Here, W p and H p use the same value as the trajectory image extraction unit 30. The scale is set to an arbitrary value such as 1/10000 or 1/5000.

S660:取得した地図画像Imを横幅Wmピクセル、縦幅Hmピクセルになるように拡大または縮小する。ここでWmおよびHmは軌跡画像抽出部30と同じ値を利用する。 S660: acquired map image I m the width W m pixels, enlarged or reduced so that the vertical width H m pixels. Here, W m and H m use the same values as the trajectory image extraction unit 30.

S670:地図画像Im、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す。 S670: The map image I m and the segment ID are transferred to the trajectory map image generation unit 180. If there is a label, the label is also delivered.

≪軌跡地図画像生成部180≫
軌跡地図画像生成部180は軌跡画像抽出部30から軌跡画像等を受け取り、地図画像取得部170から地図画像等を受け取る。次に受け取った軌跡画像と地図画像を結合することで軌跡地図画像を生成し、ラベルあり軌跡地図画像DB50またはラベルなし軌跡地図画像DB40に地図軌跡画像等を格納する。
≪Track map image generation unit 180≫
The trajectory map image generation unit 180 receives a trajectory image or the like from the trajectory image extraction unit 30 and receives a map image or the like from the map image acquisition unit 170. Next, a trajectory map image is generated by combining the received trajectory image and the map image, and the map trajectory image or the like is stored in the labeled trajectory map image DB 50 or the unlabeled trajectory map image DB 40.

図7は軌跡地図画像生成部180の処理の流れを示すフローチャートである。図7を参照して、軌跡地図画像生成部180の処理の流れを説明する。   FIG. 7 is a flowchart showing a processing flow of the locus map image generation unit 180. With reference to FIG. 7, the process flow of the locus map image generation unit 180 will be described.

S710:地図画像取得部170から地図画像Im、セグメントIDを受け取る。ラベルがあればラベルも受け取る。 S710: The map image I m and the segment ID are received from the map image acquisition unit 170. If you have a label, you will receive it.

S720:軌跡画像抽出部30から軌跡画像I、セグメントIDを受け取る。   S720: The trajectory image I and the segment ID are received from the trajectory image extraction unit 30.

S730:セグメントIDが一致する軌跡画像と地図画像を結合する。具体的には、各画素に対応するベクトルを結合する。例えば軌跡画像の1画素の要素を表すベクトルが1次元、地図画像の1画素の要素を表すベクトルが3次元であれば、それらを結合した1画素の要素が4次元のベクトルからなる軌跡地図画像I’が生成される。図8に生成される軌跡地図画像I’のデータ構造の例を示す。   S730: A trajectory image having a matching segment ID and a map image are combined. Specifically, the vectors corresponding to the respective pixels are combined. For example, if the vector representing the one-pixel element of the trajectory image is one-dimensional and the vector representing the one-pixel element of the map image is three-dimensional, the one-pixel element obtained by combining them is a four-dimensional vector. I ′ is generated. FIG. 8 shows an example of the data structure of the locus map image I ′ generated.

S740:S710において地図画像取得部170からラベルを受け取っているか否かを確認する。   S740: It is confirmed whether a label is received from the map image acquisition unit 170 in S710.

S750:S740においてYesと判断された場合、セグメントID、ラベル、生成された軌跡画像I’をラベルあり軌跡地図画像DB50に格納する。   S750: When it is determined Yes in S740, the segment ID, the label, and the generated trajectory image I 'are stored in the trajectory map image DB 50 with a label.

S760:S740においてNoと判断された場合、セグメントID、生成された軌跡画像I’をラベルなし軌跡地図画像DB40に格納する。   S760: When it is determined No in S740, the segment ID and the generated trajectory image I 'are stored in the unlabeled trajectory map image DB 40.

≪ラベルなし軌跡地図画像DB40≫
ラベルなし軌跡地図画像DB40は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDを格納するDBである。図9にラベルなし軌跡地図画像DB40のデータ構造の例を示す。
≪Label map image DB40 without label≫
The unlabeled trajectory map image DB 40 is a DB that stores the trajectory map image generated by the trajectory map image generation unit 180 and the segment ID. FIG. 9 shows an example of the data structure of the unlabeled locus map image DB 40.

≪ラベルあり軌跡地図画像DB50≫
ラベルあり軌跡地図画像DB50は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDとラベルを格納するDBである。図10にラベルあり軌跡地図画像DB50のデータ構造の例を示す。
≪Label map image DB50 with label≫
The labeled trajectory map image DB 50 is a DB that stores the trajectory map image generated by the trajectory map image generation unit 180, the segment ID, and the label. FIG. 10 shows an example of the data structure of the labeled locus map image DB50.

≪DNN学習部60,DNNDB70≫
DNN学習部60は、前記DB40,50から軌跡地図画像とラベル情報とを読み出して入力とし、多層ニューラルネットワーク(Deep Neural Network:DNN)の学習を行う。
<< DNN learning unit 60, DNNNDB70 >>
The DNN learning unit 60 reads the trajectory map image and the label information from the DBs 40 and 50 and inputs them, and performs learning of a multilayer neural network (DEEP Neural Network: DNN).

図13に基づきDNN学習部60の処理ステップを説明する。すなわち、処理が開始されると、まず前記DB40から軌跡地図画像を受け取る(S310)。つぎに前記DB50からラベル情報と軌跡地図画像とを受け取る(S320)。   The processing steps of the DNN learning unit 60 will be described with reference to FIG. That is, when the process is started, a trajectory map image is first received from the DB 40 (S310). Next, label information and a trajectory map image are received from the DB 50 (S320).

続いてS310,S320で取得したすべての軌跡地図画像を用いて、DNNのPre−trainingを行う(S330)。Pre−trainingの方法としては、非特許文献4の「Stacked Denoising Autoencoder」など公知の技術を用いることができる。   Subsequently, DN-Pre-training is performed using all the trajectory map images acquired in S310 and S320 (S330). As a pre-training method, a known technique such as “Stacked Denoising Autoencoder” of Non-Patent Document 4 can be used.

Pre−trainingの結果として、中間層の数がNのDNNに対して、出力としてN個の重み行列「W=(W1 T,W2 T,…,Wm TT」およびバイアス項bが得られる。 As a result of the pre-training, N weight matrices “W = (W 1 T , W 2 T ,..., W m T ) T ” and a bias term b are output for a DNN with N intermediate layers Is obtained.

そして、S320で取得した軌跡地図画像とラベル情報とを用いて、DNN全体の重み行列Wおよびバイアス項bを調整するfine−tuningを行う(S340)。fine−tuningの方法は、非特許文献5の誤差逆伝播法などに基づく公知技術を用いることができる。   Then, fine-tuning for adjusting the weight matrix W and the bias term b of the entire DNN is performed using the trajectory map image and label information acquired in S320 (S340). As the fine-tuning method, a known technique based on the error back propagation method of Non-Patent Document 5 or the like can be used.

その後、前記DB70に重み行列Wおよびバイアス項bの情報を格納し(S350)、処理を終了する。これにより前記DB70には、図14に示すように、DNN学習部60の学習結果として、各中間層の番号毎に重み行列Wおよびバイアス項bが格納される。   Thereafter, the information of the weight matrix W and the bias term b is stored in the DB 70 (S350), and the process ends. As a result, as shown in FIG. 14, the DB 70 stores a weight matrix W and a bias term b for each intermediate layer number as a learning result of the DNN learning unit 60.

≪DNN特徴量抽出部80,DNN特徴量DB90≫
DNN特徴量抽出部80は、前記DB70の格納データを読み出して入力とし、DNN特徴量の抽出を実行する。図15に基づき説明すれば、処理が開始されるとDNN特徴量抽出部80は、まず前記DB50からラベル情報と軌跡地図画像とを受け取り(S410)、続いて前記DB70から各中間層における重み行列Wおよびバイアス項bを受け取る(S420)。
<< DNN feature quantity extraction unit 80, DNN feature quantity DB 90 >>
The DNN feature quantity extraction unit 80 reads out the stored data of the DB 70 as an input, and executes DNN feature quantity extraction. Referring to FIG. 15, when the process is started, the DNN feature amount extraction unit 80 first receives the label information and the trajectory map image from the DB 50 (S410), and then the weight matrix in each intermediate layer from the DB 70. W and the bias term b are received (S420).

次に、S420で受け取った重み行列Wおよびバイアス項bとを用いたDNNから、S410で受け取った各軌跡画像の特徴量を計算する(S430)。この特徴量の計算方法としては、非特許文献4などで用いられている公知の方法を利用できる。例えば軌跡画像をDNNの入力層に与えることで得られるDNNの最も深い中間層の出力を軌跡画像の特徴量とすることができる。   Next, the feature amount of each trajectory image received in S410 is calculated from the DNN using the weight matrix W and the bias term b received in S420 (S430). As a method for calculating the feature amount, a known method used in Non-Patent Document 4 or the like can be used. For example, the output of the deepest intermediate layer of DNN obtained by applying the trajectory image to the DNN input layer can be used as the feature amount of the trajectory image.

そして、S430で計算された各軌跡画像の特徴量(以下、DNN特徴量とする。)と、該軌跡画像に対応するラベル情報とのペアを前記DB90に格納し(S440)、処理を終了する。これにより前記DB90には、図16に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報およびDNN特徴量が格納される。   Then, a pair of the feature amount (hereinafter referred to as DNN feature amount) of each trajectory image calculated in S430 and label information corresponding to the trajectory image is stored in the DB 90 (S440), and the processing is terminated. . As a result, as shown in FIG. 16, the DB 90 stores label information and DNN feature values for each segment ID of the GPS trajectory segment.

≪基本特徴量抽出部100,基本特徴量DB110≫
基本特徴量抽出部100は、図1に示すように、前記DB20のデータを読み出し、読み出したデータから特徴量(以下、基本特徴量とする。)を抽出する。この基本特徴の抽出方法としては、例えば非特許文献1,2に記載された公知の技術(feature engineeringなど)を用いることができる。
<< Basic Feature Extraction Unit 100, Basic Feature DB 110 >>
As shown in FIG. 1, the basic feature quantity extraction unit 100 reads the data in the DB 20 and extracts a feature quantity (hereinafter referred to as a basic feature quantity) from the read data. As the basic feature extraction method, for example, a known technique (feature engineering or the like) described in Non-Patent Documents 1 and 2 can be used.

ここで抽出された基本特徴量は、ラベル情報と対応付けて前記DB110に格納される。これにより前記DB110は、図17に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報および基本特徴量が格納される。   The basic feature amount extracted here is stored in the DB 110 in association with the label information. Thereby, as shown in FIG. 17, the DB 110 stores the label information and the basic feature amount for each segment ID of the GPS trajectory segment.

≪特徴量連結部120,連結特徴量DB130≫
特徴量連結部120は、DB90,110のデータを読み出し、それぞれのデータ間における同じセグメントIDに係る基本特徴量とDNN特徴量とを連結させる。ここで連結された特徴量を連結特徴量と呼ぶ。
<< Feature Quantity Linking Unit 120, Linked Feature Quantity DB 130 >>
The feature amount linking unit 120 reads the data in the DBs 90 and 110 and connects the basic feature amount and the DNN feature amount related to the same segment ID between the respective data. The feature quantity connected here is referred to as a connected feature quantity.

図18に基づき特徴量連結部120の処理ステップを説明する。すなわち、特徴量連結部120は、処理が開始されると、まずDB90からセグメントIDとラベル情報とDNN特徴量とを受け取り(S510)、続いて前記DB110からセグメントIDとラベル情報と基本特徴量とを受け取る(S520)。   The processing steps of the feature amount linking unit 120 will be described based on FIG. That is, when the processing is started, the feature amount linking unit 120 first receives the segment ID, label information, and DNN feature amount from the DB 90 (S510), and then receives the segment ID, label information, and basic feature amount from the DB 110. Is received (S520).

つぎに特徴量連結部120は、S510、S520で受け取ったデータ間においてセグメントIDが対応する基本特徴量とDNN特徴量とを特定し、特定された基本特徴量とDNN特徴量とを一つのベクトルに連結し(S530)、連結された連結特徴量を前記DB130に格納する(S540)。これにより前記DB130には、連結特徴量がラベル情報毎に格納される。   Next, the feature amount linking unit 120 specifies the basic feature amount and the DNN feature amount corresponding to the segment ID between the data received in S510 and S520, and combines the specified basic feature amount and the DNN feature amount into one vector. (S530), and the connected feature quantity is stored in the DB 130 (S540). As a result, the connection feature amount is stored in the DB 130 for each label information.

≪推定モデル生成部140,推定モデルDB150≫
推定モデル生成部140は、前記DB130からデータを読み出し、読み出したデータ中の連結特徴量と該連結特徴量に応じたラベル情報とを用いて移動手段推定モデルを生成する。推定モデルの生成には、例えばロジステック回帰やSVM,決定木などの公知技術を用いることができる(非特許文献1,2参照)。ここで生成された移動手段推定モデルは、前記DB150に格納される。
<< Estimated Model Generation Unit 140, Estimated Model DB 150 >>
The estimation model generation unit 140 reads data from the DB 130, and generates a moving means estimation model using the connected feature amount in the read data and the label information corresponding to the connected feature amount. For generating the estimation model, for example, known techniques such as logistic regression, SVM, and decision tree can be used (see Non-Patent Documents 1 and 2). The moving means estimation model generated here is stored in the DB 150.

≪本実施形態の効果≫
以上の移動手段推定モデル生成装置1によれば、地図画像からdeep learningによって特徴量を抽出し、これを従来の特徴量と合わせて移動手段推定に利用することで、従来よりも高精度に移動手段を推定することが可能となる。具体的には、地図画像における経路の色や形、周囲の景観の違い等の移動手段に効果的な特徴量をdeep learningによって定量化及び抽出し、これを利用することにより、従来の速度、加速度や軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。
<< Effects of this embodiment >>
According to the moving means estimation model generation device 1 described above, a feature amount is extracted from a map image by deep learning, and is used for moving means estimation together with a conventional feature amount, thereby moving more accurately than in the past. The means can be estimated. Specifically, the amount of features effective for the moving means such as the color and shape of the route in the map image, the difference in the surrounding landscape, etc. are quantified and extracted by deep learning, and using this, the conventional speed, Moving means that could not be discriminated by the acceleration or the feature amount of the trajectory image can be discriminated.

≪プログラム等≫
本発明は、上記実施形態に限定されるものではなく、各請求項に記載された範囲内で変形・応用して実施することができる。例えば本発明は、移動手段推定モデル生成装置1の各部10〜180の一部もしくは全部として、コンピュータを機能させる移動手段推定モデル生成プログラムとして構成することもできる。このプログラムによれば、S110〜S140,S201〜S212,S310〜S350,S410〜S440,S510〜S540,S610〜670,S710〜S760の一部あるいは全部をコンピュータに実行させることが可能となる。
≪Programs≫
The present invention is not limited to the above-described embodiment, and can be implemented by being modified and applied within the scope described in each claim. For example, this invention can also be comprised as a moving means estimation model production | generation program which makes a computer function as some or all of each part 10-180 of the movement means estimation model production | generation apparatus 1. FIG. According to this program, it is possible to cause the computer to execute a part or all of S110 to S140, S201 to S212, S310 to S350, S410 to S440, S510 to S540, S610 to 670, and S710 to S760.

前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。   The program can be provided through a network such as a website or e-mail. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, BD-ROM, BD-R, or BD-RE. It is also possible to record, save and distribute. This recording medium is read using a recording medium driving device, and the program code itself realizes the processing of the above embodiment, so that the recording medium also constitutes the present invention.

1…移動手段推定モデル生成装置
10…ラベルなしGPS軌跡セグメントDB(第1データベース)
20…ラベルありGPS軌跡セグメントDB(第2データベース)
30…軌跡画像抽出部
40…ラベルなし軌跡地図画像DB(第3データベース)
50…ラベルあり軌跡地図画像DB(第4データベース)
60…DNN学習部
70…DNNDB
80…DNN特徴量抽出部
90…DNN特徴量DB(第5データベース)
100…基本特徴量抽出部
110…基本特徴量DB(第6データベース)
120…特徴量連結部
130…連結特徴量DB(第7データベース)
140…推定モデル生成部
150…推定モデルDB
160…地図画像DB(地図画像データベース)
170…地図画像取得部
180…軌跡地図画像生成部
DESCRIPTION OF SYMBOLS 1 ... Moving means estimation model production | generation apparatus 10 ... GPS locus segment DB (1st database) without a label
20 ... GPS track segment DB with label (second database)
30 ... locus image extraction unit 40 ... unlabeled locus map image DB (third database)
50 ... Trace map image DB with label (4th database)
60 ... DNN learning unit 70 ... DNNDB
80 ... DNN feature quantity extraction unit 90 ... DNN feature quantity DB (fifth database)
100 ... basic feature quantity extraction unit 110 ... basic feature quantity DB (sixth database)
120... Feature amount connecting unit 130...
140 ... Estimated model generation unit 150 ... Estimated model DB
160 ... Map image DB (map image database)
170 ... Map image acquisition unit 180 ... Trajectory map image generation unit

Claims (7)

GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、
地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、
前記ラベルなし軌跡地図画像を格納する第3データベースと、
前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、
前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、
前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、
前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、
前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、
を備えることを特徴とする移動手段推定モデル生成装置。
An apparatus for generating a moving means estimation model for estimating moving means based on a GPS trajectory,
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
A trajectory image extraction unit that visualizes the center of gravity of the positioning information of the positioning points when extracting a trajectory image from the positioning information of the positioning points of each GPS trajectory segment stored in the both databases;
A map image acquisition unit for acquiring a map image corresponding to each GPS trajectory segment stored in both databases from a map image database storing map images;
A trajectory extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generation unit that generates a labeled trajectory map image based on the image and the map image corresponding to the labeled GPS trajectory segment;
A third database for storing the unlabeled locus map image;
A fourth database for storing the labeled locus map image in association with the label;
DNN feature values are extracted from learning results of the multilayer neural network based on the storage data of the third database and the fourth database, and the extracted DNN feature values are stored in the fifth database in correspondence with the labels. An extractor;
A basic feature amount extraction unit that extracts a basic feature amount from the labeled GPS trajectory segment of the second database and stores the extracted basic feature amount in the sixth database in association with the label;
A feature value linking unit that links DNN feature values and basic feature values corresponding to the fifth database and the sixth database, respectively, to be connected feature values;
An estimated model generation unit that generates the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation apparatus comprising:
前記地図画像取得部は、
前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出する手段と、
前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出する手段と、
前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得する手段と、
を備えることを特徴とする請求項1に記載の移動手段推定モデル生成装置。
The map image acquisition unit
Means for calculating the longitude of the center-of-gravity coordinates of the GPS trajectory based on the GPS trajectory acquired from the both databases at regular time intervals;
Means for calculating the latitude of the barycentric coordinates of the GPS trajectory based on the GPS trajectory acquired at an interval of the predetermined time;
Means for obtaining from the map image database a map image included in a range of a longitude width and latitude width centered on the coordinates of the calculated longitude and latitude;
The moving means estimation model generation apparatus according to claim 1, comprising:
前記軌跡地図画像生成部は、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
を備えることを特徴とする請求項1または2に記載の移動手段推定モデル生成装置。
The locus map image generation unit
The unlabeled trajectory map image is configured by combining a vector indicating a pixel element of the trajectory image extracted from the GPS trajectory segment of the first database and a vector indicating a pixel element of the map image corresponding to the GPS trajectory segment. Means for generating a vector indicating the elements of the pixel;
The labeled trajectory map image is obtained by combining a vector indicating a pixel element of the trajectory image extracted from the labeled GPS trajectory segment of the second database and a vector indicating a pixel of the map image corresponding to the labeled GPS trajectory segment. Means for generating a vector indicating the elements of the constituent pixels;
The moving means estimation model generation device according to claim 1, comprising:
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、
地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、
前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、
前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、
前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、
前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、
前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、
前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、
を有することを特徴とする移動手段推定モデル生成方法。
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
The computer generates a moving means estimation model for estimating the moving means, comprising:
A trajectory image extraction step for imaging the center of gravity of the positioning information of the positioning points when extracting the trajectory image from the positioning information of the positioning points of the GPS trajectory segments stored in the both databases;
A map image acquisition step for acquiring a map image corresponding to each GPS trajectory segment stored in the both databases from the map image database storing the map image;
A trajectory extracted from the labeled GPS trajectory segment of the second database while generating an unlabeled trajectory map image based on the trajectory image extracted from the GPS trajectory segment of the first database and the map image corresponding to the GPS trajectory segment. A trajectory map image generating step for generating a labeled trajectory map image based on the image and the map image corresponding to the labeled GPS trajectory segment;
A trajectory map image storage step of storing the unlabeled trajectory map image in a third database;
A labeled trajectory map image storing step of storing the labeled trajectory map image in a fourth database in association with the label;
DNN feature values are extracted from learning results of the multilayer neural network based on the storage data of the third database and the fourth database, and the DNN feature values are stored in the fifth database in correspondence with the labels. An extraction step;
A basic feature amount extracting step of extracting a basic feature amount from the labeled GPS trajectory segment of the second database and storing the extracted basic feature amount in the sixth database in association with the label;
A feature amount linking step of linking the corresponding DNN feature amounts and basic feature amounts of the fifth database and the sixth database, respectively, into a connected feature amount;
An estimated model generating step for generating the estimated model based on a seventh database storing the connected feature values in association with the labels;
A moving means estimation model generation method characterized by comprising:
前記地図画像取得ステップは、
前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出するステップと、
前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出するステップと、
前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得するステップと、
を有することを特徴とする請求項4に記載の移動手段推定モデル生成方法。
The map image acquisition step includes:
Calculating the longitude of the center-of-gravity coordinates of the GPS trajectory based on the GPS trajectory acquired from the both databases at regular time intervals;
Calculating the latitude of the barycentric coordinates of the GPS trajectory based on the GPS trajectory acquired at the predetermined time interval;
Obtaining a map image included in a range of a longitude width and a latitude width from the map image database centered on the coordinates of the calculated longitude and latitude; and
The moving means estimation model generation method according to claim 4, comprising:
前記軌跡地図画像生成ステップは、
前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
を有することを特徴とする請求項4または5に記載の移動手段推定モデル生成方法。
The locus map image generation step includes:
The unlabeled trajectory map image is configured by combining a vector indicating a pixel element of the trajectory image extracted from the GPS trajectory segment of the first database and a vector indicating a pixel element of the map image corresponding to the GPS trajectory segment. Generating a vector indicating the elements of the pixel;
The labeled trajectory map image is obtained by combining a vector indicating a pixel element of the trajectory image extracted from the labeled GPS trajectory segment of the second database and a vector indicating a pixel of the map image corresponding to the labeled GPS trajectory segment. Generating a vector indicating the elements of the constituent pixels;
The moving means estimation model generation method according to claim 4 or 5, characterized by comprising:
請求項1から3のいずれか1項に記載の移動手段推定モデル生成装置としてコンピュータを機能させることを特徴とする移動手段推定モデル生成プログラム。   A moving means estimation model generation program that causes a computer to function as the moving means estimation model generation apparatus according to any one of claims 1 to 3.
JP2015104089A 2015-05-22 2015-05-22 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program Active JP6360000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015104089A JP6360000B2 (en) 2015-05-22 2015-05-22 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015104089A JP6360000B2 (en) 2015-05-22 2015-05-22 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Publications (2)

Publication Number Publication Date
JP2016218812A JP2016218812A (en) 2016-12-22
JP6360000B2 true JP6360000B2 (en) 2018-07-18

Family

ID=57578988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015104089A Active JP6360000B2 (en) 2015-05-22 2015-05-22 Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program

Country Status (1)

Country Link
JP (1) JP6360000B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10599146B2 (en) 2018-03-26 2020-03-24 Ford Global Technologies, Llc Action-conditioned vehicle control
WO2023209938A1 (en) * 2022-04-28 2023-11-02 楽天グループ株式会社 Information processing device, information processing method, program, and learning model

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056002A (en) * 2003-08-07 2005-03-03 Aisin Aw Co Ltd Information processing center, information processing method and information providing system
JP5193808B2 (en) * 2008-11-04 2013-05-08 日本電信電話株式会社 Determination device, determination method, determination program and recording medium for moving means
JP5509932B2 (en) * 2010-03-02 2014-06-04 日本電気株式会社 Mobile communication device, program, and peripheral information output method
JP6189620B2 (en) * 2013-04-11 2017-08-30 株式会社ゼンリンデータコム Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2016218812A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
US11200611B2 (en) Computer vision for unsuccessful queries and iterative search
US11693901B2 (en) Systems and methods for geolocation prediction
US11562002B2 (en) Enabling advanced analytics with large data sets
KR102261061B1 (en) Systems and methods for detecting a point of interest change using a convolutional neural network
Vatsavai et al. Spatiotemporal data mining in the era of big spatial data: algorithms and applications
JP6759844B2 (en) Systems, methods, programs and equipment that associate images with facilities
US9123259B2 (en) Discovering functional groups of an area
Sun et al. Tour recommendations by mining photo sharing social media
Rashdi et al. Scanning technologies to building information modelling: A review
JP7218754B2 (en) Vacant house determination device, vacant house determination method and program
Skoumas et al. Location estimation using crowdsourced spatial relations
JP2018045302A (en) Information processing device, information processing method and program
JP6360000B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
Song et al. Web video geolocation by geotagged social resources
JP6038857B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
Wilson et al. Object tracking and geo-localization from street images
JP6110281B2 (en) Moving unit prediction model generation apparatus, moving unit prediction model generation method, and moving unit prediction model generation program
Kargah-Ostadi et al. Automated real-time roadway asset inventory using artificial intelligence
JP6174527B2 (en) Moving means estimation apparatus, operation method thereof, and program
JP6149024B2 (en) Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program
Ogawa et al. Distress image retrieval for infrastructure maintenance via self-Trained deep metric learning using experts’ knowledge
JP6433876B2 (en) Parameter estimation apparatus, prediction apparatus, method, and program
Rangel et al. Automatic Understanding and Mapping of Regions in Cities Using Google Street View Images
US11989626B2 (en) Generating performance predictions with uncertainty intervals
WO2021033273A1 (en) Estimation program, estimation device, method for generating detection model, learning method, and learning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150