JP6360000B2 - 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム - Google Patents

移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム Download PDF

Info

Publication number
JP6360000B2
JP6360000B2 JP2015104089A JP2015104089A JP6360000B2 JP 6360000 B2 JP6360000 B2 JP 6360000B2 JP 2015104089 A JP2015104089 A JP 2015104089A JP 2015104089 A JP2015104089 A JP 2015104089A JP 6360000 B2 JP6360000 B2 JP 6360000B2
Authority
JP
Japan
Prior art keywords
trajectory
map image
database
gps
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015104089A
Other languages
English (en)
Other versions
JP2016218812A (ja
Inventor
結城 遠藤
結城 遠藤
浩之 戸田
浩之 戸田
義昌 小池
義昌 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015104089A priority Critical patent/JP6360000B2/ja
Publication of JP2016218812A publication Critical patent/JP2016218812A/ja
Application granted granted Critical
Publication of JP6360000B2 publication Critical patent/JP6360000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する技術に関する。
スマートフォンの普及に伴い、GPS測位などにより取得されたユーザの位置情報を利用して、ユーザの状況に合わせた情報提供や、ユーザの行動を記録するライフログのサービスが多く利用されるようになった。それに伴い、ユーザの位置情報からユーザの状況を推定する技術が求められている。
関連技術の一つとして移動手段判定があげられる。この移動手段判定は、GPS測位やWiFi測位などで取得された位置情報と時刻情報を持つ測定点の系列(GPS軌跡)に対して同一移動手段である区間(セグメント)の抽出と、セグメントに対する移動手段(例えば歩行、自動車、電車など)の推定を行う。
このように移動手段判定は(1)セグメント抽出と(2)移動手段推定の二つのフェーズから構成される。(1)セグメント抽出については、一定時間で区間を区切る方法やGPS軌跡から得られる速度、加速度情報を手がかりとした変化点にもとづく方法などがある。(2)移動手段推定については、GPS軌跡に対する移動手段アノテーションを用いることで、教師あり学習の枠組みで移動手段予測モデルを構築する方法が利用されている(非特許文献1、非特許文献2)。
移動手段推定においては、セグメントにおける単純な測位点の羅列からなる情報から、予測に有効な特徴量を如何に獲得できるかが重要である。非特許文献1及び非特許文献2は、セグメントにおけるGPS軌跡の移動距離、速度、加速度、速度変化率、停止率、方向転換率を特徴量として抽出している。さらに、非特許文献3においては、移動軌跡を表した画像形式のデータからdeep learningを用いて特徴量を抽出し、この特徴量を移動手段予測に利用することでさらに移動手段推定の精度を向上させる手法が開示されている。
Zheng, Y., Liu, L., Wang, L., and Xie, X.: Learning transportation mode from raw GPS data for geographic applications on the web, In Proc. of WWW'08, pp. 247-256, 2008. Zheng, Y., Chen, Y., Li, Q., Xie, X., and Ma, W.-Y.: Understanding transportation modes based on GPS data for web applications, ACM Trans. Web, Vol. 4, No. 1, pp.1:1-1:36, 2010. 遠藤結城,数原良彦,戸田浩之,小池義昌:"移動手段判定のための表現学習を用いたGPS軌跡からの特徴抽出",WebDB Forum 2014,2014-11-19. Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y. and anzagol,P.-A.: Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion. In Proc. of JMLR'10, 11:3371-3408, Dec. 2010. Rumelhart, D., Hinton, G., and Williams, R. (1986a). Learning representations by back-propagating errors. Nature, 323, 533-536.
しかしながら、非特許文献3に記載された技術では、移動手段推定に利用する特徴量として、セグメント上の地図画像情報が何ら利用されていない。すなわち、移動軌跡に基づく特徴量だけでは移動手段を区別できないときに、地図画像における情報(例えば経路の形や色情報、周囲の建物の景観情報等)を特徴量として利用することができず、移動手段の推定精度が上がらないという問題があった。
本発明は、上記の事情に鑑みなされ、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段の判別を可能とすることを課題とする。
そこで、本発明は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用する。
本発明の装置としての態様は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、前記ラベルなし軌跡地図画像を格納する第3データベースと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、を備える。
本発明の方法としての態様は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、を有する。
尚、本発明は上記装置の各手段としてコンピュータを機能させるプログラム若しくは上記方法の各ステップをコンピュータに実行させるプログラムの態様とすることもできる。
本発明によれば、従来の速度や加速度、軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。
本発明の実施形態における移動手段推定モデル生成装置の全体構成図。 (a)は地図画像の可視化例を示した図、(b)は当該例のデータ構造図。 ラベルなしGPS軌跡セグメントDBのデータ構造図。 ラベルありGPS軌跡セグメントDBのデータ構造図。 (a)は軌跡画像の可視化例を示した図、(b)は当該例のデータ構造図。 地図画像取得部の処理ステップを示すフローチャート。 軌跡地図画像生成部の処理ステップを示すフローチャート。 軌跡地図画像のデータ構造図。 ラベルなし軌跡地図画像DBのデータ構造図。 ラベルあり軌跡地図画像DBのデータ構造図。 軌跡画像抽出部の処理ステップを示すフローチャート。 図11のS130の詳細を示すフローチャート。 DNN学習部の処理ステップを示すフローチャート。 DNNDBのデータ構造図。 DNN特徴量抽出部の処理ステップを示すフローチャート。 DNN特徴量DBのデータ構造図。 基本特徴量DBのデータ構造図。 特徴量連結部の処理ステップを示すフローチャート。
以下に図面を参照しながら本発明の実施形態について説明する。
≪概要≫
図1に示された移動手段推定モデル生成装置1は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成するにあたり、GPS軌跡に対応した地図画像から抽出した特徴量を利用することにより、従来よりも高精度に移動手段の判別を行う。
≪装置の構成例≫
移動手段推定モデル生成装置1は、コンピュータにより構成され、CPU,主記憶装置(RAM,ROM等),補助記憶装置(ハードディスクドライブ装置,ソリッドステートドライブ装置等)などのハードウェアリソースを備える。
このハードウェアリソースとソフトウェアリソース(OS,アプリケーションなど)との協同の結果、移動手段推定モデル生成装置1は、ラベルなしGPS軌跡セグメントDB10,ラベルありGPS軌跡セグメントDB20,軌跡画像抽出部30,地図画像DB160,地図画像取得部170,軌跡地図画像生成部180,ラベルなし軌跡地図画像DB40,ラベルあり軌跡地図画像DB50,DNN学習部60,DNNDB70,DNN特徴量抽出部80,DNN特徴量DB90,基本特徴量抽出部100,基本特徴量DB110,特徴量連結部120,連結特徴量DB130,推定モデル生成部140,推定モデルDB150を実装する。
ラベルなしGPS軌跡セグメントDB10は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する。
ラベルありGPS軌跡セグメントDB20は、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する。
軌跡画像抽出部30は、前記DB10,20に格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、当該測位点の羅列情報の重心を画像の中心として画像化する。
地図画像取得部170は、地図画像を格納した地図画像DB160から前記DB10,20に格納された各GPS軌跡セグメントに対応する地図画像を取得する。具体的には、前記DB10,20から一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度並びに緯度を算出し、この経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を地図画像DB160から取得する。
軌跡地図画像生成部180は、前記DB10のGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する。具体的には、前記DB10のGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルなし軌跡地図画像はラベルなし軌跡地図画像DB40に格納される。
また、軌跡地図画像生成部180は、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する。具体的には、前記DB20のラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する。ラベルあり軌跡地図画像は前記ラベルと対応させてラベルあり軌跡地図画像DB50に格納される。
DNN特徴量抽出部80は、前記DB40,50の格納データに基づくDNN学習部60による多層ニューラルネットワーク(Deep Neural Network)の学習結果をDNNDB70から引き出してDNN特徴量を抽出する。DNN特徴量は前記ラベルと対応させてDNN特徴量DB90に格納される。
基本特徴量抽出部100は、前記DB20のラベルありGPS軌跡セグメントから基本特徴量を抽出し、この抽出した基本特徴量を前記ラベルと対応させて基本特徴量DB110に格納する。
特徴量連結部120は、DNN特徴量DB90と基本特徴量DB110のそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする。連結特徴量は前記ラベルと対応させて連結特徴量DB130に格納される。
推定モデル生成部140は、連結特徴量DB130の連結特徴量に基づき移動手段を推定するための移動手段推定モデルを生成する。移動手段推定モデルは推定モデルDB150に格納される。
前記各DB10,20,40,50,70,90,110,130,150,160は、前記記憶装置に構築されている。尚、移動手段推定モデル生成装置1は、単一のコンピュータに構成してもよく、あるいは複数のコンピュータに構成してもよいものとする。
以下、前記各構成10〜180の詳細を説明する。
≪ラベルなしGPS軌跡セグメントDB10≫
図3に基づき前記DB10のデータ構造を説明する。この前記DB10には、同一の移動手段である区間(セグメント)毎にGPS測位によって取得された測位点の羅列情報が格納されている。この測位点の羅列情報は、図3においてはGPS軌跡セグメントと示されている。
このGPS軌跡セグメントは、前記測位点の羅列情報として緯度・経度・測位時刻をペア(組)にした情報を保有する。尚、図3のセグメントIDは、GPS軌跡セグメントに付与されたIDを示し、該IDの単位には特に制約がないものとする。
≪ラベルありGPS軌跡セグメントDB20≫
図4に基づき前記DB20のデータ構造を説明する。この前記DB20には、GPS軌跡セグメントおよびセグメントIDに加えて、各GPSセグメントに対する移動手段のラベル情報が格納されている。
≪軌跡画像抽出部30≫
軌跡画像抽出部30は、前記各DB10,20からデータを読み出し、それぞれのデータから軌跡画像を抽出する。まず、図11に基づき軌跡画像抽出部30の全体的な処理ステップを説明する。ここでは軌跡画像抽出部30は、処理が開始されると前記DB10からすべてのGPS軌跡セグメントを受け取る(S110)。続いて前記DB20からすべてのラベル情報とGPS軌跡セグメントを受け取る(S120)。
その後に前記DB10,20から取得した各GPS軌跡セグメントsにおける前記測位点の羅列情報をPsとし、Psから軌跡画像を抽出する(S130)。そして、軌跡画像I、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す(S140)。
次いで図12に基づき軌跡画像抽出部30の中心的な処理内容、即ちS130の軌跡画像抽出ステップを詳細に説明する。
S201:処理が開始されると測位点の羅列情報PsをT秒間隔でサンプリングしたPs’を生成する。ここでTは任意のパラメータとする。
S202:緯度経度座標系において測位点の羅列情報における重心座標の経度成分centerlngを計算する。具体的には式(1)により計算する。この式(1)中の|Ps’|は、Ps’の要素数を示している。また、p(j).lngは、Ps’におけるj番目の測位点の経度を示している。
Figure 0006360000
S203:緯度経度座標系において測位点の羅列情報における重心座標の緯度成分centerlatを計算する。具体的には式(2)により計算する。この式(2)中のp(j).latは、Ps’におけるj番目の測位点の緯度を示している。
Figure 0006360000
S204:Ps’における最も南西にある座標の経度座標minlngを計算する。具体的には式(3)により計算する。
Figure 0006360000
S205:Ps’における最も南西にある座標の緯度座標minlatを計算する。具体的には式(4)により計算する。
Figure 0006360000
S206:緯度経度座標系において測位点の羅列情報における重心座標の経度座標が、画像座標系の中心座標の水平成分と一致させるために用いる補正値offsetxを計算する。具体的には式(5)により計算する。
Figure 0006360000
ここで、Wmは、軌跡画像の水平幅を表す任意のパラメータである。また、εは定数であり、例えば10-9のような任意の小さい値を用いる。
S207:緯度経度座標系において測位点の羅列情報における重心座標の緯度座標が、画像座標系の中心座標の垂直成分と一致させるために用いる補正値offsetyを計算する。具体的には式(6)により計算する。この式(6)中のHmは、軌跡画像の垂直幅を表す任意のパラメータである。
Figure 0006360000
S208:抽出する軌跡画像を表すWm×Hmの行列Iを用意し、すべての要素を0で初期化し、その後にS209〜S212のループ処理に移行する。このループ処理においては、測位点の順番jに1〜|Ps’|まで値を順次に代入する。以下、S209〜S212のループ処理を説明する。
S209:p(j).lngを緯度経度座標系の経度成分から画像座標系の水平成分xに変換する。この変換は、式(7)の計算により行われる。この式(7)中のWpは、Ps‘の重心を画像の中心として画像化する際の経度幅を示している。
Figure 0006360000
S210:p(j).latを緯度経度座標系の緯度成分から画像座標系の垂直成分yに変換する。この変換は、式(8)の計算により行われている。この式(8)中、HpはPs‘の重心を画像の中心として画像化する際の緯度幅を示している。
Figure 0006360000
S211:S209で変換した座標xまたはS210で変換した座標yが、決められた画像サイズの範囲内の場合にはS212に進む一方、そうでない場合にはS212をスキップする。
S212:測位点の存在する画素に定数を加算する。ここでは式(9)の計算を行うものとする。
Figure 0006360000
式(9)中のI(x,y)は、行列Iのx行y列の要素を示している。この式(9)の加算処理によって、同じ地点での滞在時間に応じて画素値が調節される。例えば同じ地点に長く滞在すると、軌跡画像の対応する画素値が大きくなり、これにより滞在時間の判別が可能となる。なお、|Ps’|の要素数のすべてをjに代入してS209〜S212の処理が完了すれば、ループ処理を終了する。
≪地図画像DB160≫
地図画像DB160には、地図画像が格納されている。地図画像とは、図2に示す通り、地物(建物や道路)を一定の縮尺で表した色情報付きの任意の画像であり、人が描いて作成した地図以外にも航空写真やベクトル地図データ等から生成された画像も含まれる。データ構造としては図2に示す通り行列で表現され、行列の各要素には色情報を表すための次元数からなるベクトルを有する。地図画像に用いる色空間は例えば3次元からなるRGB色空間などを利用できる。
≪地図画像取得部170≫
地図画像取得部170は、ラベルなしGPS軌跡セグメントDB10及びラベルありGPS軌跡セグメントDB20からデータを読み出す。ラベルなしGPS軌跡セグメントDB10のデータ構造は図3に示す通り、セグメントIDおよびGPS軌跡セグメントの情報を持つ。ラベルありGPS軌跡セグメントDB20のデータ構造は、図4に示す通り、セグメントID、ラベル、GPS軌跡セグメントの情報を持つ。
読みだしたデータの座標に該当する地図画像を地図画像DB160から読みだし、軌跡画像抽出部30で抽出した軌跡画像と同じサイズに拡大または縮小する。ここで軌跡画像とは、図5に示す通りユーザが通過した経路が直線や曲線によって表されている。データ構造としては図5に示す通り行列で表現され、行列の各要素には当該画素における滞在時間として実数値を持つ。
図6は地図画像取得部170の処理の流れを示すフローチャートである。図6を参照して地図画像取得部170の処理の流れを説明する。
S610:ラベルなしGPS軌跡セグメントDB10またはラベルありGPS軌跡セグメントDB20から、セグメントsにおけるセグメントID、GPS軌跡Psを受け取る。ラベルが存在すればラベルも受け取る。
S620:GPS軌跡の測位時間間隔の誤差を軽減するために、GPS軌跡PsをT秒間隔でサンプリングし、Ps’を生成する。ここでTは定数であり、例えば60のような任意の実数値を利用する。
S630:GPS軌跡Psの重心座標の経度centerlngを式(1)の通り算出する。
Figure 0006360000
S640:GPS軌跡Psの重心座標の緯度centerlatを式(2)の通り算出する。
Figure 0006360000
S650:(centerlng,centerlat)を中心とする経度幅Wp、緯度幅Hpの範囲に含まれる縮尺scale地図画像を地図画像DB160に要求し、地図画像DB160は該当する地図画像Imを送信する。ここでWpおよびHpは軌跡画像抽出部30と同じ値を利用する。またscaleは1/10000や1/5000など任意の値を設定する。
S660:取得した地図画像Imを横幅Wmピクセル、縦幅Hmピクセルになるように拡大または縮小する。ここでWmおよびHmは軌跡画像抽出部30と同じ値を利用する。
S670:地図画像Im、セグメントIDを軌跡地図画像生成部180に受け渡す。ラベルがあればラベルも受け渡す。
≪軌跡地図画像生成部180≫
軌跡地図画像生成部180は軌跡画像抽出部30から軌跡画像等を受け取り、地図画像取得部170から地図画像等を受け取る。次に受け取った軌跡画像と地図画像を結合することで軌跡地図画像を生成し、ラベルあり軌跡地図画像DB50またはラベルなし軌跡地図画像DB40に地図軌跡画像等を格納する。
図7は軌跡地図画像生成部180の処理の流れを示すフローチャートである。図7を参照して、軌跡地図画像生成部180の処理の流れを説明する。
S710:地図画像取得部170から地図画像Im、セグメントIDを受け取る。ラベルがあればラベルも受け取る。
S720:軌跡画像抽出部30から軌跡画像I、セグメントIDを受け取る。
S730:セグメントIDが一致する軌跡画像と地図画像を結合する。具体的には、各画素に対応するベクトルを結合する。例えば軌跡画像の1画素の要素を表すベクトルが1次元、地図画像の1画素の要素を表すベクトルが3次元であれば、それらを結合した1画素の要素が4次元のベクトルからなる軌跡地図画像I’が生成される。図8に生成される軌跡地図画像I’のデータ構造の例を示す。
S740:S710において地図画像取得部170からラベルを受け取っているか否かを確認する。
S750:S740においてYesと判断された場合、セグメントID、ラベル、生成された軌跡画像I’をラベルあり軌跡地図画像DB50に格納する。
S760:S740においてNoと判断された場合、セグメントID、生成された軌跡画像I’をラベルなし軌跡地図画像DB40に格納する。
≪ラベルなし軌跡地図画像DB40≫
ラベルなし軌跡地図画像DB40は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDを格納するDBである。図9にラベルなし軌跡地図画像DB40のデータ構造の例を示す。
≪ラベルあり軌跡地図画像DB50≫
ラベルあり軌跡地図画像DB50は、軌跡地図画像生成部180によって生成された軌跡地図画像とセグメントIDとラベルを格納するDBである。図10にラベルあり軌跡地図画像DB50のデータ構造の例を示す。
≪DNN学習部60,DNNDB70≫
DNN学習部60は、前記DB40,50から軌跡地図画像とラベル情報とを読み出して入力とし、多層ニューラルネットワーク(Deep Neural Network:DNN)の学習を行う。
図13に基づきDNN学習部60の処理ステップを説明する。すなわち、処理が開始されると、まず前記DB40から軌跡地図画像を受け取る(S310)。つぎに前記DB50からラベル情報と軌跡地図画像とを受け取る(S320)。
続いてS310,S320で取得したすべての軌跡地図画像を用いて、DNNのPre−trainingを行う(S330)。Pre−trainingの方法としては、非特許文献4の「Stacked Denoising Autoencoder」など公知の技術を用いることができる。
Pre−trainingの結果として、中間層の数がNのDNNに対して、出力としてN個の重み行列「W=(W1 T,W2 T,…,Wm TT」およびバイアス項bが得られる。
そして、S320で取得した軌跡地図画像とラベル情報とを用いて、DNN全体の重み行列Wおよびバイアス項bを調整するfine−tuningを行う(S340)。fine−tuningの方法は、非特許文献5の誤差逆伝播法などに基づく公知技術を用いることができる。
その後、前記DB70に重み行列Wおよびバイアス項bの情報を格納し(S350)、処理を終了する。これにより前記DB70には、図14に示すように、DNN学習部60の学習結果として、各中間層の番号毎に重み行列Wおよびバイアス項bが格納される。
≪DNN特徴量抽出部80,DNN特徴量DB90≫
DNN特徴量抽出部80は、前記DB70の格納データを読み出して入力とし、DNN特徴量の抽出を実行する。図15に基づき説明すれば、処理が開始されるとDNN特徴量抽出部80は、まず前記DB50からラベル情報と軌跡地図画像とを受け取り(S410)、続いて前記DB70から各中間層における重み行列Wおよびバイアス項bを受け取る(S420)。
次に、S420で受け取った重み行列Wおよびバイアス項bとを用いたDNNから、S410で受け取った各軌跡画像の特徴量を計算する(S430)。この特徴量の計算方法としては、非特許文献4などで用いられている公知の方法を利用できる。例えば軌跡画像をDNNの入力層に与えることで得られるDNNの最も深い中間層の出力を軌跡画像の特徴量とすることができる。
そして、S430で計算された各軌跡画像の特徴量(以下、DNN特徴量とする。)と、該軌跡画像に対応するラベル情報とのペアを前記DB90に格納し(S440)、処理を終了する。これにより前記DB90には、図16に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報およびDNN特徴量が格納される。
≪基本特徴量抽出部100,基本特徴量DB110≫
基本特徴量抽出部100は、図1に示すように、前記DB20のデータを読み出し、読み出したデータから特徴量(以下、基本特徴量とする。)を抽出する。この基本特徴の抽出方法としては、例えば非特許文献1,2に記載された公知の技術(feature engineeringなど)を用いることができる。
ここで抽出された基本特徴量は、ラベル情報と対応付けて前記DB110に格納される。これにより前記DB110は、図17に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報および基本特徴量が格納される。
≪特徴量連結部120,連結特徴量DB130≫
特徴量連結部120は、DB90,110のデータを読み出し、それぞれのデータ間における同じセグメントIDに係る基本特徴量とDNN特徴量とを連結させる。ここで連結された特徴量を連結特徴量と呼ぶ。
図18に基づき特徴量連結部120の処理ステップを説明する。すなわち、特徴量連結部120は、処理が開始されると、まずDB90からセグメントIDとラベル情報とDNN特徴量とを受け取り(S510)、続いて前記DB110からセグメントIDとラベル情報と基本特徴量とを受け取る(S520)。
つぎに特徴量連結部120は、S510、S520で受け取ったデータ間においてセグメントIDが対応する基本特徴量とDNN特徴量とを特定し、特定された基本特徴量とDNN特徴量とを一つのベクトルに連結し(S530)、連結された連結特徴量を前記DB130に格納する(S540)。これにより前記DB130には、連結特徴量がラベル情報毎に格納される。
≪推定モデル生成部140,推定モデルDB150≫
推定モデル生成部140は、前記DB130からデータを読み出し、読み出したデータ中の連結特徴量と該連結特徴量に応じたラベル情報とを用いて移動手段推定モデルを生成する。推定モデルの生成には、例えばロジステック回帰やSVM,決定木などの公知技術を用いることができる(非特許文献1,2参照)。ここで生成された移動手段推定モデルは、前記DB150に格納される。
≪本実施形態の効果≫
以上の移動手段推定モデル生成装置1によれば、地図画像からdeep learningによって特徴量を抽出し、これを従来の特徴量と合わせて移動手段推定に利用することで、従来よりも高精度に移動手段を推定することが可能となる。具体的には、地図画像における経路の色や形、周囲の景観の違い等の移動手段に効果的な特徴量をdeep learningによって定量化及び抽出し、これを利用することにより、従来の速度、加速度や軌跡画像の特徴量などでは判別できなかった移動手段が判別可能となる。
≪プログラム等≫
本発明は、上記実施形態に限定されるものではなく、各請求項に記載された範囲内で変形・応用して実施することができる。例えば本発明は、移動手段推定モデル生成装置1の各部10〜180の一部もしくは全部として、コンピュータを機能させる移動手段推定モデル生成プログラムとして構成することもできる。このプログラムによれば、S110〜S140,S201〜S212,S310〜S350,S410〜S440,S510〜S540,S610〜670,S710〜S760の一部あるいは全部をコンピュータに実行させることが可能となる。
前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
1…移動手段推定モデル生成装置
10…ラベルなしGPS軌跡セグメントDB(第1データベース)
20…ラベルありGPS軌跡セグメントDB(第2データベース)
30…軌跡画像抽出部
40…ラベルなし軌跡地図画像DB(第3データベース)
50…ラベルあり軌跡地図画像DB(第4データベース)
60…DNN学習部
70…DNNDB
80…DNN特徴量抽出部
90…DNN特徴量DB(第5データベース)
100…基本特徴量抽出部
110…基本特徴量DB(第6データベース)
120…特徴量連結部
130…連結特徴量DB(第7データベース)
140…推定モデル生成部
150…推定モデルDB
160…地図画像DB(地図画像データベース)
170…地図画像取得部
180…軌跡地図画像生成部

Claims (7)

  1. GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、
    同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
    前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
    前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、
    地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得部と、
    前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成部と、
    前記ラベルなし軌跡地図画像を格納する第3データベースと、
    前記ラベルあり軌跡地図画像を前記ラベルと対応させて格納する第4データベースと、
    前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、
    前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、
    前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、
    前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、
    を備えることを特徴とする移動手段推定モデル生成装置。
  2. 前記地図画像取得部は、
    前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出する手段と、
    前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出する手段と、
    前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得する手段と、
    を備えることを特徴とする請求項1に記載の移動手段推定モデル生成装置。
  3. 前記軌跡地図画像生成部は、
    前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
    前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成する手段と、
    を備えることを特徴とする請求項1または2に記載の移動手段推定モデル生成装置。
  4. 同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
    前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
    に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、
    前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、
    地図画像を格納する地図画像データベースから前記両データベースに格納された各GPS軌跡セグメントに対応する地図画像を取得する地図画像取得ステップと、
    前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像と当該GPS軌跡セグメントに対応する地図画像とに基づきラベルなし軌跡地図画像を生成する一方で前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像と当該ラベルありGPS軌跡セグメントに対応する地図画像とに基づきラベルあり軌跡地図画像を生成する軌跡地図画像生成ステップと、
    前記ラベルなし軌跡地図画像を第3データベースに格納する軌跡地図画像格納ステップと、
    前記ラベルあり軌跡地図画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡地図画像格納ステップと、
    前記第3データベースと前記第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、
    前記第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、
    前記第5データベースと前記第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、
    前記連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、
    を有することを特徴とする移動手段推定モデル生成方法。
  5. 前記地図画像取得ステップは、
    前記両データベースから一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の経度を算出するステップと、
    前記一定時間の間隔で取得したGPS軌跡に基づき当該GPS軌跡の重心座標の緯度を算出するステップと、
    前記算出された経度と緯度とからなる座標を中心とする経度幅、緯度幅の範囲に含まれる地図画像を前記地図画像データベースから取得するステップと、
    を有することを特徴とする請求項4に記載の移動手段推定モデル生成方法。
  6. 前記軌跡地図画像生成ステップは、
    前記第1データベースのGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該GPS軌跡セグメントに対応する地図画像の画素の要素を示すベクトルとの結合により前記ラベルなし軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
    前記第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像の画素の要素を示すベクトルと当該ラベルありGPS軌跡セグメントに対応する地図画像の画素を示すベクトルとの結合により前記ラベルあり軌跡地図画像を構成する画素の要素を示すベクトルを生成するステップと、
    を有することを特徴とする請求項4または5に記載の移動手段推定モデル生成方法。
  7. 請求項1から3のいずれか1項に記載の移動手段推定モデル生成装置としてコンピュータを機能させることを特徴とする移動手段推定モデル生成プログラム。
JP2015104089A 2015-05-22 2015-05-22 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム Active JP6360000B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015104089A JP6360000B2 (ja) 2015-05-22 2015-05-22 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015104089A JP6360000B2 (ja) 2015-05-22 2015-05-22 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム

Publications (2)

Publication Number Publication Date
JP2016218812A JP2016218812A (ja) 2016-12-22
JP6360000B2 true JP6360000B2 (ja) 2018-07-18

Family

ID=57578988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015104089A Active JP6360000B2 (ja) 2015-05-22 2015-05-22 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム

Country Status (1)

Country Link
JP (1) JP6360000B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10599146B2 (en) 2018-03-26 2020-03-24 Ford Global Technologies, Llc Action-conditioned vehicle control
US20250020474A1 (en) * 2022-04-28 2025-01-16 Rakuten Group, Inc. Information processing apparatus, information processing method, non-transitory computer readable medium, and learning model

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056002A (ja) * 2003-08-07 2005-03-03 Aisin Aw Co Ltd 情報処理センター、情報処理方法及び情報提供システム
JP5193808B2 (ja) * 2008-11-04 2013-05-08 日本電信電話株式会社 移動手段の判定装置、判定方法、判定プログラム及びその記録媒体
JP5509932B2 (ja) * 2010-03-02 2014-06-04 日本電気株式会社 移動通信装置、プログラム及び周辺情報出力方法
JP6189620B2 (ja) * 2013-04-11 2017-08-30 株式会社ゼンリンデータコム 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2016218812A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
US11562002B2 (en) Enabling advanced analytics with large data sets
US11200611B2 (en) Computer vision for unsuccessful queries and iterative search
Vatsavai et al. Spatiotemporal data mining in the era of big spatial data: algorithms and applications
US9123259B2 (en) Discovering functional groups of an area
JP7218754B2 (ja) 空き家判定装置、空き家判定方法およびプログラム
CN111989665A (zh) 设备上图像识别
EP3443482B1 (en) Classifying entities in digital maps using discrete non-trace positioning data
US11989626B2 (en) Generating performance predictions with uncertainty intervals
CN115861400B (zh) 目标对象检测方法、训练方法、装置以及电子设备
Jia et al. Automatic land-cover update approach integrating iterative training sample selection and a Markov Random Field model
Xu et al. Use of active learning for earthquake damage mapping from UAV photogrammetric point clouds
US12511730B2 (en) Meta-learning for detecting object anomaly from images
JP2018045302A (ja) 情報処理装置、情報処理方法及びプログラム
Kargah-Ostadi et al. Automated real-time roadway asset inventory using artificial intelligence
JP6360000B2 (ja) 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
JP6038857B2 (ja) 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
JP2015099467A (ja) 移動手段予測モデル生成装置、移動手段予測モデル生成方法及び移動手段予測モデル生成プログラム
KR102763022B1 (ko) 서비스로서의 합성 데이터 프레임세트 패키지 스토어를 갖는 분산 컴퓨팅 시스템
JP6149024B2 (ja) 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
JP6433876B2 (ja) パラメータ推定装置、予測装置、方法、及びプログラム
Yanenko et al. Introducing social distance to st-dbscan
WO2021111499A1 (ja) 学習装置、推定装置、方法およびプログラム
US20250363775A1 (en) Geolocalizing oblique aerial imagery
WO2021033273A1 (ja) 推定プログラム、推定装置、検出モデルの生成方法、学習方法、および、学習装置
Bui et al. Drone-Based Road Marking Condition Mapping: A Drone Imaging and Geospatial Pipeline for Asset Management

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350