JP2016081272A - Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program - Google Patents
Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program Download PDFInfo
- Publication number
- JP2016081272A JP2016081272A JP2014211510A JP2014211510A JP2016081272A JP 2016081272 A JP2016081272 A JP 2016081272A JP 2014211510 A JP2014211510 A JP 2014211510A JP 2014211510 A JP2014211510 A JP 2014211510A JP 2016081272 A JP2016081272 A JP 2016081272A
- Authority
- JP
- Japan
- Prior art keywords
- database
- trajectory
- latitude
- longitude
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、GPS軌跡に基づき移動手段を推定するため移動手段推定モデルを生成する技術に関する。 The present invention relates to a technique for generating a moving means estimation model for estimating moving means based on a GPS trajectory.
スマートフォンの普及に伴い、GPS測位などにより取得されたユーザの位置情報を利用して、ユーザの状況に合わせた情報提供や、ユーザの行動を記録するライフログのサービスが多く利用されるようになった。それに伴い、ユーザの位置情報からユーザの状況を推定する技術が求められている。 With the spread of smartphones, the use of user location information acquired by GPS positioning and the like, and the provision of information according to the user's situation and the life log service that records the user's behavior have come to be frequently used. It was. Accordingly, there is a demand for a technique for estimating the user situation from the user position information.
関連技術の一つとして移動手段判定があげられる。この移動手段判定は、GPS測位やWiFi測位などで取得された位置情報と時刻情報を持つ測定点の系列(GPS軌跡)に対して同一移動手段である区間(セグメント)の抽出と、セグメントに対する移動手段(例えば歩行、自動車、電車など)の推定を行う。 One of related techniques is moving means determination. This moving means determination is performed by extracting a section (segment) that is the same moving means with respect to a series of measurement points (GPS trajectory) having position information and time information acquired by GPS positioning or WiFi positioning, and moving with respect to the segment. Estimation of means (for example, walking, automobile, train, etc.) is performed.
このように移動手段判定は、セグメント抽出と移動手段推定の二つのフェーズから構成される。セグメント抽出としては、一定時間で区間を区切る方法やGPS軌跡から得られる速度や加速度情報を手がかりとした変化点に基づく方法などがある。 Thus, the moving means determination is composed of two phases of segment extraction and moving means estimation. As segment extraction, there are a method of dividing a section at a fixed time, a method based on a change point using a speed and acceleration information obtained from a GPS trajectory, and the like.
また、移動手段推定としては、非特許文献1,2に示すように、GPS軌跡に対する移動手段アノテーションを用いることで、教師あり学習の枠組みで移動手段予測モデルを構築する方法が利用されている。移動手段推定においては、単純な測位点の羅列情報から、予測に有効な特徴量を如何に獲得できるかが重要である。データから特徴量を抽出するアプローチは大きく二つに分けられる。
Further, as the movement means estimation, as shown in
一つ目のアプローチはタスクに有効な特徴を人手で設計(feature engineering)することである。例えば移動手段推定の従来研究(非特許文献1)は、GPS軌跡から移動距離や速度、加速度など計10次元の特徴を設計し、その特徴量をもとに予測モデルを構築している。さらにその後、非特許文献2の発展的な特徴量が追加され、予測精度の向上が確認されている。
The first approach is to manually design the features that are useful for the task (feature engineering). For example, in the conventional research (Non-patent Document 1) of moving means estimation, 10-dimensional features such as moving distance, speed, and acceleration are designed from a GPS trajectory, and a prediction model is constructed based on the features. Further, after that, the advanced feature amount of Non-Patent
具体的には、一定区間において大きな速度変化のある測位点の割合(Velocity Change Rate)、停止している測位点の割合(Stop Rate)、大きく進行方向を変えている測位点の割合(Heading Change Rate)の三つである。 Specifically, the ratio of positioning points having a large speed change in a certain section (Velocity Change Rate), the ratio of positioning points that have stopped (Stop Rate), the ratio of positioning points that have greatly changed the traveling direction (Heading Change). Rate).
二つ目のアプローチは表現学習である。表現学習は人によってほとんど加工されていない生のデータから、より抽象的な高次の特徴量を自動で抽出することができる。代表的な手法として、近年画像認識や音声認識の分野において高い認識精度を達成した非特許文献3の「Deep Learning」が注目を集めている。「Deep Learning」は、多層のニューラルネットワーク(Deep Neural Network;DNN)を学習することで、高い表現力をもつ特徴量を獲得することができる。
The second approach is expression learning. Expression learning can automatically extract more abstract higher-order features from raw data that is hardly processed by humans. As a representative technique, “Deep Learning” of Non-Patent
移動手段推定においては、従来の「Feature Engineering」のアプローチに加えて、「Deep Learning」のアプローチを新しく利用することで、新たな特徴付与が可能になる。新たな特徴量を用いた教師あり学習を行うことで、予測精度の向上が期待できる。 In moving means estimation, in addition to the conventional “Feature Engineering” approach, the “Deep Learning” approach is newly used, and new features can be assigned. By performing supervised learning using a new feature amount, an improvement in prediction accuracy can be expected.
移動手段推定において「Deep Learning」を用いる際には、各セグメントのGPS軌跡を画像化した軌跡画像を生成し、それらの軌跡画像を表現学習の入力として用いる方法が考えられる。GPS軌跡の範囲は、セグメントによって異なるため、全範囲を同じ縮尺で画像化すると、異なる画像サイズの軌跡画像が生成される。 When “Deep Learning” is used in moving means estimation, a method of generating a trajectory image obtained by imaging a GPS trajectory of each segment and using the trajectory image as an input for expression learning is conceivable. Since the range of the GPS trajectory differs depending on the segment, if the entire range is imaged at the same scale, trajectory images having different image sizes are generated.
「Deep Learning」を適用するには、基本的に画像サイズが同じである必要があるため、画像化の際には、例えば拡大縮小などの方法によって各セグメントの軌跡画像を同じサイズに揃える必要がある。さらにGPS軌跡を画像化する際には連続的な情報を離散的な情報に変換する必要がある. In order to apply “Deep Learning”, the image size basically needs to be the same. Therefore, when imaging, it is necessary to align the trajectory image of each segment to the same size by a method such as enlargement / reduction, for example. is there. Furthermore, it is necessary to convert continuous information into discrete information when imaging the GPS trajectory.
しかしながら、各セグメントの全範囲のGPS軌跡を画像化して、拡大縮小によって大きさを揃えた場合には画像ごとに縮尺が変わってしまうため、距離的な情報が失われてしまい効果的に表現学習を行えないという問題があった(問題1)。 However, if the GPS trajectory of the entire range of each segment is converted into an image and the size is made uniform by enlargement / reduction, the scale changes for each image, so distance information is lost and effective expression learning is performed. (Problem 1).
また、経緯度という高精細なGPS軌跡を量子化する際に、画像サイズを小さくするほど移動手段推定に有効なGPS軌跡の情報が多く失われる一方、画像サイズを大きくするほど情報が失われるのは防げるが、全画素に対してGPS軌跡に関わる情報を持つ画素が少ない画像となり、効果的に表現学習を行えないという問題もあった(問題2)。この問題1,2により従来は、高精度に移動手段を推定できる移動手段推定モデルを提供することが困難であった。
Also, when quantizing a high-definition GPS trajectory called longitude and latitude, the smaller the image size, the more GPS track information that is effective for moving means estimation is lost, while the larger the image size, the more information is lost. However, there is also a problem that the expression learning is not performed effectively because there are few pixels having information related to the GPS trajectory for all pixels (problem 2). Conventionally, due to these
本発明は、従来の問題1,2を解決するためになされ、移動手段を高精度に推定可能な移動手段推定モデルを生成することを解決課題としている。
An object of the present invention is to solve the
本発明の一態様は、GPS軌跡に基づき移動手段を推定するための移動手段推定モデルを生成する装置であって、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、第1データベースのGPS軌跡セグメントから抽出した軌跡画像を格納する第3データベースと、第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて格納する第4データベースと、第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、を備える。 One aspect of the present invention is an apparatus that generates a moving unit estimation model for estimating a moving unit based on a GPS trajectory, and includes a list of positioning points acquired by GPS positioning for each section that is the same moving unit. A first database for storing GPS trajectory segments, a second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments, and a list of positioning points for each GPS trajectory segment stored in both databases When extracting a trajectory image from information, a trajectory image extraction unit that visualizes the center of gravity of the enumeration information of the positioning points as the center of the image, a third database that stores a trajectory image extracted from the GPS trajectory segment of the first database, , The trajectory image extracted from the labeled GPS trajectory segment of the second database is the label The DNN feature quantity is extracted from the learning result of the fourth database stored in response and the third database and the stored data of the fourth database, and the extracted DNN feature quantity is associated with the label. 5 Basic features for extracting a basic feature from a DN trajectory extraction unit stored in a database and a GPS locus segment with a label in the second database, and storing the extracted basic feature in a sixth database in association with the label A quantity extracting unit, a feature quantity linking unit that links DNN feature quantities and basic feature quantities corresponding to the fifth database and the sixth database, respectively, and makes the linked feature quantity correspond to the label. An estimated model generation unit configured to generate the estimated model based on a seventh database to be stored.
本発明の他の態様は、同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、第1データベースのGPS軌跡セグメントから抽出した軌跡画像を第3データベースに格納する軌跡画像格納ステップと、第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡画像格納ステップと、第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、を有する。 According to another aspect of the present invention, there is provided a first database that stores, as a GPS trajectory segment, a list of positioning points acquired by GPS positioning for each section that is the same moving means, and a label that labels the GPS trajectory segment. A second database that stores GPS trajectory segments, and a computer that generates a moving means estimation model for estimating moving means, the positioning points of the GPS trajectory segments stored in both databases When extracting the trajectory image from the sequence information, the trajectory image extraction step for imaging the center of gravity of the sequence information of the positioning point as the center of the image, and the trajectory image extracted from the GPS trajectory segment of the first database in the third database A trajectory image storing step to store, and a GPS trajectory segment with a label of the second database The trajectory image extracted from the trajectory image is stored in the fourth database in correspondence with the label, and the DNN feature quantity is extracted from the learning result of the third neural network based on the third database and the stored data of the fourth database. A DNN feature amount extracting step for storing the extracted DNN feature amount in the fifth database in correspondence with the label, and extracting a basic feature amount from the labeled GPS trajectory segment of the second database, and extracting the extracted basic feature A feature extraction step for storing a quantity in the sixth database in association with the label, and a feature that connects the DNN feature quantity and the basic feature quantity in the fifth database and the sixth database, respectively, to form a connected feature quantity A quantity linking step and storing the linked feature quantity in association with the label It has a estimation model generation step of generating the estimation model on the basis of the seventh database that, the.
なお、本発明は、前記装置としてコンピュータを機能させるプログラムの態様としてもよい。このプログラムは、ネットワークや記録媒体などを通じて提供することができる。 In addition, this invention is good also as an aspect of the program which makes a computer function as said apparatus. This program can be provided through a network or a recording medium.
本発明によれば、移動手段を高精度に推定可能な移動手段推定モデルを生成することができる。 According to the present invention, it is possible to generate a moving means estimation model capable of estimating moving means with high accuracy.
以下、本発明の実施形態に係る移動手段推定モデル生成装置を説明する。この移動手段推定モデル生成装置は、GPS軌跡の重心付近を画像化し、さらに滞在時間の情報をも付加した形で画像化して軌跡画像を作成する。この軌跡画像をDNN学習させ、DNN特徴量を得る。このDNN特徴量を従来の基本特徴量に加えて利用することで移動手段の推定精度を向上させている。 Hereinafter, a moving means estimation model generation device according to an embodiment of the present invention will be described. This moving means estimation model generation device creates an image of the vicinity of the center of gravity of the GPS locus, and further forms an image of the locus by adding information on the staying time. This trajectory image is subjected to DNN learning to obtain DNN feature values. By using this DNN feature amount in addition to the conventional basic feature amount, the estimation accuracy of the moving means is improved.
≪構成例≫
図1に基づき前記移動手段推定モデル生成装置の全体構成を説明する。この移動手段推定モデル生成装置1は、コンピュータにより構成され、CPU,主記憶装置(RAM,ROM等),補助記憶装置(ハードディスクドライブ装置,ソリッドステートドライブ装置等)などのハードウェアリースを備える。
≪Configuration example≫
Based on FIG. 1, the whole structure of the said movement means estimation model production | generation apparatus is demonstrated. The moving means estimation
このハードウェアリソースとソフトウェアリソース(OS,アプリケーションなど)との協同の結果、移動手段推定モデル生成装置1は、ラベルなしGPS軌跡セグメントDB10,ラベルありGPS軌跡セグメントDB20,軌跡画像抽出部30,ラベルなし軌跡画像DB40,ラベルあり軌跡画像DB50,DNN学習部60,DNNDB70,DNN特徴量抽出部80,DNN特徴量DB90,基本特徴量抽出部100,基本特徴量DB110,特徴量連結部120,連結特徴量DB130,推定モデル生成部140,推定モデルDB150を実装する。
As a result of the cooperation between the hardware resource and the software resource (OS, application, etc.), the moving means estimation
この各DB10,20,40,50,70,90,110,130,150は、前記記憶装置に構築されている。なお、移動手段推定モデル生成装置1は、単一のコンピュータに構成してもよく、あるいは複数のコンピュータに構成してもよいものとする。以下、前記各構成10〜150の詳細を説明する。
Each
≪ラベルなしGPS軌跡セグメントDB10≫
図2に基づき前記DB10のデータ構造を説明する。この前記DB10には、同一の移動手段である区間(セグメント)毎にGPS測位によって取得された測位点の羅列情報が格納されている。この測位点の羅列情報は、図2中ではGPS軌跡セグメントと示されている。
≪Unlabeled GPS track segment DB10≫
The data structure of the
このGPS軌跡セグメントは、前記測位点の羅列情報として緯度・経度・測位時刻をペア(組)にした情報を保有する。なお、図2中のセグメントIDは、GPS軌跡セグメントに付与されたIDを示し、該IDの単位には特に制約がないものとする。 This GPS trajectory segment holds information in which latitude / longitude / positioning time is paired as enumeration information of the positioning points. The segment ID in FIG. 2 indicates the ID assigned to the GPS trajectory segment, and there are no particular restrictions on the unit of the ID.
≪ラベルありGPS軌跡セグメントDB20≫
図3に基づき前記DB20のデータ構造を説明する。この前記DB20には、GPS軌跡セグメントおよびセグメントIDに加えて、各GPSセグメントに対する移動手段のラベル情報が格納されている。
≪Labeled GPS track segment DB20≫
The data structure of the
≪ラベルなし軌跡画像DB40≫
図4に基づき前記DB40のデータ構造を説明する。この前記DB40には、軌跡画像抽出部30から受け取った軌跡画像と、前記DB10のGPS軌跡セグメントに対応するセグメントIDの各情報とが格納されている。ここでは軌跡画像は行列で表され、各画素と対応する行列の各要素には実数値が入る。
<< Unlabeled locus image DB40 >>
The data structure of the
≪ラベルあり軌跡画像DB50≫
図5に基づき前記DB50のデータ構造を説明する。この前記DB50には、軌跡画像抽出部30から受け取った軌跡画像と、前記DB20のGPS軌跡セグメントに対応するセグメントIDおよびラベル情報とが格納されている。ここでも軌跡画像は行列で表され、各画素と対応する行列の各要素には実数値が入る。
<< Label image DB50 with label >>
The data structure of the
≪軌跡画像抽出部30≫
軌跡画像抽出部30は、前記各DB10,20からデータを読み出し、それぞれのデータから軌跡画像を抽出する。ここで抽出した軌跡画像を前記DB40,50に格納させる。
<< Trace
The trajectory
まず、図6に基づき軌跡画像抽出部30の全体的な処理ステップを説明する。ここでは軌跡画像抽出部30は、処理が開始されると前記DB10からすべてのGPS軌跡セグメントを受け取る(S110)。続いて前記DB20からすべてのラベル情報とGPS軌跡セグメントを受け取る(S120)。
First, the overall processing steps of the trajectory
その後に前記DB10,20から取得した各GPS軌跡セグメントsにおける前記測位点の羅列情報をPsとし、Psから軌跡画像を抽出する(S130)。そして、前記DB20のGPS軌跡セグメントから抽出した軌跡画像と、該軌跡画像に対応するラベル情報とを前記DB50に格納する(S140)。また、前記DB20のGPS軌跡セグメントから抽出した軌跡画像を前記DB40に格納し(S150)、処理を終了する。
Then the enumeration information of the positioning points in each GPS path segment s acquired from the DB10,20 and P s, extracts the path image from P s (S130). Then, the trajectory image extracted from the GPS trajectory segment of the
つぎに図7に基づき軌跡画像抽出部30の中心的な処理内容、即ちS130の軌跡画像抽出ステップを詳細に説明する。
Next, the central processing content of the trajectory
S201:処理が開始されると測位点の羅列情報PsをT秒間隔でサンプリングしたPs’を生成する。ここでTは任意のパラメータとする。 S201: When the process starts the enumerated information P s of the positioning point to produce a P s' sampled at intervals of T seconds. Here, T is an arbitrary parameter.
S202:緯度経度座標系において測位点の羅列情報における重心座標の緯度成分centerlngを計算する。具体的には式(1)により計算する。この式(1)中の|Ps’|は、Ps’の要素数を示している。また、p(j).lngは、Ps’におけるj番目の測位点の経度を示している。 S202: Calculate the latitude component center lng of the barycentric coordinates in the positioning point enumeration information in the latitude / longitude coordinate system. Specifically, the calculation is performed according to the equation (1). | P s '| in the equation (1) indicates the number of elements of P s '. In addition, p (j) . lng represents the longitude of the j-th positioning point at P s ′.
S203:緯度経度系において測位点の羅列情報における重心座標の緯度成分centerlatを計算する。具体的には式(2)により計算する。この式(2)中のp(j).latは、Ps’におけるj番目の測位点の緯度を示している。 S203: Calculate the latitude component center lat of the center-of-gravity coordinates in the list information of the positioning points in the latitude / longitude system. Specifically, the calculation is performed according to Expression (2). In this equation (2), p (j) . “lat” represents the latitude of the j-th positioning point at P s ′.
S204:Ps’における最も南西にある座標の経度座標minlngを計算する。具体的には式(3)により計算する。 S204: The longitude coordinate min lng of the coordinate at the most southwest in P s ′ is calculated. Specifically, the calculation is performed according to Equation (3).
S205:Ps’における最も南西にある座標の緯度座標minlatを計算する。具体的には式(4)により計算する。 S205: The latitude coordinate min lat of the coordinate at the most southwest in P s ' is calculated. Specifically, the calculation is performed according to Equation (4).
S206:緯度経度座標系において測位点の羅列情報における重心座標の経度座標が、画像座標系の中心座標の水平成分と一致させるために用いる補正値offsetxを計算する。具体的には式(5)により計算する。 S206: Calculate a correction value offset x used to make the longitude coordinate of the barycentric coordinate in the arrangement information of the positioning points in the latitude / longitude coordinate system coincide with the horizontal component of the center coordinate of the image coordinate system. Specifically, the calculation is performed according to Equation (5).
ここでWmは、軌跡画像の水平幅を表す任意のパラメータである。また、εは定数であり、例えば10-9のような任意の小さい値を用いる。 Here, W m is an arbitrary parameter representing the horizontal width of the trajectory image. Also, ε is a constant, and an arbitrarily small value such as 10 −9 is used.
S207:緯度経度座標系において測位点の羅列情報における重心座標の緯度座標が、画像座標系の中心座標の垂直成分と一致させるために用いる補正値offsetyを計算する。具体的には式(6)により計算する。この式(6)中のHmは、軌跡画像の垂直幅を表す任意のパラメータである。 S207: latitude and longitude coordinates latitude coordinate of the barycentric coordinates in enumerated information of the positioning points in the system, to calculate a correction value offset y used to match the vertical component of the center coordinates of the image coordinate system. Specifically, the calculation is performed according to Equation (6). H m in this equation (6) is an arbitrary parameter representing the vertical width of the trajectory image.
S208:抽出する軌跡画像を表すWm×Hmの行列Iを用意し、すべての要素を0で初期化し、その後にS209〜S212のループ処理に移行する。このループ処理においては、測位点の順番jに1〜|Ps’|まで値を順次に代入する。以下、S209〜S212のループ処理を説明する。 S208: A W m × H m matrix I representing a trajectory image to be extracted is prepared, all elements are initialized with 0, and then the process proceeds to a loop process of S209 to S212. In this loop processing, values from 1 to | P s ' | are sequentially substituted for the order j of positioning points. Hereinafter, the loop processing of S209 to S212 will be described.
S209:p(j).lngを緯度経度座標系の経度成分から画像座標系の水平成分xに変換する。この変換は、式(7)の計算により行われる。この式(7)中のWpは、PS’の重心を画像の中心として画像化する際の経度幅を示している。 S209: p (j) . Lng is converted from the longitude component of the latitude-longitude coordinate system to the horizontal component x of the image coordinate system. This conversion is performed by the calculation of Expression (7). W p in this equation (7) indicates the longitude width when imaging with the center of gravity of P S ′ as the center of the image.
S210:p(j).latを緯度経度座標系の経度成分から画像座標系の垂直成分yに変換する。この変換は、式(8)の計算により行われている。この式(8)中、HpはPS’の重心を画像の中心として画像化する際の緯度幅を示している。 S210: p (j) . lat is converted from the longitude component of the latitude-longitude coordinate system to the vertical component y of the image coordinate system. This conversion is performed by the calculation of Expression (8). In this equation (8), H p represents the latitude width when imaging with the center of gravity of P S ′ as the center of the image.
S211:S209で変換した座標xまたはS210で変換した座標yが、決められた画像サイズの範囲内の場合にはS212に進む一方、そうでない場合にはS212をスキップする。 S211: If the coordinate x converted in S209 or the coordinate y converted in S210 is within the determined image size range, the process proceeds to S212, and if not, S212 is skipped.
S212:測位点の存在する画素に定数を加算する。ここでは式(9)の計算を行うものとする。 S212: A constant is added to the pixel where the positioning point exists. Here, the calculation of Expression (9) is performed.
式(9)中のI(x,y)は、行列Iのx行y列の要素を示している。この式(9)の加算処理によって、同じ地点での滞在時間に応じて画素値が調節される。例えば同じ地点に長く滞在すると、軌跡画像の対応する画素値が大きくなり、これにより滞在時間の判別が可能となる。なお、|Ps’|の要素数のすべてをjに代入してS209〜S212の処理が完了すれば、ループ処理を終了する。 I (x, y ) in the equation (9) indicates an element of x rows and y columns of the matrix I. The pixel value is adjusted according to the staying time at the same point by the addition processing of Equation (9). For example, if the user stays at the same point for a long time, the corresponding pixel value of the trajectory image increases, and thus the staying time can be determined. If all the elements of | P s ' | are substituted for j and the processing of S209 to S212 is completed, the loop processing is terminated.
≪DNN学習部60,DNNDB70≫
DNN学習部60は、前記DB40,50から軌跡画像とラベル情報とを読み出して入力とし、多層ニューラルネットワーク(Deep Neural Network:DNN)の学習を行う。
<<
The
図8に基づきDNN学習部30の処理ステップを説明する。すなわち、処理が開始されると、まず前記DB40から軌跡画像を受け取る(S310)。つぎに前記DB50からラベル情報と軌跡画像とを受け取る(S320)。
The processing steps of the
続いてS310,S320で取得したすべての軌跡画像を用いて、DNNのPre−trainingを行う(S330)。Pre−trainingの方法としては、非特許文献4の「Stacked Denoising Autoencoder」など公知の技術を用いることができる。 Subsequently, DN-Pre-training is performed using all the trajectory images acquired in S310 and S320 (S330). As a pre-training method, a known technique such as “Stacked Denoising Autoencoder” of Non-Patent Document 4 can be used.
Pre−trainingの結果として、中間層の数がNのDNNに対して、出力としてN個の重み行列「W=(W1 T,W2 T,...,Wm T)T」およびバイアス項bが得られる。 As a result of the pre-training, N weight matrices “W = (W 1 T , W 2 T ,..., W m T ) T ” and a bias are output as an output for a DNN having N intermediate layers. The term b is obtained.
そして、S320で取得した軌跡画像とラベル情報とを用いて、DNN全体の重み行列Wおよびバイアス項bを調整するfine−tuningを行う(S340)。fine−tuningの方法は、非特許文献5の誤差逆伝播法などに基づく公知技術を用いることができる。 Then, fine-tuning for adjusting the weight matrix W and the bias term b of the entire DNN is performed using the trajectory image and label information acquired in S320 (S340). As the fine-tuning method, a known technique based on the error back propagation method of Non-Patent Document 5 or the like can be used.
その後、前記DB70に重み行列Wおよびバイアス項bの情報を格納し(S350)、処理を終了する。これにより前記DB70には、図9に示すように、DNN学習部60の学習結果として、各中間層の番号毎に重み行列Wおよびバイアス項bが格納される。
Thereafter, the information of the weight matrix W and the bias term b is stored in the DB 70 (S350), and the process ends. As a result, as shown in FIG. 9, the
≪DNN特徴量抽出部80,DNN特徴量DB90≫
DNN特徴量抽出部80は、前記DB70の格納データを読み出して入力とし、DNN特徴量の抽出を実行する。図10に基づき説明すれば、処理が開始されるとDNN特徴量抽出部80は、まず前記DB50からラベル情報と軌跡画像とを受け取り(S410)、続いて前記DB70から各中間層における重み行列Wおよびバイアス項bを受け取る(S420)。
<< DNN feature
The DNN feature
つぎにS420で受け取った重み行列Wおよびバイアス項bとを用いたDNNから、S410で受け取った各軌跡画像の特徴量を計算する(S430)。この特徴量の計算方法としては、非特許文献4などで用いられている公知の方法を利用できる。例えば軌跡画像をDNNの入力層に与えることで得られるDNNの最も深い中間層の出力を軌跡画像の特徴量とすることができる。 Next, the feature amount of each trajectory image received in S410 is calculated from the DNN using the weight matrix W and the bias term b received in S420 (S430). As a method for calculating the feature amount, a known method used in Non-Patent Document 4 or the like can be used. For example, the output of the deepest intermediate layer of DNN obtained by applying the trajectory image to the DNN input layer can be used as the feature amount of the trajectory image.
そして、S430で計算された各軌跡画像の特徴量(DNN特徴量)と、該軌跡画像に対応するラベル情報とのペアを前記DB90に格納し(S440)、処理を終了する。これにより前記DB90には、図11に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報およびDNN特徴量が格納される。
Then, the pair of the feature amount (DNN feature amount) of each trajectory image calculated in S430 and the label information corresponding to the trajectory image is stored in the DB 90 (S440), and the processing is terminated. As a result, as shown in FIG. 11, the
≪基本特徴量抽出部100,基本特徴量DB110≫
基本特徴量抽出部100は、図1に示すように、前記DB20のデータを読み出し、読み出したデータから特徴量(基本特徴量)を抽出する。この基本特徴量の抽出方法としては、例えば非特許文献1,2に記載された公知の技術(feature engineeringなど)を用いることができる。
<< Basic
As shown in FIG. 1, the basic feature
ここで抽出された基本特徴量は、ラベル情報と対応付けて前記DB110に格納される。これにより前記DB110は、図12に示すように、GPS軌跡セグメントのセグメントID毎にラベル情報および基本特徴量が格納される。
The basic feature amount extracted here is stored in the
≪特徴量連結部120,連結特徴量DB130≫
特徴量連結部120は、前記各DB90,110のデータを読み出し、それぞれのデータ間における同じセグメントIDに係る基本特徴量とDNN特徴量とを連結させる。ここで連結された特徴量を連結特徴量と呼ぶ。
<< Feature
The feature
図13に基づき特徴量連結部120の処理ステップを説明する。すなわち、特徴量連結部120は、処理が開始されると、まず前記DB90からセグメントIDとラベル情報とDNN特徴量とを受け取り(S510)、続いて前記DB110からセグメントIDとラベル情報と基本特徴量とを受け取る(S520)。
The processing steps of the feature
つぎに特徴量連結部120は、S510、S520で受け取ったデータ間においてセグメントIDが対応する基本特徴量とDNN特徴量とを特定し、特定された基本特徴量とDNN特徴量とを一つのベクトルに連結し(S530)、連結された連結特徴量を前記DB130に格納する(S540)。これにより前記DB130には、連結特徴量がラベル情報毎に格納される。
Next, the feature
≪推定モデル生成部140,推定モデルDB150≫
推定モデル生成部140は、前記DB130からデータを読み出し、読み出したデータ中の連結特徴量と該連結特徴量に応じたラベル情報とを用いて移動手段推定モデルを生成する。推定モデルの生成には、例えばロジステック回帰やSVM,決定木などの公知技術を用いることができる(非特許文献1,2参照)。ここで生成された移動手段推定モデルは、前記DB150に格納される。
<< Estimated
The estimation
このような移動手段推定モデル生成装置1によれば、軌跡画像抽出部30のS130は、GPS軌跡セグメントから軌跡画像を抽出する際、GPS軌跡の尺度を変えずに重心付近を画像化するため(S201〜S212)、移動手段推定に有効な情報を多く含む領域を画像化した軌跡画像を生成することができる。
According to such a moving means estimation
また、画像サイズを大きくせずに各画素に滞在時間の情報を保持させることにより(S212)、移動手段推定に有効なGPS軌跡の情報の損失を防ぐとともに、全画素に対してGPS軌跡に関わる情報を持つ画素が少なくなることが防止できる。 In addition, by retaining the information of the staying time in each pixel without increasing the image size (S212), it is possible to prevent the loss of GPS trajectory information effective for moving means estimation and to relate to the GPS trajectory for all pixels. It is possible to prevent the number of pixels having information from decreasing.
これによりDNN学習部60において、S330,S340の表現学習をGPS軌跡セグメントに対して効果的に適用可能となり、移動手段推定に有効な特徴量(DNN特徴量)を抽出できるようになる。
As a result, the
その結果、従来の「feature engineering」による基本特徴量に加えて表現学習によるDNN特徴量を、推定モデル生成部140のモデル生成に利用可能となり、この点で移動手段を高精度に推定可能な移動手段推定モデルを提供することができる。
As a result, in addition to the basic feature amount by the conventional “feature engineering”, the DNN feature amount by the expression learning can be used for the model generation of the estimation
≪プログラム等≫
本発明は、上記実施形態に限定されるものではなく、各請求項に記載された範囲内で変形・応用して実施することができる。例えば本発明は、移動手段推定モデル生成装置1の各部10〜150の一部もしくは全部として、コンピュータを機能させる移動手段推定モデル生成プログラムとして構成することもできる。このプログラムによれば、S110〜S150,S201〜S212,S310〜S350,S410〜S440,S510〜S540の一部あるいは全部をコンピュータに実行させることが可能となる。
≪Programs≫
The present invention is not limited to the above-described embodiment, and can be implemented by being modified and applied within the scope described in each claim. For example, this invention can also be comprised as a moving means estimation model production | generation program which makes a computer function as some or all of each part 10-150 of the movement means estimation model production |
前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。 The program can be provided through a network such as a website or e-mail. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, BD-ROM, BD-R, or BD-RE. It is also possible to record, save and distribute. This recording medium is read using a recording medium driving device, and the program code itself realizes the processing of the above embodiment, so that the recording medium also constitutes the present invention.
1…移動手段推定モデル生成装置
10…ラベルなしGPS軌跡セグメントDB
20…ラベルありGPS軌跡セグメントDB
30…軌跡画像抽出部
40…ラベルなし軌跡画像DB
50…ラベルあり軌跡画像DB
60…DNN学習部
70…DNNDB
80…DNN特徴量抽出部
90…DNN特徴量DB
100…基本特徴量抽出部
110…基本特徴量DB
120…特徴量連結部
130…連結特徴量DB
140…推定モデル生成部
150…推定モデルDB
DESCRIPTION OF
20 ... Labeled GPS track segment DB
30 ... Trajectory
50 ... Label image DB with label
60 ...
80 ... DNN feature
100: Basic feature value extraction unit 110: Basic feature value DB
120 ... feature
140 ... Estimated
Claims (7)
同一の移動手段である区間毎にGPS測位によって取得された測位点の羅列情報をGPS軌跡セグメントとして格納する第1データベースと、
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出部と、
第1データベースのGPS軌跡セグメントから抽出した軌跡画像を格納する第3データベースと、
第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて格納する第4データベースと、
第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出部と、
第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出部と、
第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結部と、
該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成部と、
を備えることを特徴とする移動手段推定モデル生成装置。 An apparatus for generating a moving means estimation model for estimating moving means based on a GPS trajectory,
A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
A trajectory image extraction unit that visualizes the center of gravity of the positioning information of the positioning points when extracting a trajectory image from the positioning information of the positioning points of each GPS trajectory segment stored in the both databases;
A third database for storing trajectory images extracted from GPS trajectory segments of the first database;
A fourth database for storing a trajectory image extracted from the labeled GPS trajectory segment of the second database in association with the label;
A DNN feature quantity extraction unit that extracts DNN feature values from the learning result of the multilayer neural network based on the storage data of the third database and the fourth database, and stores the extracted DNN feature values in the fifth database in correspondence with the labels. When,
A basic feature amount extraction unit that extracts a basic feature amount from a labeled GPS trajectory segment of the second database and stores the extracted basic feature amount in the sixth database in association with the label;
A feature value linking unit that links DNN feature values and basic feature values corresponding to the fifth database and the sixth database, respectively, to form a connected feature value;
An estimated model generating unit that generates the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation apparatus comprising:
軌跡画像抽出部は、緯度経度座標系において前記羅列情報における重心座標の経度成分と緯度成分とを計算する手段と、
前記羅列情報における最も南西にある座標の経度座標および緯度座標を計算する手段と、
緯度経度座標系において前記重心座標の経度座標を画像座標系の中心座標の水平成分と一致させる補正値と、緯度経度座標系において前記重心座標の緯度座標を、前記中心座標の垂直成分と一致させる補正値と、を計算する手段と、
前記測位点の経度を緯度経度座標系の経度成分から画像座標系の水平成分に変換する手段と、
前記測位点の緯度を緯度経度座標系の緯度成分から画像座標系の垂直成分に変換する手段と、
を備えることを特徴とする請求項1記載の移動手段推定モデル生成装置。 While the GPS trajectory segments of the first database and the second database have information on latitude, longitude, and positioning time as enumeration information of positioning points,
The locus image extraction unit calculates a longitude component and a latitude component of the center-of-gravity coordinates in the list information in the latitude-longitude coordinate system;
Means for calculating the longitude and latitude coordinates of the most southwestern coordinates in the list information;
In the latitude / longitude coordinate system, the correction value for matching the longitude coordinate of the centroid coordinate with the horizontal component of the center coordinate of the image coordinate system, and the latitude coordinate of the centroid coordinate in the latitude / longitude coordinate system are matched with the vertical component of the center coordinate. Means for calculating a correction value;
Means for converting the longitude of the positioning point from a longitude component of a latitude-longitude coordinate system to a horizontal component of an image coordinate system;
Means for converting the latitude of the positioning point from a latitude component of a latitude-longitude coordinate system to a vertical component of an image coordinate system;
The moving means estimation model generation apparatus according to claim 1, further comprising:
前記測位点の存在する画素に定数を加算する手段をさらに備えることを特徴とする請求項2記載の移動手段推定モデル生成装置。 The trajectory image extraction unit, if the coordinate converted to the horizontal component or the coordinate converted to the vertical component is within a predetermined image size,
The moving means estimation model generation apparatus according to claim 2, further comprising means for adding a constant to a pixel in which the positioning point exists.
前記GPS軌跡セグメントにラベルを付したラベルありGPS軌跡セグメントを格納する第2データベースと、
に基づきコンピュータが、移動手段を推定するための移動手段推定モデルを生成する方法であって、
前記両データベースに格納された各GPS軌跡セグメントの測位点の羅列情報から軌跡画像を抽出する際、該測位点の羅列情報の重心を画像の中心として画像化する軌跡画像抽出ステップと、
第1データベースのGPS軌跡セグメントから抽出した軌跡画像を第3データベースに格納する軌跡画像格納ステップと、
第2データベースのラベルありGPS軌跡セグメントから抽出した軌跡画像を前記ラベルと対応させて第4データベースに格納するラベルあり軌跡画像格納ステップと、
第3データベースおよび第4データベースの格納データに基づく多層ニューラルネットワークの学習結果からDNN特徴量を抽出し、抽出されたDNN特徴量を前記ラベルと対応させて第5データベースに格納するDNN特徴量抽出ステップと、
第2データベースのラベルありGPS軌跡セグメントから基本特徴量を抽出し、抽出された基本特徴量を前記ラベルと対応させて第6データベースに格納する基本特徴量抽出ステップと、
第5データベースおよび第6データベースのそれぞれ対応するDNN特徴量と基本特徴量とを連結させて連結特徴量とする特徴量連結ステップと、
該連結特徴量を前記ラベルと対応させて格納する第7データベースに基づき前記推定モデルを生成する推定モデル生成ステップと、
を有することを特徴とする移動手段推定モデル生成方法。 A first database that stores, as GPS trajectory segments, enumeration information of positioning points acquired by GPS positioning for each section that is the same moving means;
A second database for storing labeled GPS trajectory segments with labels attached to the GPS trajectory segments;
The computer generates a moving means estimation model for estimating the moving means, comprising:
A trajectory image extraction step for imaging the center of gravity of the positioning information of the positioning points when extracting the trajectory image from the positioning information of the positioning points of the GPS trajectory segments stored in the both databases;
A trajectory image storage step of storing the trajectory image extracted from the GPS trajectory segment of the first database in the third database;
A labeled trajectory image storage step of storing a trajectory image extracted from the labeled GPS trajectory segment of the second database in the fourth database in association with the label;
A DNN feature extraction step of extracting DNN feature values from the learning result of the multilayer neural network based on the storage data of the third database and the fourth database, and storing the extracted DNN feature values in the fifth database in correspondence with the labels. When,
A basic feature amount extracting step of extracting a basic feature amount from the GPS trajectory segment with a label in the second database and storing the extracted basic feature amount in the sixth database in association with the label;
A feature amount connecting step of connecting the corresponding DNN feature amounts and basic feature amounts of the fifth database and the sixth database to make a connected feature amount;
An estimated model generating step for generating the estimated model based on a seventh database that stores the connected feature values in association with the labels;
A moving means estimation model generation method characterized by comprising:
軌跡画像抽出ステップは、緯度経度座標系において前記羅列情報における重心座標の経度成分と緯度成分とを計算するステップと、
前記羅列情報における最も南西にある座標の経度座標および緯度座標を計算するステップと、
緯度経度座標系において前記重心座標の経度座標を画像座標系の中心座標の水平成分と一致させる補正値と、緯度経度座標系において前記重心座標の緯度座標を前記中心座標の垂直成分と一致させる補正値と、を計算するステップと、
前記測位点の経度を緯度経度座標系の経度成分から画像座標系の水平成分に変換するステップと、
前記測位点の緯度を緯度経度座標系の緯度成分から画像座標系の垂直成分に変換するステップと、
を有することを特徴とする請求項4記載の移動手段推定モデル生成方法。 While the GPS trajectory segments of the first database and the second database have information on latitude, longitude, and positioning time as enumeration information of positioning points,
The trajectory image extraction step includes a step of calculating a longitude component and a latitude component of the barycentric coordinates in the sequence information in the latitude / longitude coordinate system;
Calculating the longitude and latitude coordinates of the most southwest coordinates in the list information;
Correction value for matching the longitude coordinate of the barycentric coordinate with the horizontal component of the center coordinate of the image coordinate system in the latitude / longitude coordinate system, and correction for matching the latitude coordinate of the barycentric coordinate with the vertical component of the center coordinate in the latitude / longitude coordinate system Calculating a value; and
Converting the longitude of the positioning point from a longitude component of a latitude-longitude coordinate system to a horizontal component of an image coordinate system;
Converting the latitude of the positioning point from a latitude component of a latitude-longitude coordinate system to a vertical component of an image coordinate system;
5. The moving means estimation model generation method according to claim 4, further comprising:
前記測位点の存在する画素に定数を加算するステップをさらに有することを特徴とする請求項5記載の移動手段推定モデル生成方法。 In the trajectory image extraction step, if the coordinate converted into the horizontal component or the coordinate converted into the vertical component is within a predetermined image size,
6. The moving means estimation model generation method according to claim 5, further comprising a step of adding a constant to a pixel in which the positioning point exists.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014211510A JP6038857B2 (en) | 2014-10-16 | 2014-10-16 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014211510A JP6038857B2 (en) | 2014-10-16 | 2014-10-16 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016081272A true JP2016081272A (en) | 2016-05-16 |
JP6038857B2 JP6038857B2 (en) | 2016-12-07 |
Family
ID=55958724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014211510A Active JP6038857B2 (en) | 2014-10-16 | 2014-10-16 | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6038857B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099110A (en) * | 2014-11-18 | 2016-05-30 | 日本電信電話株式会社 | Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program |
JP2019211984A (en) * | 2018-06-04 | 2019-12-12 | 日本電信電話株式会社 | Learning apparatus, prediction apparatus, method, and program |
CN112329832A (en) * | 2020-10-27 | 2021-02-05 | 中国人民解放军战略支援部队信息工程大学 | Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010019811A (en) * | 2008-07-14 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for determining movement means |
JP2012003494A (en) * | 2010-06-16 | 2012-01-05 | Sony Corp | Information processing device, information processing method and program |
-
2014
- 2014-10-16 JP JP2014211510A patent/JP6038857B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010019811A (en) * | 2008-07-14 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for determining movement means |
JP2012003494A (en) * | 2010-06-16 | 2012-01-05 | Sony Corp | Information processing device, information processing method and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099110A (en) * | 2014-11-18 | 2016-05-30 | 日本電信電話株式会社 | Movement means estimation model generation device, movement means estimation model generation method, and movement means estimation model generation program |
JP2019211984A (en) * | 2018-06-04 | 2019-12-12 | 日本電信電話株式会社 | Learning apparatus, prediction apparatus, method, and program |
CN112329832A (en) * | 2020-10-27 | 2021-02-05 | 中国人民解放军战略支援部队信息工程大学 | Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network |
CN112329832B (en) * | 2020-10-27 | 2023-01-31 | 中国人民解放军战略支援部队信息工程大学 | Passive positioning target track data enhancement method and system based on deep convolution generation countermeasure network |
Also Published As
Publication number | Publication date |
---|---|
JP6038857B2 (en) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pilzer et al. | Refine and distill: Exploiting cycle-inconsistency and knowledge distillation for unsupervised monocular depth estimation | |
KR102469261B1 (en) | Adaptive artificial neural network selection techniques | |
US11561943B2 (en) | Feature-based deduplication of metadata for places | |
US11562002B2 (en) | Enabling advanced analytics with large data sets | |
WO2016062095A1 (en) | Video classification method and apparatus | |
US20130086072A1 (en) | Method and system for extracting and classifying geolocation information utilizing electronic social media | |
US10592786B2 (en) | Generating labeled data for deep object tracking | |
Dong et al. | A dual-network progressive approach to weakly supervised object detection | |
JP6038857B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
US20130304363A1 (en) | Identifying purpose-based origin-destination using call detailed records | |
WO2019225597A1 (en) | Vacant house determination device, vacant house determination method, and recording medium | |
Silva et al. | A road map for planning-deploying machine vision artifacts in the context of industry 4.0 | |
JP2020507857A (en) | Agent navigation using visual input | |
JP6360000B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
JP6149024B2 (en) | Moving means estimation model generation apparatus, moving means estimation model generation method, moving means estimation model generation program | |
JPWO2019171416A1 (en) | Image classification system, image classification method and image classification program | |
JP6174527B2 (en) | Moving means estimation apparatus, operation method thereof, and program | |
CN104463864B (en) | Multistage parallel key frame cloud extracting method and system | |
JP2010151637A (en) | Target tracking device | |
US20220180744A1 (en) | System and method for task control based on bayesian meta-reinforcement learning | |
JP2014149788A (en) | Object area boundary estimation device, object area boundary estimation method, and object area boundary estimation program | |
US9922262B2 (en) | Method and apparatus for tracking target object | |
Zhang et al. | A novel framework for semantic segmentation with generative adversarial network | |
US20230237644A1 (en) | Meta-learning for detecting object anomaly from images | |
JP6927161B2 (en) | Learning devices, predictors, methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6038857 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |