JP2018198028A - Movement state recognition model learning device, movement state recognition device, method, and program - Google Patents

Movement state recognition model learning device, movement state recognition device, method, and program Download PDF

Info

Publication number
JP2018198028A
JP2018198028A JP2017103358A JP2017103358A JP2018198028A JP 2018198028 A JP2018198028 A JP 2018198028A JP 2017103358 A JP2017103358 A JP 2017103358A JP 2017103358 A JP2017103358 A JP 2017103358A JP 2018198028 A JP2018198028 A JP 2018198028A
Authority
JP
Japan
Prior art keywords
time series
sensor data
data
image data
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017103358A
Other languages
Japanese (ja)
Other versions
JP6857547B2 (en
Inventor
山本 修平
Shuhei Yamamoto
修平 山本
浩之 戸田
Hiroyuki Toda
浩之 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017103358A priority Critical patent/JP6857547B2/en
Publication of JP2018198028A publication Critical patent/JP2018198028A/en
Application granted granted Critical
Publication of JP6857547B2 publication Critical patent/JP6857547B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To efficiently extract and combine information from both time series of image data and time series of sensor data and realize highly accurate movement state recognition with a small amount of training data.SOLUTION: A movement state recognition semi-supervised DNN model construction unit 42 is a DNN model for recognizing a movement state of a user and further constructs a DNN model for decoding time series of decoded image data and time series of decoded sensor data. A movement state recognition DNN model unsupervised learning unit 44 learns parameters of the DNN model so that the time series of the decoded image data and the time series of the decoded sensor data coincide with input data. A movement state recognition DNN supervised learning unit 46 learns the parameters of the DNN model so that a movement state recognized by the DNN model coincides with a movement state indicated by an annotation.SELECTED DRAWING: Figure 1

Description

本発明は、移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラムに係り、特に、ユーザが取得した映像やセンサデータから、ユーザの移動状況を自動認識するための移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラムに関する。   The present invention relates to a movement situation recognition model learning apparatus, a movement situation recognition apparatus, a method, and a program, and in particular, movement situation recognition model learning for automatically recognizing a user's movement situation from video and sensor data acquired by the user. The present invention relates to a device, a movement status recognition device, a method, and a program.

映像撮影デバイスの小型化や、GPSやジャイロセンサなどの省電力化に伴い、ユーザの行動を、映像、位置情報や加速度などの多様なデータとして容易に記録できるようになった。これらのデータからユーザの行動を詳細に分析することは、様々な用途に役立つ。例えば、グラスウエア等を通じて取得された一人称視点の映像と、ウェアラブルセンサで取得された加速度データ等を利用して、ウインドウショッピングしている状況や、横断歩道を渡っている状況等を自動認識し分析できれば、サービスのパーソナライズ化等様々な用途で役立てられる。   With the downsizing of video imaging devices and the power saving of GPS and gyro sensors, user behavior can be easily recorded as various data such as video, position information, and acceleration. Detailed analysis of user behavior from these data is useful for various applications. For example, using the first-person video acquired through glassesware, etc., and the acceleration data acquired by the wearable sensor, automatically recognize and analyze the situation of window shopping and the situation of crossing a pedestrian crossing. If possible, it can be used for various purposes such as personalization of services.

従来、センサ情報からユーザの移動状況を自動認識する技術として、GPSの位置情報や速度情報からユーザの移動手段を推定する技術が存在する(非特許文献1)。また、スマートフォンから取得される加速度等の情報を用いて、徒歩やジョギング、階段の昇降等を分析する技術の開発も取組まれてきた(非特許文献2)。   Conventionally, as a technique for automatically recognizing a user's movement status from sensor information, there is a technique for estimating a user's moving means from GPS position information and speed information (Non-Patent Document 1). In addition, the development of technology that analyzes walking, jogging, ascending / descending stairs, etc. using information such as acceleration acquired from a smartphone has been undertaken (Non-Patent Document 2).

Zheng, Y., Liu, L., Wang, L., and Xie, X.: Learning transportation mode from raw GPS data for geographic applications on the web. In Proc. of World Wide Web 2008, pp. 247-256, 2008.Zheng, Y., Liu, L., Wang, L., and Xie, X .: Learning transportation mode from raw GPS data for geographic applications on the web.In Proc. Of World Wide Web 2008, pp. 247-256, 2008. Jennifer R. Kwapisz, Gary M. Weiss, Samuel A. Moore: Activity Recognition using Cell Phone Accelerometers, Proc. of SensorKDD 2010.Jennifer R. Kwapisz, Gary M. Weiss, Samuel A. Moore: Activity Recognition using Cell Phone Accelerometers, Proc. Of SensorKDD 2010.

ところが、上記従来の方法はセンサ情報のみを利用しているため、映像情報を考慮したユーザの移動状況認識を行うことができなかった。例えば、ウェアラブルセンサのデータから、ユーザの移動状況を把握しようとした場合、歩いていることは理解したとしても、ウインドウショッピングしている状況か、横断歩道を渡っている状況のように詳細なユーザの状況をセンサデータのみから自動認識することは困難である。一方で、映像データとセンサデータの入力を組み合わせて、機械学習技術の一つであるSupport Vector Machine(SVM)などの単純な分類モデルを用いても、映像データとセンサデータの情報の抽象度合が異なることが原因で、高精度な移動状況認識が困難であった。また、SVMに限らず多くの機械学習技術は高精度な分類モデルの構築に、大量の訓練データを要する。移動状況認識のための訓練データを準備するには、映像データとセンサデータの組み合わせに対して、適切な移動状況(訓練ラベル)を人手で付与するアノテーション作業が必要である。大量の映像データとセンサデータの組み合わせに、ユーザがアノテーション作業をすることは困難である。   However, since the conventional method uses only sensor information, the user's movement status cannot be recognized in consideration of video information. For example, when trying to grasp the user's movement status from wearable sensor data, even if he understands that he is walking, he / she knows that he / she is walking, but it is a detailed user such as a window shopping situation or a situation where a pedestrian crossing is crossed. It is difficult to automatically recognize the situation from only sensor data. On the other hand, even if a simple classification model such as Support Vector Machine (SVM), which is one of machine learning technologies, is used by combining the input of video data and sensor data, the degree of abstraction of the information of the video data and sensor data can be reduced. Due to the difference, it was difficult to recognize the movement situation with high accuracy. In addition to SVM, many machine learning techniques require a large amount of training data to construct a highly accurate classification model. In order to prepare training data for recognizing a movement situation, an annotation operation is required in which an appropriate movement situation (training label) is manually assigned to a combination of video data and sensor data. It is difficult for a user to perform annotation work on a combination of a large amount of video data and sensor data.

本発明は、上記事情を鑑みて成されたものであり、映像データとセンサデータの双方から、効率的に情報を抽出し組み合わせ、かつ少量の訓練データで、高精度な移動状況認識を実現することができる移動状況認識モデル学習装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and realizes highly accurate movement state recognition with a small amount of training data by efficiently extracting and combining information from both video data and sensor data. An object of the present invention is to provide a moving state recognition model learning apparatus, method, and program capable of performing the above.

また、映像データとセンサデータの双方から、移動状況を高精度に認識することができる移動状況認識装置、方法、及びプログラムを提供することを目的とする。   It is another object of the present invention to provide a movement status recognition apparatus, method, and program capable of recognizing a movement status with high accuracy from both video data and sensor data.

上記目的を達成するために、本発明に係る移動状況認識モデル学習装置は、移動体に搭載されたカメラの画像データの時系列及び前記移動体に搭載されたセンサのセンサデータの時系列を入力とし、画像データの各々の特徴及びセンサデータの各々の特徴を抽出し、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、前記移動体の移動状況を認識するためのDNN(Deep Neural Network)モデルであって、更に、前記画像データの各々の特徴及び前記センサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築する移動状況認識半教師ありDNNモデル構築部と、前記画像データの時系列及び前記センサデータの時系列に基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルから出力される、前記復号画像データの時系列及び前記復号センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列とが一致するように、前記DNNモデルのパラメータを学習する移動状況認識DNNモデル教師なし学習部と、前記学習された前記DNNモデルのパラメータと、前記画像データの時系列及び前記センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列に対して予め付与された移動状況を示すアノテーションとに基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルにより認識される移動状況が、前記アノテーションが示す移動状況と一致するように、前記DNNモデルのパラメータを学習する移動状況認識DNN教師あり学習部と、を含んで構成されている。   To achieve the above object, a moving situation recognition model learning apparatus according to the present invention inputs a time series of image data of a camera mounted on a moving body and a time series of sensor data of a sensor mounted on the moving body. And extracting each feature of the image data and each feature of the sensor data, and recognizing the movement state of the moving object from the data obtained by abstracting each feature of the image data and each feature of the sensor data. It is a DNN (Deep Neural Network) model, and further decodes a time series of decoded image data and a time series of decoded sensor data from data obtained by abstracting each feature of the image data and each feature of the sensor data. A moving situation recognition semi-supervised DNNN model construction unit for constructing a DNN model, a time series of the image data, and the sensor data The time series of the decoded image data and the time series of the decoded sensor data output from the DNN model when the time series of the image data and the time series of the sensor data are input based on the time series of A movement situation recognition DNN model unsupervised learning unit that learns parameters of the DNN model so that the time series of the image data and the time series of the sensor data match, and the parameters of the learned DNN model; Based on the time series of the image data and the time series of the sensor data, and the time series of the image data, based on the time series of the image data and the annotation indicating the movement situation previously given to the time series of the sensor data. The movement situation recognized by the DNN model when the time series of the series and the sensor data is input is the annotate. ® As emission matches the moving condition shown, is configured to include a, a movement condition recognition DNN supervised learning unit for learning the parameters of the DNN model.

また、本発明に係る移動状況認識モデル学習方法は、移動状況認識半教師ありDNNモデル構築部が、移動体に搭載されたカメラの画像データの時系列及び前記移動体に搭載されたセンサのセンサデータの時系列を入力とし、画像データの各々の特徴及びセンサデータの各々の特徴を抽出し、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、前記移動体の移動状況を認識するためのDNN(Deep Neural Network)モデルであって、更に、前記画像データの各々の特徴及び前記センサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築し、移動状況認識DNNモデル教師なし学習部が、前記画像データの時系列及び前記センサデータの時系列に基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルから出力される、前記復号画像データの時系列及び前記復号センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列とが一致するように、前記DNNモデルのパラメータを学習し、移動状況認識DNN教師あり学習部が、前記学習された前記DNNモデルのパラメータと、前記画像データの時系列及び前記センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列に対して予め付与された移動状況を示すアノテーションとに基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルにより認識される移動状況が、前記アノテーションが示す移動状況と一致するように、前記DNNモデルのパラメータを学習する。   Further, in the moving situation recognition model learning method according to the present invention, the movement situation recognition semi-supervised DNN model construction unit performs a time series of image data of a camera mounted on the moving body and a sensor of the sensor mounted on the moving body. The time series of the data is input, each feature of the image data and each feature of the sensor data are extracted, and the movement of the moving body is obtained from the data obtained by abstracting each feature of the image data and each feature of the sensor data. A DNN (Deep Neural Network) model for recognizing a situation, and further, a time series of decoded image data and a decoding sensor from data obtained by abstracting each feature of the image data and each feature of the sensor data A DNN model that decodes a time series of data is constructed, and the movement state recognition DNN model unsupervised learning unit performs the time series of the image data. Based on the sequence and the time series of the sensor data, the time series of the decoded image data and the decoded sensor data output from the DNN model when the time series of the image data and the time series of the sensor data are input. And the time series of the image data and the time series of the sensor data are learned so that the parameters of the DNN model are learned, and the movement state recognition DNN supervised learning unit performs the learning of the DNN Based on the model parameters, the time series of the image data and the time series of the sensor data, the time series of the image data and the annotation indicating the movement situation previously given to the time series of the sensor data, Movement status recognized by the DNN model when the time series of the image data and the time series of the sensor data are input , To match the moving condition of the annotation shown learns the parameters of the DNN model.

また、本発明に係る移動状況認識装置は、認識対象の移動体についての画像データの時系列及びセンサデータの時系列を、上記の移動状況認識モデル学習装置によって学習された前記DNNモデルに入力して、前記移動体の移動状況を認識する移動状況認識部を含んで構成されている。   The movement situation recognition apparatus according to the present invention inputs a time series of image data and a time series of sensor data about a moving object to be recognized into the DNN model learned by the movement situation recognition model learning apparatus. And a movement status recognition unit for recognizing the movement status of the moving body.

本発明に係る移動状況認識方法は、移動状況認識部が、認識対象の移動体についての画像データの時系列及びセンサデータの時系列を、上記の移動状況認識モデル学習方法によって学習された前記DNNモデルに入力して、前記移動体の移動状況を認識する。   In the movement situation recognition method according to the present invention, the movement situation recognition unit learns the time series of the image data and the time series of the sensor data of the moving object to be recognized by the above-described DNN learning method. It inputs into a model and recognizes the movement condition of the said mobile body.

本発明に係るプログラムは、コンピュータを、上記の移動状況認識モデル学習装置、又は上記の移動状況認識装置の各部として機能させるためのプログラムである。   The program according to the present invention is a program for causing a computer to function as each part of the above-described movement situation recognition model learning apparatus or the above movement situation recognition apparatus.

本発明の移動状況認識モデル学習装置、方法、及びプログラムによれば、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、前記移動体の移動状況を認識するためのDNNモデルであって、更に、前記画像データの各々の特徴及び前記センサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築し、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルから出力される、前記復号画像データの時系列及び前記復号センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列とが一致するように、前記DNNモデルのパラメータを学習し、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルにより認識される移動状況が、前記アノテーションが示す移動状況と一致するように、前記DNNモデルのパラメータを学習することにより、画像データの時系列とセンサデータの時系列の双方から、効率的に情報を抽出し組み合わせ、かつ少量の訓練データで、高精度な移動状況認識を実現することができる、という効果が得られる。   According to the moving state recognition model learning apparatus, method, and program of the present invention, a DNN for recognizing the moving state of the moving object from data obtained by abstracting each feature of image data and each feature of sensor data. A DNN model that decodes a time series of decoded image data and a time series of decoded sensor data from data obtained by abstracting each characteristic of the image data and each characteristic of the sensor data. The time series of the decoded image data and the time series of the decoded sensor data output from the DNN model when the time series of the image data and the time series of the sensor data are input, and the time series of the image data And the parameters of the DNN model are learned so that the time series of the sensor data matches, and the time series of the image data and the time series of the image data By learning the parameters of the DNN model so that the movement situation recognized by the DNN model when the time series of sensor data is input matches the movement situation indicated by the annotation, the time series of the image data and the sensor An effect is obtained that information can be efficiently extracted and combined from both time series of data, and highly accurate movement state recognition can be realized with a small amount of training data.

また、本発明の移動状況認識装置、方法、及びプログラムによれば、画像データの時系列とセンサデータの時系列の双方から、効率的に情報を抽出し組み合わせ、かつ高精度な移動状況認識を実現することができる、という効果が得られる。   Further, according to the movement status recognition apparatus, method, and program of the present invention, information is efficiently extracted and combined from both the time series of image data and the time series of sensor data, and highly accurate movement status recognition is performed. The effect that it is realizable is acquired.

本発明の実施の形態に係る移動状況認識モデル学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る移動状況認識モデル学習装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. 映像データDBの記憶形式の一例を示す図である。It is a figure which shows an example of the memory | storage format of video data DB. センサデータDBの記憶形式の一例を示す図である。It is a figure which shows an example of the memory format of sensor data DB. アノテーションDBの記憶形式の一例を示す図である。It is a figure which shows an example of the storage format of annotation DB. 本発明の実施の形態に係る移動状況認識モデル学習装置の映像データ前処理部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the video data pre-processing part of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. 映像データ前処理部が映像データから生成した画像データの時系列の一例を示す図である。It is a figure which shows an example of the time series of the image data which the video data pre-processing part produced | generated from video data. 本発明の実施の形態に係る移動状況認識モデル学習装置のセンサデータ前処理部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the sensor data pre-processing part of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. DNNモデルのネットワーク構造の一例を示す図である。It is a figure which shows an example of the network structure of a DNN model. 本発明の実施の形態に係る移動状況認識モデル学習装置の移動状況認識DNNモデル教師なし学習部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the movement condition recognition DNN model unsupervised learning part of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る移動状況認識モデル学習装置の移動状況認識DNNモデル教師あり学習部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the movement condition recognition DNN model supervised learning part of the movement condition recognition model learning apparatus which concerns on embodiment of this invention. 移動状況認識DNNモデルDBの記憶形式の一例を示す図である。It is a figure which shows an example of the memory | storage format of a movement condition recognition DNN model DB. 本発明の実施の形態に係る移動状況認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the movement condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る移動状況認識装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the movement condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る移動状況認識装置の移動状況認識部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the movement condition recognition part of the movement condition recognition apparatus which concerns on embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本発明の実施の形態では、学習フェーズに相当する移動状況認識モデル学習装置と認識フェーズに相当する移動状況認識装置とに本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the embodiment of the present invention, a case where the present invention is applied to a movement situation recognition model learning apparatus corresponding to a learning phase and a movement situation recognition apparatus corresponding to a recognition phase will be described as an example.

<本発明の実施の形態に係る移動状況認識モデル学習装置の構成>
まず、本発明の実施の形態に係る移動状況認識モデル学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係る移動状況認識モデル学習装置10は、入力部20と、演算部30と、出力部50とを備えている。
<Configuration of Moving Situation Recognition Model Learning Device According to Embodiment of the Present Invention>
First, the configuration of the movement situation recognition model learning device according to the embodiment of the present invention will be described. As shown in FIG. 1, the movement situation recognition model learning device 10 according to the embodiment of the present invention includes an input unit 20, a calculation unit 30, and an output unit 50.

演算部30は、映像データDB32と、センサデータDB34と、映像データ前処理部36と、センサデータ前処理部38と、アノテーションDB40と、移動状況認識半教師ありDNNモデル構築部42と、移動状況認識DNNモデル教師なし学習部44と、移動状況認識DNNモデル教師あり学習部46と、移動状況認識DNNモデルDB48とを備えており、各々のDBの情報を利用して移動状況認識のためのDNNモデルを出力部50により出力する。ここで映像データDB32とセンサデータDB34は、データIDで関連する映像データとセンサデータの時系列の対応付けがとれるように予め構築されているとする。映像データDB32とセンサデータDB34の構築処理については、例えば、入力部20が、システム運用者によって入力された映像データとセンサデータの時系列のペアを受け付け、それらペアを一意に特定するIDをデータIDとして入力された映像データ及びセンサデータの時系列に付与し、それぞれ映像データDB32、センサデータDB34に格納するようにすればよい。また、アノテーションDB40には、各データIDに対するアノテーション名が格納されている。ここでアノテーションとは、例えばグラスウェアで取得された一人称視点の映像データに対する移動状況を説明したものが想定され、ウインドウショッピングや横断歩道横断中等が該当する。アノテーションDB40の構築処理についても、映像データDB32とセンサデータDB34の構築処理と同様、例えば、入力部20が、システム運用者によって入力された各データIDに対するアノテーションを受け付け、その入力結果をDBに格納するようにすればよい。   The calculation unit 30 includes a video data DB 32, a sensor data DB 34, a video data pre-processing unit 36, a sensor data pre-processing unit 38, an annotation DB 40, a movement status recognition semi-supervised DNNN model construction unit 42, and a movement status. A recognition DNNN unsupervised learning unit 44, a movement situation recognition DNNN supervised learning unit 46, and a movement situation recognition DNN model DB 48 are provided, and DNN for movement situation recognition using information of each DB. The model is output by the output unit 50. Here, it is assumed that the video data DB 32 and the sensor data DB 34 are constructed in advance so that the video data associated with the data ID can be associated with the sensor data in time series. Regarding the construction processing of the video data DB 32 and the sensor data DB 34, for example, the input unit 20 receives time-series pairs of video data and sensor data input by the system operator, and sets IDs that uniquely identify these pairs as data. The video data and sensor data input as IDs may be given to the time series and stored in the video data DB 32 and sensor data DB 34, respectively. The annotation DB 40 stores an annotation name for each data ID. Here, for example, the annotation is assumed to explain the movement status of the first-person viewpoint video data acquired by the glassware, and corresponds to window shopping, crossing a pedestrian crossing, or the like. As for the construction process of the annotation DB 40, as in the construction process of the video data DB 32 and the sensor data DB 34, for example, the input unit 20 accepts an annotation for each data ID input by the system operator and stores the input result in the DB. You just have to do it.

本発明の実施の形態では、図1に示す構成要素の動作をプログラムとして構築し、移動状況認識モデル学習装置として利用されるコンピュータにインストールして実行させる。   In the embodiment of the present invention, the operation of the components shown in FIG. 1 is constructed as a program, and is installed and executed on a computer used as a movement situation recognition model learning device.

映像データ前処理部36は、映像データDB32に格納されている映像データが表わす画像データの時系列に対して、サンプリング及び正規化を行う。   The video data preprocessing unit 36 performs sampling and normalization on the time series of the image data represented by the video data stored in the video data DB 32.

センサデータ前処理部38は、センサデータDB34に格納されているセンサデータの時系列に対して、正規化及び特徴ベクトル化を行う。   The sensor data preprocessing unit 38 performs normalization and feature vectorization on the time series of sensor data stored in the sensor data DB 34.

移動状況認識半教師ありDNNモデル構築部42は、画像データの時系列及びセンサデータの時系列を入力とし、画像データの各々の特徴及びセンサデータの各々の特徴を抽出し、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、移動状況を認識するためのDNNモデルであって、更に、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築する。   The movement state recognition semi-supervised DNN model construction unit 42 receives the time series of the image data and the time series of the sensor data, extracts each feature of the image data and each feature of the sensor data, and extracts each feature of the image data. A DNN model for recognizing a movement situation from data abstracted from features and sensor data, and further from data abstracted from features of image data and features of sensor data, A DNN model for decoding the time series of decoded image data and the time series of decoded sensor data is constructed.

移動状況認識DNNモデル教師なし学習部44は、映像データ前処理部36の処理結果である画像データの時系列、及びセンサデータ前処理部38の処理結果であるセンサデータの時系列に基づいて、画像データの時系列及びセンサデータの時系列を入力したときにモデルから出力される、復号画像データの時系列及び復号センサデータの時系列と、画像データの時系列及びセンサデータの時系列とが一致するように、DNNモデルのパラメータを学習する。   The movement state recognition DNN model unsupervised learning unit 44 is based on the time series of image data that is the processing result of the video data preprocessing unit 36 and the time series of sensor data that is the processing result of the sensor data preprocessing unit 38. When the time series of image data and the time series of sensor data are input, the time series of decoded image data and the time series of decoded sensor data, the time series of image data, and the time series of sensor data are output from the model. The parameters of the DNN model are learned so as to match.

移動状況認識DNN教師あり学習部46は、移動状況認識DNNモデル教師なし学習部44により学習されたモデルのパラメータと、映像データ前処理部36の処理結果である画像データの時系列と、センサデータ前処理部38の処理結果であるセンサデータの時系列と、画像データの時系列及びセンサデータの時系列に対して予め付与された移動状況を示すアノテーションとに基づいて、画像データの時系列及びセンサデータの時系列を入力したときにDNNモデルにより認識される移動状況が、アノテーションが示す移動状況と一致すると共に、画像データの時系列及びセンサデータの時系列を入力したときにモデルから出力される、復号画像データの時系列及び復号センサデータの時系列と、画像データの時系列及びセンサデータの時系列とが一致するように、DNNモデルのパラメータを学習する。学習されたDNNモデルのパラメータを、移動状況認識DNNモデルDB48に格納する。   The movement situation recognition DNN supervised learning section 46 includes model parameters learned by the movement situation recognition DNN model unsupervised learning section 44, a time series of image data that is a processing result of the video data preprocessing section 36, and sensor data. Based on the time series of the sensor data that is the processing result of the pre-processing unit 38, the time series of the image data, and the annotation indicating the movement status given in advance to the time series of the sensor data, The movement status recognized by the DNN model when the time series of sensor data is input matches the movement status indicated by the annotation, and is output from the model when the time series of image data and the time series of sensor data are input. Decoded image data time series and decoded sensor data time series, image data time series and sensor data time So that the string matches, to learn the parameters of the DNN model. The learned parameters of the DNN model are stored in the movement situation recognition DNN model DB 48.

<本発明の実施の形態に係る移動状況認識モデル学習装置の作用>
図2は、本発明の一実施の形態における移動状況認識モデル学習装置10により実行されるモデル学習処理ルーチンのフローチャートである。以下、具体的に説明する。
<Operation of the movement situation recognition model learning device according to the embodiment of the present invention>
FIG. 2 is a flowchart of a model learning process routine executed by the movement situation recognition model learning device 10 according to the embodiment of the present invention. This will be specifically described below.

<モデル学習処理ルーチン>
ステップS100では、映像データ前処理部36は、映像データDB32からデータを受け取り処理する。処理の詳細は後述する。図3に映像データDB32のデータの記憶形式の例を示す。映像データはMpeg4形式などで圧縮されたファイルで格納されており、それぞれ前述のとおりセンサデータと紐付けるためのデータIDと紐付いている。また、映像データは、移動体の一例であるユーザに装着されたグラスウェア等を通じて取得された一人称視点の映像データである。
<Model learning processing routine>
In step S100, the video data preprocessing unit 36 receives data from the video data DB 32 and processes the data. Details of the processing will be described later. FIG. 3 shows an example of the data storage format of the video data DB 32. The video data is stored in a file compressed in the Mpeg4 format or the like, and each is associated with a data ID for associating with sensor data as described above. The video data is first-person viewpoint video data acquired through glassware or the like worn by a user, which is an example of a mobile object.

ステップS110では、センサデータ前処理部38がセンサデータDB34からデータを受け取り処理する。処理の詳細は後述する。図4にセンサデータDB34のデータの記憶形式の例を示す。センサデータは日時、緯度経度、X軸加速度やY軸加速度などの要素を持つ。各センサデータは固有の系列IDを保有する。更に前述のとおり映像データと紐付けるためのデータIDを保有する。各センサデータは、ユーザに装着されたウェアラブルセンサで取得されたデータである。   In step S110, the sensor data preprocessing unit 38 receives data from the sensor data DB 34 and processes it. Details of the processing will be described later. FIG. 4 shows an example of the data storage format of the sensor data DB 34. The sensor data has elements such as date and time, latitude and longitude, X-axis acceleration, and Y-axis acceleration. Each sensor data has a unique series ID. Further, as described above, it holds a data ID for associating with video data. Each sensor data is data acquired by a wearable sensor attached to the user.

ステップS120では、移動状況認識半教師ありDNNモデル構築部42がDNNモデルを構築する。処理の詳細は後述する。   In step S120, the movement state recognition semi-supervised DNNN model construction unit 42 constructs a DNN model. Details of the processing will be described later.

ステップS130では、移動状況認識DNNモデル教師なし学習部44が映像データ前処理部36から処理済みの映像データ、センサデータ前処理部38から処理済みのセンサデータ、及び移動状況認識半教師ありDNNモデル構築部42からDNNモデルを受け取り、DNNモデルのパラメータを学習し、移動状況認識DNNモデルDB48に出力する。   In step S130, the movement state recognition DNN model unsupervised learning unit 44 processes the video data processed from the video data preprocessing unit 36, the sensor data processed from the sensor data preprocessing unit 38, and the movement state recognition semi-supervised DNN model. The DNN model is received from the construction unit 42, the parameters of the DNN model are learned, and are output to the movement situation recognition DNN model DB 48.

ステップS140では、移動状況認識DNNモデル教師あり学習部46が映像データ前処理部36から処理済みの映像データ、センサデータ前処理部38から処理済みのセンサデータ、移動状況認識半教師ありDNNモデル構築部42からDNNモデル、アノテーションDB40からアノテーションデータ、及び移動状況認識モデルDB48からDNNモデルのパラメータを受け取り、DNNモデルのパラメータを学習し、移動状況認識DNNモデルDB48に出力する。図5にアノテーションDB40の記憶形式の例を示す。   In step S140, the moving state recognition DNN model supervised learning unit 46 constructs the video data processed from the video data preprocessing unit 36, the sensor data processed from the sensor data preprocessing unit 38, and the moving state recognition semi-supervised DNN model construction. The DNN model is received from the unit 42, the annotation data is received from the annotation DB 40, and the parameters of the DNN model are received from the movement situation recognition model DB 48. The parameters of the DNN model are learned and output to the movement situation recognition DNN model DB 48. FIG. 5 shows an example of the storage format of the annotation DB 40.

図6は、上記ステップS100を実現するための、映像データ前処理部36により実行されるサブルーチンを示すフローチャートである。以下、具体的に説明する。   FIG. 6 is a flowchart showing a subroutine executed by the video data pre-processing unit 36 for realizing step S100. This will be specifically described below.

ステップS200では、映像データDB32から、映像データを受け取る。   In step S200, video data is received from the video data DB 32.

ステップS210では、各映像データを縦×横×3チャネルの画素値で表現された画像データの時系列に変換する。例えば縦のサイズを100画素、横のサイズを200画素のように決定する。図7に映像データから生成した画像データの時系列の例を示す。各画像データは元の画像データと対応づくデータID、各フレームの番号、タイムスタンプの情報を保持している。   In step S210, each video data is converted into a time series of image data represented by pixel values of vertical × horizontal × 3 channels. For example, the vertical size is determined to be 100 pixels and the horizontal size is determined to be 200 pixels. FIG. 7 shows an example of time series of image data generated from video data. Each image data holds data ID corresponding to the original image data, each frame number, and time stamp information.

ステップS220では、冗長なデータを削減するために、画像データの時系列から、一定フレーム間隔でNフレームサンプリングする。   In step S220, in order to reduce redundant data, N frames are sampled from the time series of image data at regular frame intervals.

ステップS230では、画像データをDNNモデルが扱いやすくするために、サンプリングされた各フレームにおける画像データの各画素値を正規化する。例えば、各々の画素値の範囲が0‐1になるように、画素の取りうる最大値で各画素値を除算する。   In step S230, each pixel value of the image data in each sampled frame is normalized so that the DNN model can easily handle the image data. For example, each pixel value is divided by the maximum value that the pixel can take so that the range of each pixel value is 0-1.

ステップS240では、画像データの時系列として表現された映像データ、及び対応するタイムスタンプの情報を、移動状況認識DNNモデル教師なし学習部44、および移動状況認識DNNモデル教師あり学習部46に受け渡す。   In step S240, the video data expressed as time series of image data and the corresponding time stamp information are transferred to the movement situation recognition DNN model unsupervised learning section 44 and the movement situation recognition DNN model supervised learning section 46. .

図8は、上記ステップS110を実現するための、センサデータ前処理部38により実行されるサブルーチンを示すフローチャートである。   FIG. 8 is a flowchart showing a subroutine executed by the sensor data pre-processing unit 38 for realizing the step S110.

ステップS300では、センサデータDB34から、センサデータを受け取る。   In step S300, sensor data is received from the sensor data DB.

ステップS310では、センサデータをDNNモデルが扱いやすくするために各センサデータにおける加速度等の値を正規化する。例えば、全センサデータの平均値が0、標準偏差が1になるように標準化する。   In step S310, values such as acceleration in each sensor data are normalized so that the sensor data can be easily handled by the DNN model. For example, standardization is performed so that the average value of all sensor data is 0 and the standard deviation is 1.

ステップS320では、各センサデータに対して正規化された各々の値を結合し特徴ベクトルを生成する。   In step S320, each value normalized for each sensor data is combined to generate a feature vector.

ステップS330では、センサの特徴ベクトル、及び対応する日時の情報を、移動状況認識DNNモデル教師なし学習部44、および移動状況認識DNNモデル教師あり学習部46に受け渡す。   In step S330, the sensor feature vector and the corresponding date and time information are transferred to the movement situation recognition DNN model unsupervised learning section 44 and the movement situation recognition DNN model supervised learning section 46.

図9は、本発明の一実施の形態における、移動状況認識半教師ありDNNモデル構築部42によって構築されるDNNモデルのネットワーク構造の一例である。入力として、映像データにおける各フレームの画像データを表す行列、及び対応するセンサデータベクトルを受け取り、出力として各移動状況の確率を獲得する。DNNモデルのネットワーク構造は以下のユニットから構成される。   FIG. 9 is an example of a network structure of the DNN model constructed by the DNN model construction unit 42 with the movement state recognition semi-supervised in one embodiment of the present invention. As an input, a matrix representing image data of each frame in the video data and a corresponding sensor data vector are received, and a probability of each movement situation is obtained as an output. The network structure of the DNN model is composed of the following units.

一つ目のユニットは画像データを表す行列から特徴を抽出する畳み込み層である。ここでは、例えば画像を3×3のフィルタで畳み込んだり、特定矩形内の最大値を抽出(最大プーリング)したりする。畳み込み層にはAlexNet(非特許文献3参照)等公知のネットワーク構造や事前学習済みパラメータを利用することも可能である。   The first unit is a convolution layer that extracts features from a matrix representing image data. Here, for example, the image is convolved with a 3 × 3 filter, or the maximum value in the specific rectangle is extracted (maximum pooling). For the convolution layer, a known network structure such as AlexNet (see Non-Patent Document 3) or a pre-learned parameter can be used.

二つ目のユニットは畳み込み層から得られる特徴を更に抽象化する、全結合層Aである。ここでは、例えばシグモイド関数などを利用して、入力の特徴量を非線形変換する。   The second unit is a fully connected layer A that further abstracts the features obtained from the convolutional layer. Here, the input feature quantity is nonlinearly transformed using, for example, a sigmoid function.

三つ目のユニットはセンサデータベクトルを画像特徴と同等レベルに抽象化する、全結合層Bである。ここでは、全結合層Aと同様に、入力を非線形変換する。   The third unit is a fully connected layer B that abstracts the sensor data vector to the same level as the image features. Here, like the all coupling layer A, the input is nonlinearly transformed.

四つ目のユニットは二つの抽象化された特徴を更に系列データとして抽象化する、Long−short−term−memory(LSTM)である。具体的には、系列データを順次受け取り、過去の抽象化された情報を循環させながら、繰り返し非線形変換する。LSTMには忘却ゲートが搭載された公知のネットワーク構造(非特許文献4)を利用することもできる。   The fourth unit is Long-short-term-memory (LSTM) that further abstracts two abstract features as series data. Specifically, series data is sequentially received, and nonlinear transformation is repeatedly performed while circulating past abstracted information. The LSTM can use a known network structure (Non-patent Document 4) in which a forgetting gate is mounted.

五つ目のユニットは抽象化された系列特徴を、対象とする移動状況の種類数の次元のベクトルに落とし込み、各移動状況に対する確率を表すベクトルを計算する、全結合層Cである。ここでは、ソフトマックス関数などを利用して入力の特徴量の全要素の総和が1になるように非線形変換する。   The fifth unit is an all-connected layer C that calculates the vector representing the probability for each movement situation by dropping the abstracted series feature into a dimension vector of the number of types of the movement situation. Here, nonlinear transformation is performed using a softmax function or the like so that the sum of all the elements of the input feature amount becomes 1.

六つ目のユニットは、LSTMによって系列データとして抽象化された特徴を全結合層Aに入力される特徴と同等レベルに復号化する全結合層Dである。ここでは、全結合層Aと同様に、入力を非線形変換する。   The sixth unit is a fully connected layer D that decodes features abstracted as sequence data by LSTM to the same level as the features input to the fully connected layer A. Here, like the all coupling layer A, the input is nonlinearly transformed.

七つ目のユニットは全結合層Dから得られる復号化された特徴量を、入力した画像データを表す行列と同等レベルに復号化する逆畳み込み層である。ここでは、例えば3×3の特徴行列を大きな行列サイズに拡大してから畳み込んだり、特徴行列中のある特徴量をN×Nの矩形に複写(逆プーリング)したりする。   The seventh unit is a deconvolution layer that decodes the decoded feature values obtained from the fully connected layer D to the same level as the matrix representing the input image data. Here, for example, a 3 × 3 feature matrix is expanded to a large matrix size and then convolved, or a feature amount in the feature matrix is copied into an N × N rectangle (reverse pooling).

八つ目のユニットは、LSTMによって系列データとして抽象化された特徴を全結合層Bに入力されるセンサデータと同等レベルに復号化する全結合層Eである。ここでは、全結合層Aと同様に、入力を非線形変換する。   The eighth unit is a fully connected layer E that decodes the features abstracted as sequence data by LSTM to the same level as the sensor data input to the fully connected layer B. Here, like the all coupling layer A, the input is nonlinearly transformed.

九つ目は確率ベクトルの各要素と移動状況を対応付ける、出力層である。例えば確率ベクトルの1番目を、ウインドウショッピング、2番目を横断歩道横断等と対応付ける。   The ninth is an output layer that associates each element of the probability vector with the movement state. For example, the first probability vector is associated with window shopping, and the second is associated with a crosswalk.

[非特許文献3]Krizhevsky, A., Sutskever, I. and Hinton, G. E.: ImageNet Classification with Deep Convolutional Neural Networks, pp.1106-1114, 2012. [Non-Patent Document 3] Krizhevsky, A., Sutskever, I. and Hinton, G. E .: ImageNet Classification with Deep Convolutional Neural Networks, pp. 1106-1114, 2012.

[非特許文献4]Felix A. Gers, Nicol N. Schraudolph, and Jurgen Schmidhuber: Learning precise timing with LSTM recurrent networks. Journal of Machine Learning Research, vol. 3, pp.115-143, 2002. [Non-Patent Document 4] Felix A. Gers, Nicol N. Schraudolph, and Jurgen Schmidhuber: Learning precise timing with LSTM recurrent networks. Journal of Machine Learning Research, vol. 3, pp. 115-143, 2002.

図10は、上記ステップS130を実現するための、移動状況認識DNNモデル教師なし学習部44により実行されるサブルーチンを示すフローチャートである。具体的には下記の処理を行う。   FIG. 10 is a flowchart showing a subroutine executed by the movement state recognition DNN model unsupervised learning unit 44 for realizing the step S130. Specifically, the following processing is performed.

ステップS400では、受け取った映像データのタイムスタンプとセンサデータの日時情報を基に、映像データとセンサデータとを対応付ける。   In step S400, the video data and the sensor data are associated with each other based on the time stamp of the received video data and the date / time information of the sensor data.

ステップS410では、移動状況認識半教師ありDNNモデル構築部42から図9に示すようなネットワーク構造であるDNNモデルを受け取る。   In step S410, a DNN model having a network structure as shown in FIG.

ステップS420では、DNNモデルが表すネットワーク構造における各ユニットのモデルパラメータを初期化する。例えば0から1の乱数で初期化する。   In step S420, model parameters of each unit in the network structure represented by the DNN model are initialized. For example, initialization is performed with a random number from 0 to 1.

ステップS430では、映像データ及びセンサデータを用いてDNNモデルのモデルパラメータを計算する。具体的には、入力のデータと、入力のデータに対して得られる出力の復号画像データ行列と復号センサデータベクトルの平均二乗誤差が最小になるように、バックプロパゲーションなど公知の技術を利用して、DNNモデルのモデルパラメータを最適化する。   In step S430, model parameters of the DNN model are calculated using the video data and the sensor data. Specifically, a known technique such as back-propagation is used so that the mean square error between the input data, the output decoded image data matrix obtained from the input data and the decoded sensor data vector is minimized. Then, the model parameters of the DNN model are optimized.

ステップS440では、DNNモデル(ネットワーク構造およびモデルパラメータ)を出力し、出力された結果を移動状況認識DNNモデルDB48に格納する。図12にモデルパラメータの例を示す。各層において行列やベクトルとしてパラメータが格納されている。   In step S440, the DNN model (network structure and model parameters) is output, and the output result is stored in the movement situation recognition DNN model DB 48. FIG. 12 shows an example of model parameters. Parameters are stored as matrices and vectors in each layer.

図11は、上記ステップS140を実現するための、移動状況認識DNNモデル教師あり学習部46により実行されるサブルーチンを示すフローチャートである。具体的には下記の処理を行う。   FIG. 11 is a flowchart showing a subroutine executed by the movement state recognition DNN model supervised learning unit 46 for realizing the step S140. Specifically, the following processing is performed.

ステップS500では、ステップS400と同様に、受け取った映像データのタイムスタンプとセンサデータの日時情報を基に、映像データとセンサデータとを対応付ける。   In step S500, as in step S400, the video data and the sensor data are associated with each other based on the time stamp of the received video data and the date / time information of the sensor data.

ステップS510では、ステップS410と同様に、移動状況認識半教師ありDNNモデル構築部42から図9に示すようなネットワーク構造であるDNNモデルを受け取る。   In step S510, similar to step S410, a DNN model having a network structure as shown in FIG.

ステップS520では、移動状況認識DNNモデルDB48からモデルパラメータを受け取り、DNNモデルのパラメータとする。   In step S520, the model parameters are received from the movement situation recognition DNN model DB 48 and set as the parameters of the DNN model.

ステップS530では、映像データ及びセンサデータ、対応するアノテーションデータを用いてモデルパラメータを計算する。具体的には、入力のデータに対して得られる出力の復号画像データ行列と復号センサデータベクトルの平均二乗誤差が最小になるように、また、出力の確率ベクトルとアノテーションから得られるバイナリベクトルとのクロスエントロピー誤差が最小になるように、バックプロパゲーションなど公知の技術を利用して、モデルパラメータを最適化する。   In step S530, model parameters are calculated using the video data, sensor data, and corresponding annotation data. Specifically, the mean square error between the output decoded image data matrix and the decoded sensor data vector obtained for the input data is minimized, and the output probability vector and the binary vector obtained from the annotation are A model parameter is optimized using a known technique such as backpropagation so that the cross-entropy error is minimized.

ステップS540では、移動状況認識DNNモデル(ネットワーク構造およびモデルパラメータ)を出力し、出力された結果を移動状況認識DNNモデルDB48に格納する。図12にモデルパラメータの例を示す。各層において行列やベクトルとしてパラメータが格納されている。また、出力層に対しては、確率ベクトルの各要素番号と対応する移動状況のテキストが格納されている。   In step S540, the movement situation recognition DNN model (network structure and model parameters) is output, and the output result is stored in the movement situation recognition DNN model DB 48. FIG. 12 shows an example of model parameters. Parameters are stored as matrices and vectors in each layer. In addition, for the output layer, text of the movement status corresponding to each element number of the probability vector is stored.

<本発明の実施の形態に係る移動状況認識装置の構成>
次に、本発明の実施の形態に係る移動状況認識装置の構成について説明する。図13に示すように、本発明の実施の形態に係る移動状況認識装置100は、入力部120と、演算部130と、出力部150とを備えている。
<Configuration of Movement Situation Recognition Device According to Embodiment of the Present Invention>
Next, the configuration of the movement status recognition apparatus according to the embodiment of the present invention will be described. As illustrated in FIG. 13, the movement status recognition apparatus 100 according to the embodiment of the present invention includes an input unit 120, a calculation unit 130, and an output unit 150.

入力部120は、認識対象のユーザについての映像データとセンサデータの時系列とのペアを受け付ける。   The input unit 120 receives a pair of video data and sensor data time series for a user to be recognized.

演算部130は、映像データ前処理部136と、センサデータ前処理部138と、移動状況認識部140と、移動状況認識DNNモデルDB148と、を備えており、入力部120により受け付けた映像データとセンサデータに対する認識結果を出力部150により出力する。   The calculation unit 130 includes a video data pre-processing unit 136, a sensor data pre-processing unit 138, a movement situation recognition unit 140, and a movement situation recognition DNN model DB 148, and the video data received by the input unit 120 and The output unit 150 outputs a recognition result for the sensor data.

本発明の実施の形態では、図13に示す構成要素の動作をプログラムとして構築し、移動状況認識装置として利用されるコンピュータにインストールして実行させる。   In the embodiment of the present invention, the operation of the components shown in FIG. 13 is constructed as a program, and is installed and executed on a computer used as a movement status recognition apparatus.

移動状況認識DNNモデルDB148には、移動状況認識DNNモデルDB48と同じDNNモデルのモデルパラメータが格納されている。   The movement state recognition DNN model DB 148 stores the same model parameters of the DNN model as the movement state recognition DNN model DB 48.

映像データ前処理部136は、入力部120により受け付けた映像データが表わす画像データの時系列に対して、映像データ前処理部36と同様に、サンプリング及び正規化を行う。   The video data preprocessing unit 136 performs sampling and normalization on the time series of the image data represented by the video data received by the input unit 120 in the same manner as the video data preprocessing unit 36.

センサデータ前処理部138は、入力部120により受け付けたセンサデータの時系列に対して、センサデータ前処理部38と同様に、正規化及び特徴ベクトル化を行う。   The sensor data pre-processing unit 138 performs normalization and feature vectorization on the time series of sensor data received by the input unit 120 in the same manner as the sensor data pre-processing unit 38.

移動状況認識部140は、映像データ前処理部136の処理結果である画像データの時系列、センサデータ前処理部138の処理結果であるセンサデータの時系列、及び移動状況認識DNNモデルDB148に格納されているモデルパラメータに基づいて、画像データの時系列及びセンサデータの時系列をDNNモデルに入力して、認識対象のユーザの移動状況を認識する。   The movement status recognition unit 140 stores the time series of image data that is the processing result of the video data preprocessing unit 136, the time series of sensor data that is the processing result of the sensor data preprocessing unit 138, and the movement status recognition DNN model DB 148. Based on the model parameters, the time series of image data and the time series of sensor data are input to the DNN model to recognize the movement status of the user to be recognized.

<本発明の実施の形態に係る移動状況認識装置の作用>
図14は、本発明の一実施の形態における移動状況認識装置100により実行される移動状況認識処理ルーチンのフローチャートである。以下、具体的に説明する。
<Operation of the movement situation recognition apparatus according to the embodiment of the present invention>
FIG. 14 is a flowchart of a movement situation recognition processing routine executed by the movement situation recognition apparatus 100 according to one embodiment of the present invention. This will be specifically described below.

<移動状況認識処理ルーチン>
まず、移動状況認識モデル学習装置10により出力されたDNNモデル(ネットワーク構造及びモデルパラメータ)が移動状況認識装置100に入力されると、移動状況認識装置100によって、入力されたDNNモデルが、移動状況認識DNNモデルDB148へ格納される。そして、移動状況認識装置100は、映像データとセンサデータの時系列とのペアが入力されると、以下の各処理を実行する。
<Movement status recognition processing routine>
First, when the DNN model (network structure and model parameters) output by the movement situation recognition model learning apparatus 10 is input to the movement situation recognition apparatus 100, the inputted DNN model is converted into the movement situation by the movement situation recognition apparatus 100. It is stored in the recognized DNN model DB 148. Then, the movement status recognition apparatus 100 executes the following processes when a pair of video data and time series of sensor data is input.

ステップS150では、映像データ前処理部136が入力として映像データを受け取り処理する。ステップS150は、図6のフローチャートと同様のフローチャートで実現される。   In step S150, the video data preprocessing unit 136 receives and processes video data as an input. Step S150 is realized by a flowchart similar to the flowchart of FIG.

ステップS160では、センサデータ前処理部138が入力としてセンサデータを受け取り処理する。図8のフローチャートと同様のフローチャートで実現される。   In step S160, the sensor data preprocessing unit 138 receives and processes sensor data as an input. This is realized by a flowchart similar to the flowchart of FIG.

ステップS170では、移動状況認識部140が映像データ前処理部136から処理済み映像データ、センサデータ前処理部138から処理済みのセンサデータ、移動状況認識DNNモデルDB148から学習済みのDNNモデルを受け取り、移動状況認識結果を計算し、出力部150により出力する。   In step S170, the movement status recognition unit 140 receives processed video data from the video data preprocessing unit 136, sensor data processed from the sensor data preprocessing unit 138, and a learned DNN model from the movement status recognition DNN model DB148. The movement status recognition result is calculated and output by the output unit 150.

図15は、上記ステップS170を実現するための、移動状況認識部140により実行されるサブルーチンを示すフローチャートである。以下、具体的に説明する。   FIG. 15 is a flowchart showing a subroutine executed by the movement status recognition unit 140 for realizing step S170. This will be specifically described below.

ステップS600では、入力データを前処理した映像データおよびセンサデータの時系列を映像データ前処理部136及びセンサデータ前処理部138から受け取る。   In step S <b> 600, time series of video data and sensor data obtained by pre-processing input data is received from the video data pre-processing unit 136 and the sensor data pre-processing unit 138.

ステップS610では、移動状況認識DNNモデルDB148から学習済みのDNNモデル(ネットワーク構造及びモデルパラメータ)を受け取る。   In step S610, a learned DNN model (network structure and model parameters) is received from the movement situation recognition DNN model DB 148.

ステップS620では、DNNモデルを用いて映像データ及びセンサデータの時系列から各移動状況に対する確率を計算する。   In step S620, the probability for each moving situation is calculated from the time series of video data and sensor data using the DNN model.

ステップS630では、確率の最も高い移動状況を、移動状況認識結果として出力部150により出力する。   In step S630, the output unit 150 outputs the movement situation with the highest probability as the movement situation recognition result.

以上説明したように、本発明の実施の形態に係る移動状況認識モデル学習装置によれば、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、ユーザの移動状況を認識するためのDNNモデルであって、更に、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築し、画像データの時系列及びセンサデータの時系列を入力したときにDNNモデルから出力される、復号画像データの時系列及び復号センサデータの時系列と、画像データの時系列及びセンサデータの時系列とが一致するように、DNNモデルのパラメータを学習し、画像データの時系列及びセンサデータの時系列を入力したときにDNNモデルにより認識される移動状況が、アノテーションが示す移動状況と一致するように、DNNモデルのパラメータを学習することにより、映像データとセンサデータの双方から、効率的に情報を抽出し組み合わせ、かつ少量の訓練データで、高精度な移動状況認識を実現することができる。   As described above, according to the movement situation recognition model learning apparatus according to the embodiment of the present invention, the movement situation of the user is recognized from data obtained by abstracting each feature of the image data and each feature of the sensor data. And a DNN model for decoding the time series of the decoded image data and the time series of the decoded sensor data from data obtained by abstracting each characteristic of the image data and each characteristic of the sensor data. The time series of the decoded image data and the time series of the decoded sensor data, the time series of the image data, and the time series of the sensor data output from the DNN model when the time series of the image data and the time series of the sensor data are input. When the parameters of the DNN model are learned so that the time series matches, the time series of image data and the time series of sensor data are input. By learning the parameters of the DNN model so that the movement situation recognized by the N model matches the movement situation indicated by the annotation, information can be efficiently extracted and combined from both video data and sensor data, and With a small amount of training data, highly accurate movement situation recognition can be realized.

また、センサデータに加え映像データを利用したDNNモデルを構築して学習し、得られたDNNモデルを移動状況認識に利用することで、従来認識できなかったユーザの移動状況を認識可能になる。   In addition, by building and learning a DNN model using video data in addition to sensor data, and using the obtained DNN model for movement situation recognition, it becomes possible to recognize a movement situation of a user that could not be recognized conventionally.

また、ユーザの状況認識のために効果的な画像特徴を扱える畳み込み層、適切な抽象度で特徴を抽象化できる全結合層、系列データを効率的に抽象化できるLSTMを備えた、移動状況認識のためのDNNモデルによって、高精度にユーザの移動状況を認識可能になる。   In addition, a convolution layer that can handle image features effective for user situation recognition, a fully connected layer that can abstract features at an appropriate level of abstraction, and LSTM that can efficiently abstract sequence data Therefore, the user's movement situation can be recognized with high accuracy.

また、アノテーションデータのないセンサデータと映像データを用いて、移動状況認識のためのDNNモデルのモデルパラメータを事前学習することによって、少量の学習データでも高精度にユーザの移動状況を認識可能になる。   In addition, by using the sensor data and video data without annotation data to pre-learn the model parameters of the DNN model for movement situation recognition, the movement situation of the user can be recognized with high accuracy even with a small amount of learning data. .

また、映像データ前処理部が、サンプリングや正規化等、映像データを前処理することにより、DNNモデルが扱いやすくなるように前処理することができる。また、センサデータ前処理部が、正規化、特徴ベクトル化等、センサデータを前処理することにより、DNNモデルが扱いやすくなるように前処理することができる。   Also, the video data pre-processing unit can pre-process the video data such as sampling and normalization so that the DNN model can be handled easily. In addition, the sensor data pre-processing unit can pre-process the sensor data such as normalization and feature vectorization so that the DNN model can be easily handled.

また、本発明の実施の形態に係る移動状況認識装置によれば、移動状況認識モデル学習装置によって学習されたDNNモデルを用いることにより、映像データとセンサデータの双方から、移動状況を高精度に認識する効率的に情報を抽出し組み合わせ、かつ高精度な移動状況認識を実現することができる。   In addition, according to the movement situation recognition apparatus according to the embodiment of the present invention, by using the DNN model learned by the movement situation recognition model learning apparatus, the movement situation can be obtained with high accuracy from both video data and sensor data. It is possible to efficiently extract and combine information to recognize and realize highly accurate movement situation recognition.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、移動状況認識モデル学習装置と移動状況認識装置とを別々の装置で構成する場合を例に説明したが、これに限定されるものではなく、移動状況認識モデル学習装置と移動状況認識装置とを1つの装置で構成するようにしてもよい。   For example, the case where the movement situation recognition model learning device and the movement situation recognition device are configured as separate devices has been described as an example, but the present invention is not limited to this, and the movement situation recognition model learning device and the movement situation recognition device You may make it comprise by one apparatus.

また、ユーザの移動状況を認識する場合を例に説明したが、これに限定されるものではなく、ユーザ以外の移動体の移動状況を認識するようにしてもよい。   Moreover, although the case where a user's movement condition is recognized was demonstrated to the example, it is not limited to this, You may make it recognize the movement condition of mobile bodies other than a user.

また、上述の移動状況認識モデル学習装置及び移動状況認識装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Moreover, although the above-described movement situation recognition model learning apparatus and movement situation recognition apparatus have a computer system inside, if the “computer system” uses a WWW system, a homepage provision environment ( Or a display environment).

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、ハードディスクやフレキシブルディスク、CD-ROM等の可搬記憶媒体に格納して提供することも可能である。また、当該プログラムを、ネットワークを介して流通させることも可能である。   Further, in the present specification, the program has been described as an embodiment in which the program is preinstalled. However, the program can be provided by being stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM. is there. It is also possible to distribute the program via a network.

10 移動状況認識モデル学習装置
20、120 入力部
30、130 演算部
36、136 映像データ前処理部
38、138 センサデータ前処理部
42 移動状況認識半教師ありDNNモデル構築部
44 移動状況認識DNNモデル教師なし学習部
46 移動状況認識DNNモデル教師あり学習部
50、150 出力部
100 移動状況認識装置
140 移動状況認識部
150 出力部
DESCRIPTION OF SYMBOLS 10 Movement situation recognition model learning apparatus 20, 120 Input part 30, 130 Calculation part 36, 136 Image data pre-processing part 38, 138 Sensor data pre-processing part 42 Movement situation recognition semi-supervised DNNN model construction part 44 Movement situation recognition DNN model Unsupervised learning section 46 Movement situation recognition DNN model supervised learning section 50, 150 Output section 100 Movement situation recognition apparatus 140 Movement situation recognition section 150 Output section

Claims (7)

移動体に搭載されたカメラの画像データの時系列及び前記移動体に搭載されたセンサのセンサデータの時系列を入力とし、画像データの各々の特徴及びセンサデータの各々の特徴を抽出し、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、前記移動体の移動状況を認識するためのDNN(Deep Neural Network)モデルであって、更に、前記画像データの各々の特徴及び前記センサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築する移動状況認識半教師ありDNNモデル構築部と、
前記画像データの時系列及び前記センサデータの時系列に基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルから出力される、前記復号画像データの時系列及び前記復号センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列とが一致するように、前記DNNモデルのパラメータを学習する移動状況認識DNNモデル教師なし学習部と、
前記学習された前記DNNモデルのパラメータと、前記画像データの時系列及び前記センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列に対して予め付与された移動状況を示すアノテーションとに基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルにより認識される移動状況が、前記アノテーションが示す移動状況と一致するように、前記DNNモデルのパラメータを学習する移動状況認識DNN教師あり学習部と、
を含む移動状況認識モデル学習装置。
Using the time series of the image data of the camera mounted on the moving body and the time series of the sensor data of the sensor mounted on the moving body as inputs, each feature of the image data and each feature of the sensor data are extracted, and the image A DNN (Deep Neural Network) model for recognizing the movement status of the moving object from data obtained by abstracting each characteristic of data and each characteristic of sensor data, and further, each characteristic of the image data And a movement state recognition semi-supervised DNNN model construction unit for constructing a DNN model for decoding a time series of decoded image data and a time series of decoded sensor data from data obtained by abstracting the characteristics of each of the sensor data;
Based on the time series of the image data and the time series of the sensor data, the time series of the decoded image data output from the DNN model when the time series of the image data and the time series of the sensor data are input. And a moving state recognition DNN model unsupervised learning unit that learns parameters of the DNN model so that the time series of the decoded sensor data matches the time series of the image data and the time series of the sensor data;
The learned DNN model parameters, the time series of the image data and the time series of the sensor data, and the movement status given in advance to the time series of the image data and the time series of the sensor data are shown. Based on the annotation, the DNN model so that the movement situation recognized by the DNN model when the time series of the image data and the time series of the sensor data are input matches the movement situation indicated by the annotation. A movement situation recognition DNN supervised learning unit for learning the parameters of
A moving situation recognition model learning device including:
前記画像データの時系列に対して、サンプリング及び正規化を行う映像データ前処理部と、
前記センサデータの時系列に対して、正規化及び特徴ベクトル化を行うセンサデータ前処理部とを更に含み、
前記移動状況認識DNNモデル教師なし学習部は、前記映像データ前処理部の処理結果及び前記センサデータ前処理部の処理結果を用いて、前記DNNモデルのパラメータを学習し、
前記移動状況認識DNNモデル教師あり学習部は、前記映像データ前処理部の処理結果及び前記センサデータ前処理部の処理結果を用いて、前記DNNモデルのパラメータを学習する請求項1記載の移動状況認識モデル学習装置。
A video data pre-processing unit that performs sampling and normalization on the time series of the image data;
A sensor data pre-processing unit that performs normalization and feature vectorization on the sensor data time series,
The movement situation recognition DNN model unsupervised learning unit learns the parameters of the DNN model using the processing result of the video data preprocessing unit and the processing result of the sensor data preprocessing unit,
The movement situation according to claim 1, wherein the movement situation recognition DNN model supervised learning section learns parameters of the DNN model using a processing result of the video data preprocessing section and a processing result of the sensor data preprocessing section. Recognition model learning device.
認識対象の移動体についての画像データの時系列及びセンサデータの時系列を、請求項1又は2記載の移動状況認識モデル学習装置によって学習された前記DNNモデルに入力して、前記移動体の移動状況を認識する移動状況認識部
を含む移動状況認識装置。
3. A time series of image data and a time series of sensor data for a moving object to be recognized are input to the DNN model learned by the moving state recognition model learning apparatus according to claim 1 or 2, and the movement of the moving object is performed. A movement situation recognition device including a movement situation recognition unit for recognizing a situation.
前記画像データの時系列に対して、サンプリング及び正規化を行う映像データ前処理部と、
前記センサデータの時系列に対して、正規化及び特徴ベクトル化を行うセンサデータ前処理部とを更に含み、
前記移動状況認識部は、前記映像データ前処理部の処理結果及び前記センサデータ前処理部の処理結果を前記DNNモデルに入力して、前記移動体の移動状況を認識する請求項3記載の移動状況認識装置。
A video data pre-processing unit that performs sampling and normalization on the time series of the image data;
A sensor data pre-processing unit that performs normalization and feature vectorization on the sensor data time series,
4. The movement according to claim 3, wherein the movement status recognition unit inputs the processing result of the video data preprocessing unit and the processing result of the sensor data preprocessing unit to the DNN model and recognizes the movement status of the moving body. Situation recognition device.
移動状況認識半教師ありDNNモデル構築部が、移動体に搭載されたカメラの画像データの時系列及び前記移動体に搭載されたセンサのセンサデータの時系列を入力とし、画像データの各々の特徴及びセンサデータの各々の特徴を抽出し、画像データの各々の特徴及びセンサデータの各々の特徴を抽象化したデータから、前記移動体の移動状況を認識するためのDNN(Deep Neural Network)モデルであって、更に、前記画像データの各々の特徴及び前記センサデータの各々の特徴を抽象化したデータから、復号画像データの時系列及び復号センサデータの時系列を復号するDNNモデルを構築し、
移動状況認識DNNモデル教師なし学習部が、前記画像データの時系列及び前記センサデータの時系列に基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルから出力される、前記復号画像データの時系列及び前記復号センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列とが一致するように、前記DNNモデルのパラメータを学習し、
移動状況認識DNN教師あり学習部が、前記学習された前記DNNモデルのパラメータと、前記画像データの時系列及び前記センサデータの時系列と、前記画像データの時系列及び前記センサデータの時系列に対して予め付与された移動状況を示すアノテーションとに基づいて、前記画像データの時系列及び前記センサデータの時系列を入力したときに前記DNNモデルにより認識される移動状況が、前記アノテーションが示す移動状況と一致するように、前記DNNモデルのパラメータを学習する
移動状況認識モデル学習方法。
The moving state recognition semi-supervised DNN model construction unit receives the time series of the image data of the camera mounted on the moving body and the time series of the sensor data of the sensor mounted on the moving body, and each feature of the image data In addition, a DNN (Deep Natural Network) model for recognizing the movement state of the moving body from data obtained by extracting each feature of the sensor data and abstracting each feature of the image data and each feature of the sensor data. Further, a DNN model for decoding a time series of decoded image data and a time series of decoded sensor data is constructed from data obtained by abstracting each characteristic of the image data and each characteristic of the sensor data,
When the movement state recognition DNN model unsupervised learning unit inputs the time series of the image data and the time series of the sensor data based on the time series of the image data and the time series of the sensor data, The parameters of the DNN model are learned so that the time series of the decoded image data and the time series of the decoded sensor data that are output match the time series of the image data and the time series of the sensor data,
The movement state recognition DNN supervised learning unit is configured to set the learned DNN model parameters, the time series of the image data and the time series of the sensor data, the time series of the image data, and the time series of the sensor data. The movement indicated by the annotation is recognized by the DNN model when the time series of the image data and the time series of the sensor data are input based on the annotation indicating the movement situation given in advance. A movement situation recognition model learning method for learning parameters of the DNN model so as to match a situation.
移動状況認識部が、認識対象の移動体についての画像データの時系列及びセンサデータの時系列を、請求項5記載の移動状況認識モデル学習方法によって学習された前記DNNモデルに入力して、前記移動体の移動状況を認識する
移動状況認識方法。
The movement situation recognition unit inputs a time series of image data and a time series of sensor data about a moving object to be recognized to the DNN model learned by the movement situation recognition model learning method according to claim 5, A method for recognizing the movement status of a moving object
コンピュータを、請求項1若しくは2に記載の移動状況認識モデル学習装置、又は請求項3若しくは4に記載の移動状況認識装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the movement condition recognition model learning apparatus of Claim 1 or 2, or the movement condition recognition apparatus of Claim 3 or 4.
JP2017103358A 2017-05-25 2017-05-25 Movement situational awareness model learning device, movement situational awareness device, method, and program Active JP6857547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103358A JP6857547B2 (en) 2017-05-25 2017-05-25 Movement situational awareness model learning device, movement situational awareness device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103358A JP6857547B2 (en) 2017-05-25 2017-05-25 Movement situational awareness model learning device, movement situational awareness device, method, and program

Publications (2)

Publication Number Publication Date
JP2018198028A true JP2018198028A (en) 2018-12-13
JP6857547B2 JP6857547B2 (en) 2021-04-14

Family

ID=64663724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103358A Active JP6857547B2 (en) 2017-05-25 2017-05-25 Movement situational awareness model learning device, movement situational awareness device, method, and program

Country Status (1)

Country Link
JP (1) JP6857547B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (en) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー System for automatically identifying abnormal navigation state of ship with unsupervised learning, and method for the same
WO2020170870A1 (en) * 2019-02-20 2020-08-27 日本電信電話株式会社 Event occurrence time learning device, event occurrence time estimation device, event occurrence time estimation method, event occurrence time learning program, and event occurrence time estimation program
JP2020154551A (en) * 2019-03-19 2020-09-24 株式会社日立製作所 Behavior analysis device and behavior analysis method
WO2020262316A1 (en) * 2019-06-25 2020-12-30 日本電信電話株式会社 Data analysis system, data analysis method, and program
US10950352B1 (en) 2020-07-17 2021-03-16 Prince Mohammad Bin Fahd University System, computer-readable storage medium and method of deep learning of texture in short time series
WO2022234678A1 (en) * 2021-05-07 2022-11-10 ファナック株式会社 Machine learning device, classification device, and control device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152595A (en) * 2012-01-25 2013-08-08 Sony Corp Information processing apparatus and method, and program
JP2015108886A (en) * 2013-12-03 2015-06-11 株式会社日立パワーソリューションズ Abnormality sign diagnosis device and abnormality sign diagnosis method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152595A (en) * 2012-01-25 2013-08-08 Sony Corp Information processing apparatus and method, and program
JP2015108886A (en) * 2013-12-03 2015-06-11 株式会社日立パワーソリューションズ Abnormality sign diagnosis device and abnormality sign diagnosis method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
伊藤 浩二: "画像分野へのDeep Learningの活用", 画像ラボ 第28巻 第2号, vol. 第28巻, JPN6020039346, 10 February 2017 (2017-02-10), JP, pages 45 - 47, ISSN: 0004367420 *
前川 卓也,外6名: "手首に装着したカメラ付きセンサデバイスを用いた行動認識手法", 電子情報通信学会論文誌 (J95−B) 第11号, vol. 第J95-B巻, JPN6020039347, 2012, JP, pages 1480 - 1490, ISSN: 0004367421 *
遠藤 結城,外2名: "移動手段推定のための表現学習を用いたGPSログからの特徴抽出", 情報処理学会論文誌 データベース VOL.8 NO.3, vol. 第8巻, JPN6020039344, 2015, JP, pages 12 - 23, ISSN: 0004367419 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (en) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー System for automatically identifying abnormal navigation state of ship with unsupervised learning, and method for the same
WO2020170870A1 (en) * 2019-02-20 2020-08-27 日本電信電話株式会社 Event occurrence time learning device, event occurrence time estimation device, event occurrence time estimation method, event occurrence time learning program, and event occurrence time estimation program
JP2020135482A (en) * 2019-02-20 2020-08-31 日本電信電話株式会社 Event occurrence time learning device, event occurrence time estimation device, event occurrence time estimation method, event occurrence time learning program, and event occurrence time estimation program
JP7092062B2 (en) 2019-02-20 2022-06-28 日本電信電話株式会社 Event occurrence time learning device, event occurrence time estimation device, event occurrence time estimation method, event occurrence time learning program, and event occurrence time estimation program
JP2020154551A (en) * 2019-03-19 2020-09-24 株式会社日立製作所 Behavior analysis device and behavior analysis method
WO2020262316A1 (en) * 2019-06-25 2020-12-30 日本電信電話株式会社 Data analysis system, data analysis method, and program
JP2021005170A (en) * 2019-06-25 2021-01-14 日本電信電話株式会社 Data analysis system, data analysis method and program
JP7275903B2 (en) 2019-06-25 2023-05-18 日本電信電話株式会社 Data analysis system, data analysis method and program
US10950352B1 (en) 2020-07-17 2021-03-16 Prince Mohammad Bin Fahd University System, computer-readable storage medium and method of deep learning of texture in short time series
WO2022234678A1 (en) * 2021-05-07 2022-11-10 ファナック株式会社 Machine learning device, classification device, and control device

Also Published As

Publication number Publication date
JP6857547B2 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6857547B2 (en) Movement situational awareness model learning device, movement situational awareness device, method, and program
JP6529470B2 (en) Movement situation learning device, movement situation recognition device, method, and program
Challa et al. A multibranch CNN-BiLSTM model for human activity recognition using wearable sensor data
WO2021190451A1 (en) Method and apparatus for training image processing model
US20230196117A1 (en) Training method for semi-supervised learning model, image processing method, and device
CN111797893B (en) Neural network training method, image classification system and related equipment
WO2022042713A1 (en) Deep learning training method and apparatus for use in computing device
JP6900576B2 (en) Movement situational awareness model learning device, movement situational awareness device, method, and program
Wozniak et al. Scene recognition for indoor localization of mobile robots using deep CNN
CN113807399B (en) Neural network training method, neural network detection method and neural network training device
CN113159283A (en) Model training method based on federal transfer learning and computing node
WO2023231954A1 (en) Data denoising method and related device
CN111797589A (en) Text processing network, neural network training method and related equipment
WO2021129668A1 (en) Neural network training method and device
CN113516227B (en) Neural network training method and device based on federal learning
WO2022012668A1 (en) Training set processing method and apparatus
CN113191241A (en) Model training method and related equipment
CN111738403A (en) Neural network optimization method and related equipment
CN113011568A (en) Model training method, data processing method and equipment
Pezzuoli et al. Recognition and classification of dynamic hand gestures by a wearable data-glove
CN112529149A (en) Data processing method and related device
CN113627421A (en) Image processing method, model training method and related equipment
JP6939998B2 (en) Movement status analysis device, movement status analysis method and program
CN111695419A (en) Image data processing method and related device
JP7176626B2 (en) Movement situation learning device, movement situation recognition device, model learning method, movement situation recognition method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6857547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150