JP6480319B2 - Road surface condition understanding method, apparatus, and program - Google Patents

Road surface condition understanding method, apparatus, and program Download PDF

Info

Publication number
JP6480319B2
JP6480319B2 JP2015246263A JP2015246263A JP6480319B2 JP 6480319 B2 JP6480319 B2 JP 6480319B2 JP 2015246263 A JP2015246263 A JP 2015246263A JP 2015246263 A JP2015246263 A JP 2015246263A JP 6480319 B2 JP6480319 B2 JP 6480319B2
Authority
JP
Japan
Prior art keywords
walking
data
group
unit
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015246263A
Other languages
Japanese (ja)
Other versions
JP2017111659A (en
Inventor
浩之 戸田
浩之 戸田
真由美 羽田野
真由美 羽田野
京介 西田
京介 西田
彰久 川野辺
彰久 川野辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015246263A priority Critical patent/JP6480319B2/en
Publication of JP2017111659A publication Critical patent/JP2017111659A/en
Application granted granted Critical
Publication of JP6480319B2 publication Critical patent/JP6480319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、路面状況理解方法、装置、及びプログラムに係り、特に、ユーザが歩行する路面の状況を理解するための路面状況理解方法、装置、及びプログラムに関する。   The present invention relates to a road surface situation understanding method, apparatus, and program, and more particularly, to a road surface situation understanding method, apparatus, and program for understanding a road surface situation where a user walks.

数多くのセンサデバイスが組み込まれたスマートフォンの普及以来、携帯型のセンサデバイスを用いて路面の状況を理解しようとするいくつかの取組がある。   Since the spread of smartphones incorporating a large number of sensor devices, there have been several efforts to understand road conditions using portable sensor devices.

一つの取組として、自動車に設置されたスマートフォンを用いて、路面の段差や、舗装路であるのか砂利道であるのか等の道路の状況を検知しようとする取組がある(非特許文献1、及び非特許文献2参照)。これらの取組では、自動車に設置されたスマートフォンの加速度センサの情報を元に、段差や路面状況を推定し、同時に測定した測位情報とともに関連付けることで、どの場所がどのような路面状況であるのかを把握しようとするものである。   One approach is to use a smartphone installed in an automobile to detect road steps, road conditions such as paved roads or gravel roads (Non-Patent Document 1, and Non-patent document 2). In these efforts, steps and road surface conditions are estimated based on information from the acceleration sensors of smartphones installed in automobiles, and correlated with positioning information measured at the same time to determine which location is what road surface condition. It is something to try to grasp.

また、別の取組として、人の持つスマートフォン等の情報を元に人の行動(立つ、座る、歩行など)を理解しようとする取組がある(非特許文献3参照)。立つ、座る、歩行の認識だけでは路面状況の把握とはつながらないが、階段を上る、階段を下るという行動を認識することで、その場所に階段があることを把握することが可能となる。このような行動認識を行う場合、センサで取得できるデータ傾向に個人差が大きいことから、個人のデータのみを対象として教師あり学習の枠組みで認識を行うことが多いが、認識精度を向上させるための十分な量のデータの確保等を目的に、類似性が想定される。   As another approach, there is an approach for trying to understand a person's behavior (standing, sitting, walking, etc.) based on information such as a smartphone held by the person (see Non-Patent Document 3). Although recognition of standing, sitting, and walking alone does not lead to grasping the road surface condition, it is possible to grasp that there is a stairs at that place by recognizing the action of going up the stairs or going down the stairs. When such behavior recognition is performed, there is a large individual difference in the data trend that can be acquired by the sensor, so recognition is often performed in a supervised learning framework only for personal data, but in order to improve recognition accuracy Similarity is assumed for the purpose of securing a sufficient amount of data.

また、ユーザ自体のデータも活用しようとする取組がある(非特許文献4参照)。このような枠組みを利用することで、学習データの確保ができ、教師データを作成していないユーザの行動についても理解が可能となる。   In addition, there is an approach to use the user's own data (see Non-Patent Document 4). By using such a framework, it is possible to secure learning data and to understand the actions of users who have not created teacher data.

野村智洋ら,"快適な運転支援のためのスマートフォンを用いた路面状況の推定手法の提案",情報処理学会第5 回全国大会,5v-6,2013.Tomohiro Nomura et al., “Proposal of Road Surface Estimation Method Using Smartphone for Comfortable Driving Support”, IPSJ 5th National Convention, 5v-6, 2013. 八木浩一,"スマートフォンを活用した路面段差観測手法と東北地方太平洋沖地震後の路面段差分布の調査結果",第9回日本道路会議,2011.Koichi Yagi, "Surface Level Step Observation Method Using Smartphone and Survey Results of Road Level Step Distribution after the Tohoku Earthquake", 9th Japan Road Conference, 2011. Jennifer R. Kwapisz, Gary M. Weiss, Samuel A. Moore, \Activity Recognition using Cell Phone Accelerometers", in Proc. of SensorKDD, 2010.Jennifer R. Kwapisz, Gary M. Weiss, Samuel A. Moore, \ Activity Recognition using Cell Phone Accelerometers ", in Proc. Of SensorKDD, 2010. N.D.Lane, Y.Xu, H.Lu, S.Hu, T.Choudhury, A.T.Cambell, and F.Zhao, "Enabling large-scale human activity inference on smartphones using community similarity networks", In Proc. of UbiComp '11, pp.355-364,2011.NDLane, Y.Xu, H.Lu, S.Hu, T.Choudhury, ATCambell, and F.Zhao, "Enabling large-scale human activity inference on smartphones using community similarity networks", In Proc. Of UbiComp '11 , pp.355-364,2011.

しかし、上記の従来技術には以下の未解決の点がある。   However, the above prior art has the following unsolved points.

自動車に設置したスマートフォンを用いる手段では、当然ながら自動車が走ることができない場所、例えば歩道や屋内等の情報を収集することができない。   Obviously, the means using a smartphone installed in a car cannot collect information on places where the car cannot run, such as sidewalks and indoors.

この場所の問題については、スマートフォンを持つ人の行動を理解するアプローチを考えることで解決することも可能と考えられるが、現在の行動認識の取組を活用するには課題があると考えられる。その一つはこれまでの行動認識の手法は、センサ出力データを図1に示すような特定の時間窓の区間に切出し、時間的に継続した人の行動(例えば10秒間の行動など)を把握する手段となっており、ピンポイントで段差や路面状況を理解しようとした場合には、別の処理が必要になると考えられる。また時間的に継続した行動を把握しようとすることで、わずかなタイミングでしか生じない段差を超えたという行動などを把握することはそもそも困難と考えられる。   The problem of this place can be solved by considering an approach to understand the behavior of people with smartphones, but it seems that there are issues in utilizing the current behavior recognition efforts. One of the conventional behavior recognition methods is to extract sensor output data into a specific time window section as shown in Fig. 1 and grasp the human behavior that continued in time (for example, behavior for 10 seconds). If you try to understand the level difference and road surface condition pinpoint, it is considered that another process is required. In addition, it is thought that it is difficult in the first place to grasp an action that exceeds a step that occurs only at a slight timing by grasping an action that continues in time.

ユーザ間の類似性を元に教師データを増やそうとするアプローチは一般的に認識精度向上には有効と考えられるが、これまでの取組みでは、ユーザ属性や未加工のセンシングデータなどによるグループ化が効果的な行動パターン分析等のタスクに用いられており、今回対象とする一歩一歩の歩みの状態を判定するタスクにおいては、既存のグループ化の方法では十分に機能させることは困難と考えられる。   Approaches to increase teacher data based on similarity between users are generally considered effective for improving recognition accuracy, but grouping based on user attributes and raw sensing data has been effective in previous efforts. It is used for tasks such as typical behavior pattern analysis, and it is considered difficult to function sufficiently with the existing grouping method in the task for determining the state of step by step which is the subject of this time.

本発明は、上記問題点を解決するために成されたものであり、ユーザの歩行ステップごとの路面状況を精度よく認識できる路面状況理解方法、装置、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a road surface state understanding method, apparatus, and program capable of accurately recognizing a road surface state for each walking step of a user.

上記目的を達成するために、第1の発明に係る路面状況理解方法は、歩行ステップ認識部が、ユーザが携帯する携帯デバイスに備え付けらえているセンサの出力値をタイムスタンプとともに時系列に記録したセンサ出力データに基づいて、前記センサ出力データにおける、前記ユーザが歩行する際の個々の足の運びである歩行ステップを認識するステップと、歩行データセグメント化部が、前記歩行ステップ認識部で認識された歩行ステップに基づいて、前記センサ出力データを、前記歩行ステップに対応する歩行データの各々にセグメント化するステップと、データグループ化部が、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、予め求められた、複数のユーザがグループ化されたグループ群、又は前記複数のユーザの前記歩行データがグループ化されたグループ群から、前記歩行データが所属するグループを特定するステップと、ステップ種別認識部が、前記歩行ステップ認識部により認識された歩行データの各々について、前記データグループ化部で特定された前記歩行データのグループに基づいて、前記歩行データにおける歩行ステップ状態を認識するステップと、位置別路面状況理解部が、前記携帯デバイスが存在する位置を計測した結果をタイムスタンプとともに記録した測位データに基づいて、前記歩行データの各々に対する前記測位データと、前記ステップ種別認識部によって認識された前記歩行データの各々に対する前記歩行ステップ状態とを集計して、各位置の路面状況を認識するステップと、を含んで実行することを特徴とする。   In order to achieve the above object, in the road surface state understanding method according to the first invention, the walking step recognition unit records the output value of the sensor provided in the portable device carried by the user in time series along with the time stamp. Based on the sensor output data, a step of recognizing a walking step that is a step of an individual foot when the user walks in the sensor output data, and a walking data segmentation unit are recognized by the walking step recognition unit. Segmenting the sensor output data into each of the walking data corresponding to the walking step based on the walking step, and the walking data segmented by the walking data segmentation unit by the data grouping unit A group group in which a plurality of users are grouped in advance, or A step of identifying a group to which the walking data belongs from a group of groups of the walking data of a plurality of users, and a step type recognition unit for each of the walking data recognized by the walking step recognition unit The step of recognizing the walking step state in the walking data based on the group of the walking data specified by the data grouping unit, and the position-specific road surface state understanding unit measured the position where the portable device exists. Based on the positioning data recorded with a time stamp, the positioning data for each of the walking data and the walking step state for each of the walking data recognized by the step type recognition unit, Recognizing the road surface condition of the position, And butterflies.

また、第1の発明に係る路面状況理解方法において、前記グループ群の各グループには、前記グループに属する前記ユーザの属性を表すユーザ属性、又は前記グループに属する歩行データの前記ユーザのユーザ属性が付与されており、前記データグループ化部がグループを特定するステップは、予め取得した歩行中のユーザのユーザ属性と、前記グループ群の各グループに付与されているユーザ属性とに基づいて、前記歩行データの各々が所属するグループを特定するようにしてもよい。   Further, in the road surface state understanding method according to the first invention, each group of the group group includes a user attribute representing the attribute of the user belonging to the group or a user attribute of the user of the walking data belonging to the group. And the step of identifying the group by the data grouping unit is based on the user attribute of the user who is walking in advance and the user attribute that is assigned to each group of the group group. A group to which each piece of data belongs may be specified.

また、第1の発明に係る路面状況理解方法において、前記グループ群は、前記測位データを更に考慮して前記複数のユーザがグループ化されたグループ群、又は前記測位データを更に考慮して前記複数のユーザの前記歩行データがグループ化されたグループ群であって、前記データグループ化部がグループを特定するステップは、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、前記歩行データに対する測位データに基づいて、前記グループ群から、前記歩行データが所属するグループを特定するようにしてもよい。   In the road surface condition understanding method according to the first aspect of the present invention, the group group includes a group group in which the plurality of users are grouped by further considering the positioning data, or the plurality of groups further considering the positioning data. The step of specifying the group by the data grouping unit is a group group in which the walking data of the user is grouped, and for each of the walking data segmented by the walking data segmentation unit, A group to which the walking data belongs may be specified from the group group based on positioning data for the data.

第2の発明に係る路面状況理解装置は、ユーザが携帯する携帯デバイスに備え付けらえているセンサの出力値をタイムスタンプとともに時系列に記録したセンサ出力データに基づいて、前記センサ出力データにおける、前記ユーザが歩行する際の個々の足の運びである歩行ステップを認識する歩行ステップ認識部と、前記歩行ステップ認識部で認識された歩行ステップに基づいて、前記センサ出力データを、前記歩行ステップに対応する歩行データの各々にセグメント化する歩行データセグメント化部と、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、予め求められた、複数のユーザがグループ化されたグループ群、又は前記複数のユーザの前記歩行データがグループ化されたグループ群から、前記歩行データが所属するグループを特定するデータグループ化部と、前記歩行ステップ認識部により認識された歩行データの各々について、前記データグループ化部で特定された前記歩行データのグループに基づいて、前記歩行データにおける歩行ステップ状態を認識するステップ種別認識部と、位置別路面状況理解部が、前記携帯デバイスが存在する位置を計測した結果をタイムスタンプとともに記録した測位データに基づいて、前記歩行データの各々に対する前記測位データと、前記ステップ種別認識部によって認識された前記歩行データの各々に対する前記歩行ステップ状態とを集計して、各位置の路面状況を認識するステップと、を含んで構成されている。   The road surface condition understanding device according to the second invention is based on sensor output data in which the output value of a sensor provided in a portable device carried by a user is recorded in time series together with a time stamp, in the sensor output data, Corresponding to the walking step, the sensor output data corresponds to the walking step recognition unit that recognizes the walking step that is the step of the individual foot when the user walks, and the walking step recognized by the walking step recognition unit. A group of groups of a plurality of users obtained in advance for each of the walking data segmented by the walking data segmentation unit and the walking data segmentation unit that segments into each of the walking data to be grouped, Alternatively, from the group group in which the walking data of the plurality of users are grouped, the walking For each of the walking data recognized by the walking step recognition unit and a data grouping unit that identifies a group to which the data belongs, the walking data is based on the group of the walking data specified by the data grouping unit. The step type recognition unit for recognizing the walking step state and the position-specific road surface state understanding unit measure the position where the portable device is present, based on the positioning data recorded together with the time stamp, for each of the walking data The positioning data and the step of recognizing the road surface condition at each position by aggregating the walking step state for each of the walking data recognized by the step type recognition unit.

また、第2の発明に係る路面状況理解装置において、前記グループ群の各グループには、前記グループに属する前記ユーザの属性を表すユーザ属性、又は前記グループに属する歩行データの前記ユーザのユーザ属性が付与されており、前記データグループ化部は、予め取得した歩行中のユーザのユーザ属性と、前記グループ群の各グループに付与されているユーザ属性とに基づいて、前記歩行データの各々が所属するグループを特定するようにしてもよい。   Further, in the road surface condition understanding device according to the second invention, each group of the group group has a user attribute representing the attribute of the user belonging to the group or a user attribute of the user of the walking data belonging to the group. Each of the walking data belongs to the data grouping unit based on a user attribute of the user who is walking and acquired in advance and a user attribute assigned to each group of the group group. A group may be specified.

また、第2の発明に係る路面状況理解装置において、前記グループ群は、前記測位データを更に考慮して前記複数のユーザがグループ化されたグループ群、又は前記測位データを更に考慮して前記複数のユーザの前記歩行データがグループ化されたグループ群であって、前記データグループ化部は、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、前記歩行データに対する測位データに基づいて、前記グループ群から、前記歩行データが所属するグループを特定するようにしてもよい。   In the road surface condition understanding device according to the second aspect of the present invention, the group group includes a group group in which the plurality of users are grouped by further considering the positioning data, or the plurality of groups further considering the positioning data. A group of the user's walking data grouped, wherein the data grouping unit is based on positioning data for the walking data for each of the walking data segmented by the walking data segmentation unit. Then, the group to which the walking data belongs may be specified from the group group.

第3の発明に係るプログラムは、コンピュータを、上記第1の発明に係る路面状況理解方法の各ステップを実行させるためのプログラムである。   A program according to a third invention is a program for causing a computer to execute each step of the road surface condition understanding method according to the first invention.

本発明の路面状況理解方法、装置、及びプログラムによれば、歩行ステップを認識し、歩行ステップに対応する歩行データの各々にセグメント化し、セグメント化された歩行データの各々について、グループ群から、歩行データが所属するグループを特定し、歩行データのグループに基づいて、歩行ステップ状態の何れかを認識することにより、ユーザの歩行ステップごとの路面状況を精度よく認識できる、という効果が得られる。   According to the road surface state understanding method, apparatus, and program of the present invention, a walking step is recognized, segmented into each of the walking data corresponding to the walking step, and each of the segmented walking data is walked from the group group. By identifying the group to which the data belongs and recognizing any of the walking step states based on the group of walking data, the effect that the road surface condition for each walking step of the user can be accurately recognized can be obtained.

センサ出力データを特定の時間窓で切り出した一例を示す図である。It is a figure which shows an example which cut out sensor output data with the specific time window. 本発明の実施の形態に係る路面状況学習システムの構成を示すブロック図である。It is a block diagram which shows the structure of the road surface condition learning system which concerns on embodiment of this invention. 歩行データ蓄積部に格納されるセンサ出力データの一例を示す図である。It is a figure which shows an example of the sensor output data stored in a walk data storage part. センサ出力データから認識された歩行ステップの一例を示す図である。It is a figure which shows an example of the walking step recognized from the sensor output data. 測位データ蓄積部に格納される測位データの一例を示す図である。It is a figure which shows an example of the positioning data stored in a positioning data storage part. グループ化情報格納部に格納されるグループ群の一例を示す図である。It is a figure which shows an example of the group group stored in a grouping information storage part. 学習用分類データ格納部に格納されている分類データの一例を示す図である。It is a figure which shows an example of the classification data stored in the classification data storage part for learning. 本発明の実施の形態に係る路面状況学習システムの路面状況学習装置における路面状況学習処理ルーチンを示すフローチャートである。It is a flowchart which shows the road surface condition learning process routine in the road surface state learning apparatus of the road surface state learning system which concerns on embodiment of this invention. 本発明の実施の形態に係る路面状況理解システムの構成を示すブロック図である。It is a block diagram which shows the structure of the road surface condition understanding system which concerns on embodiment of this invention. 歩行データ分析結果蓄積部に格納される認識結果の一例を示す図である。It is a figure which shows an example of the recognition result stored in a walk data analysis result storage part. 本発明の実施の形態に係る路面状況理解システムの路面状況理解装置における路面状況理解処理ルーチンを示すフローチャートである。It is a flowchart which shows the road surface state understanding process routine in the road surface state understanding apparatus of the road surface state understanding system which concerns on embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の実施の形態に係る路面状況学習システムの構成> <Configuration of road surface learning system according to an embodiment of the present invention>

まず、本発明の実施の形態に係る路面状況学習システムの構成について説明する。図2に示すように、本発明の実施の形態に係る路面状況学習システム10は、複数のユーザがそれぞれ携帯する携帯デバイス100と、路面状況学習装置300とを備えている。   First, the configuration of the road surface state learning system according to the embodiment of the present invention will be described. As shown in FIG. 2, the road surface state learning system 10 according to the embodiment of the present invention includes a mobile device 100 and a road surface state learning device 300 each carried by a plurality of users.

携帯デバイス100は、歩行データ収集部110、及び測位部120を備え、歩行にかかわるセンサの出力値及び位置情報をタイムスタンプと併せて獲得し、必要に応じて記憶領域101に格納する。また、定期的もしくは、ユーザからの操作に応じて、歩行データ収集部110、及び測位部120により収集したデータ、及び必要に応じてそれに付随する識別情報を、それぞれ路面状況学習装置300の歩行データ蓄積部130、及び測位データ蓄積部180に送信し、蓄積させる。   The portable device 100 includes a walking data collection unit 110 and a positioning unit 120, acquires an output value and position information of a sensor related to walking together with a time stamp, and stores the acquired value in a storage area 101 as necessary. In addition, the data collected by the walking data collection unit 110 and the positioning unit 120 and the identification information associated with the data collected by the walking data collection unit 110 and the positioning unit 120 on a regular basis or according to an operation from the user, respectively, The data is transmitted to the storage unit 130 and the positioning data storage unit 180 and stored.

歩行データ収集部110は、携帯デバイス100に組み込まれたハードウエアもしくはソフトウエアとして実現される。この機能を実現するセンサの例としては、加速度センサやジャイロセンサ、歩行検知センサなどであり、これらのセンサの出力値をタイムスタンプとともに時系列で記録したセンサ出力データとして取得し、必要に応じて記憶領域101に記憶した上で、携帯デバイス100の機能により歩行データ蓄積部130に送信する。送信する際には、必要に応じて端末ID等の識別情報と関連付けて送信してもよい。   The walking data collection unit 110 is realized as hardware or software incorporated in the mobile device 100. Examples of sensors that realize this function are acceleration sensors, gyro sensors, walking detection sensors, etc., and output values of these sensors are obtained as sensor output data recorded in chronological order together with time stamps. After being stored in the storage area 101, it is transmitted to the walking data storage unit 130 by the function of the portable device 100. When transmitting, you may link | link with identification information, such as terminal ID, as needed.

測位部120は、携帯デバイス100に組み込まれたハードウエアもしくはソフトウエアとして実現される。この機能は、GPS等の衛星電波を用いた測位手段や、Wi−Fi(R)電波を用いた測位手段やそれらの組合せ等で実現される。ここで取得した位置情報はタイムスタンプと関連付けて取得され、必要に応じて記憶領域101に記憶した上で、携帯デバイス100の機能により測位データ蓄積部180に送信する。送信される際には、必要に応じて端末ID等の識別情報と関連付けて送信される場合がある。   The positioning unit 120 is realized as hardware or software incorporated in the mobile device 100. This function is realized by positioning means using satellite radio waves such as GPS, positioning means using Wi-Fi (R) radio waves, and combinations thereof. The position information acquired here is acquired in association with the time stamp, stored in the storage area 101 as necessary, and transmitted to the positioning data storage unit 180 by the function of the portable device 100. When transmitted, it may be transmitted in association with identification information such as a terminal ID as necessary.

路面状況学習装置300は、CPUと、RAMと、後述する路面状況学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。   The road surface state learning device 300 can be configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a road surface state learning process routine described later and various data.

路面状況学習装置300は、歩行データ蓄積部130と、歩行ステップ認識部140と、歩行データセグメント化部150と、ステップ種別学習部160と、学習用分類データ格納部163と、学習モデル格納部165と、測位データ蓄積部180と、データグループ化部200と、グループ化情報格納部205と、を備えている。   The road surface condition learning device 300 includes a walking data accumulation unit 130, a walking step recognition unit 140, a walking data segmentation unit 150, a step type learning unit 160, a learning classification data storage unit 163, and a learning model storage unit 165. A positioning data storage unit 180, a data grouping unit 200, and a grouping information storage unit 205.

歩行データ蓄積部130には、携帯デバイス100から受信したセンサ出力データの値が格納されている。歩行データ蓄積部130に蓄積されるセンサ出力データの一例は、図3に示すように、端末ID、タイムスタンプ、加速度X、Y、及びZ、並びにジャイロX、Y、及びZの情報である。   The walking data storage unit 130 stores the value of sensor output data received from the portable device 100. An example of sensor output data stored in the walking data storage unit 130 is information on terminal ID, time stamp, acceleration X, Y, and Z, and gyro X, Y, and Z, as shown in FIG.

歩行ステップ認識部140は、歩行データ蓄積部130に蓄積されたユーザ各々のセンサ出力データに基づいて、センサ出力データにおける、ユーザが歩行する際の個々の足の運びである歩行ステップを認識する。具体的には、歩行データ蓄積部130に蓄積されたセンサ出力データを分析し、ユーザが歩行する際の個々の足の運びである歩行ステップを認識する。つまり上記図1の波形データの入力を元に、図4に示す縦棒に相当するタイムスタンプの間隔で歩行ステップを認識する処理を行う。出力する歩行ステップのデータは、複数のタイムスタンプの形で与えられ、図1の波形に沿ったセンサ出力データをユーザの歩行ステップに基づき区切った情報である。この認識方法の一例としては、センサ出力データのピークを特定した後、ピーク間隔の時間を特定し、その時間に応じて波形を区切る方法が考えられる。なお、携帯デバイスに備え付けられている歩数計測センサから得られる情報を元に歩行ステップを認識するようにしてもよい。   The walking step recognizing unit 140 recognizes a walking step, which is an individual foot movement when the user walks, in the sensor output data based on the sensor output data of each user stored in the walking data storage unit 130. Specifically, the sensor output data stored in the walking data storage unit 130 is analyzed, and the walking steps that are the steps of the individual feet when the user walks are recognized. That is, based on the input of the waveform data shown in FIG. 1, processing for recognizing the walking step is performed at time stamp intervals corresponding to the vertical bars shown in FIG. The walking step data to be output is information that is given in the form of a plurality of time stamps, and is obtained by dividing the sensor output data along the waveform of FIG. 1 based on the user's walking step. As an example of this recognition method, a method of specifying a peak of sensor output data, specifying a peak interval time, and dividing a waveform according to the time can be considered. Note that the walking step may be recognized based on information obtained from a step counting sensor provided in the portable device.

歩行データセグメント化部150は、歩行ステップ認識部140で認識された歩行ステップに基づいて、歩行データ蓄積部130に蓄積されたユーザの各々のセンサ出力データを、歩行ステップに対応する歩行データの各々にセグメント化する。単純な手法は、上記図4で示した縦棒間隔の2つの間の区間をステップ区間データとして一つのセグメントと見なす方法である。その他にも、一つの歩行ステップの特徴は、前後の歩行ステップにも表れるという考えの元、歩行ステップに対応するステップ区間データに加えて、前後の歩行ステップに対応するステップ区間データも合わせて一つの歩行ステップに対応するセグメントと見なすことも考えられる。また、携帯デバイス100の配置場所によっては、右足と左足のステップでセンサ情報に違いがみられる場合も想定される。その場合には2ステップ毎にセンサ出力データをセグメント化することも考えられる。   The walking data segmentation unit 150 uses each sensor output data stored in the walking data storage unit 130 based on the walking step recognized by the walking step recognition unit 140 as the walking data corresponding to the walking step. Segment into A simple method is a method in which a section between two vertical bar intervals shown in FIG. 4 is regarded as one segment as step section data. In addition to the step interval data corresponding to the walking step, the step interval data corresponding to the preceding and following walking steps is combined with the idea that the characteristics of one walking step also appear in the preceding and following walking steps. It can also be considered as a segment corresponding to one walking step. In addition, depending on the arrangement location of the mobile device 100, it may be assumed that there is a difference in sensor information between the step of the right foot and the left foot. In that case, it is also conceivable to segment the sensor output data every two steps.

測位データ蓄積部180には、携帯デバイス100から受信した識別情報と、測位データの値とが、歩行データの各々に対する測位データとして格納される。測位データ蓄積部180に蓄積される測位データの一例を図5に示す。図5の例では、屋外を想定し、測位結果として緯度経度を記録しているが、屋内の測位を用いる際には、施設名称や施設内部での場所を示す情報を記録することも考えられる。   The positioning data storage unit 180 stores the identification information received from the portable device 100 and the value of the positioning data as positioning data for each of the walking data. An example of the positioning data stored in the positioning data storage unit 180 is shown in FIG. In the example of FIG. 5, the latitude and longitude are recorded as a positioning result on the assumption that it is outdoors. However, when indoor positioning is used, it is also possible to record information indicating the facility name and the location inside the facility. .

データグループ化部200は、歩行データセグメント化部150でセグメント化された歩行データの各々に基づいて、複数のユーザの歩行データをグループ化したグループ群を学習する。ここで学習されるグループ群は、グループ群の各グループには、グループに属する歩行データに対応するユーザのユーザ属性が付与されていてもよい。また、測位データ蓄積部180に蓄積された測位データを更に考慮して歩行データをグループ化してもよい。   The data grouping unit 200 learns a group group in which walking data of a plurality of users are grouped based on each of the walking data segmented by the walking data segmentation unit 150. In the group group learned here, the user attribute of the user corresponding to the walking data belonging to the group may be given to each group of the group group. Further, the walking data may be grouped in consideration of the positioning data stored in the positioning data storage unit 180.

具体的には、歩行データセグメント化部150にて歩行ステップの単位で分割された歩行データを用いて、ユーザに紐づく一部の歩行データ群を類似度に基づいてグループ化し、各グループの特徴ベクトルを作成する。グループ化の類似度算出方法の一例としては、歩行ステップ単位での歩行データをもとに、加速度の平均値や最大値などにより歩行データを特徴ベクトルで表現し、コサイン類似度などのベクトル間類似度を利用することが考えられる。また、上記特徴ベクトルに加えて、あらかじめ取得したユーザの属性の属性を表すユーザ属性(体格、センサの配置場所等)をグループに付与して制約として活用することや、測位データによって、地理的な場所の情報も特徴ベクトルに組込み、類似度を評価することも考えられる。   Specifically, using the walking data segmented by the walking step unit by the walking data segmentation unit 150, a part of the walking data group linked to the user is grouped based on the similarity, and the characteristics of each group Create a vector. As an example of the grouping similarity calculation method, walking data is expressed as a feature vector based on walking data in units of walking steps by means of average and maximum acceleration, and similarities between vectors such as cosine similarity. It is possible to use the degree. In addition to the above feature vectors, user attributes (physique, sensor location, etc.) that represent previously acquired user attributes can be assigned to groups and used as constraints, It is also possible to incorporate location information into the feature vector and evaluate the similarity.

グループ化の一例としては、複数のユーザの歩行データ群に基づいて、k−means(参考文献1参照)に代表されるクラスタリングアルゴリズムで歩行データ群をグループ化し、各グループの特徴を表現する特徴ベクトルを作成する。また別の方法としては、学習時にはそれぞれのユーザに紐づく一部の歩行データを個々のグループと見なして、各グループの特徴を表現する特徴ベクトルを作成することが考えられる。   As an example of grouping, a feature vector that represents a feature of each group by grouping the walking data group by a clustering algorithm represented by k-means (see Reference 1) based on the walking data group of a plurality of users Create As another method, at the time of learning, a part of walking data associated with each user is regarded as an individual group, and a feature vector expressing the characteristics of each group can be created.

[参考文献1]:S.P.Lloyd, "Least Squares Quantization in PCM", IEEE Trans. on Information Theory Vol. IT-28, No. 2,1982. [Reference 1]: S.P.Lloyd, "Least Squares Quantization in PCM", IEEE Trans. On Information Theory Vol. IT-28, No. 2,1982.

学習されたグループ群の各グループのグループ化情報(グループID)と、各グループの特徴ベクトルとは、グループ化情報格納部205に格納される。図6に、格納されるグループ群のグループID、及びグループ特徴ベクトルの一例を示す。   The grouping information (group ID) of each group of the learned group group and the feature vector of each group are stored in the grouping information storage unit 205. FIG. 6 shows an example of the group ID and group feature vector of the stored group group.

学習用分類データ格納部163には、ステップ種別学習部160で分類モデルを学習するための教師ラベルとなる分類データが格納されている。格納されている分類データの一例を図7に示す。このデータの作成方法の一例としては、学習用のセンサ出力データ収集と同時に、人手により入力することが考えられる。   The learning classification data storage unit 163 stores classification data that serves as a teacher label for the step type learning unit 160 to learn the classification model. An example of the stored classification data is shown in FIG. As an example of a method for creating this data, it is conceivable that the input is performed manually simultaneously with the collection of learning sensor output data.

ステップ種別学習部160は、歩行ステップ認識部140により認識された歩行データの各々と、データグループ化部200で学習されたグループ群と、学習用分類データ格納部163とに基づいて、グループ群におけるグループごとに、歩行データにおける歩行ステップの状態として、平地における歩行ステップ、傾斜地における歩行ステップ、及び段差における歩行ステップを含む複数の歩行ステップ状態の何れかを認識するための分類モデルを学習する。本実施の形態では、複数の歩行ステップ状態は、平地における歩行ステップ、傾斜地上りにおける歩行ステップ、傾斜地下りにおける歩行ステップ、段差上りにおける歩行ステップ、及び段差下りにおける歩行ステップからなる。   The step type learning unit 160 is based on each of the walking data recognized by the walking step recognition unit 140, the group group learned by the data grouping unit 200, and the learning classification data storage unit 163. For each group, a classification model for recognizing any of a plurality of walking step states including a walking step on a flat ground, a walking step on a sloping ground, and a walking step on a step as the state of the walking step in the walking data is learned. In the present embodiment, the plurality of walking step states include a walking step on a flat ground, a walking step on an inclined ground, a walking step on an inclined basement, a walking step on a step up, and a walking step on a step down.

歩行ステップ状態は、上記歩行データセグメント化部150でセグメントに区切られた個々の歩行データが、平地を歩いたものか、傾斜面を歩いたものか、段差を歩いたものか等、路面の状況に対応付ける形で分類されたものである。   The walking step state indicates the road surface condition such as whether the individual walking data divided into segments by the walking data segmentation unit 150 is walking on a flat ground, walking on an inclined surface, walking on a step, or the like. It is classified in the form corresponding to.

この分類を行うために、歩行データを特徴づける特徴量を取得し、教師あり学習の枠組みで分類モデルを構築する。特徴量の例としては、次のようなものが考えられる。(1)方向別加速度の平均値、標準偏差、(2)全体的な加速度の大きさ、(3)前後の加速度ピークとの間隔、である。   In order to perform this classification, feature quantities that characterize walking data are acquired, and a classification model is constructed in a supervised learning framework. Examples of the feature amount are as follows. (1) Average direction acceleration, standard deviation, (2) Overall acceleration magnitude, (3) Interval between acceleration peaks before and after.

分類モデルの学習においてには、歩行データセグメント化部150にて、歩行ステップの単位で分割した歩行データと、学習用分類データ格納部163に格納された、歩行データに対応付けられた分類データとに基づいて、学習を行う。実際の学習は、データグループ化部200で学習されたグループ群に基づき、グループの各々について分類モデルを学習する。1つのグループに対して、1つ以上の分類モデルを構築する。分類モデルの学習アルゴリズムとしては、一例としてSVM(参考文献2参照)等を用いる。構築した分類モデルは、学習モデル格納部165で管理される。   In the learning of the classification model, the walking data segmentation unit 150 divides the walking data in units of walking steps, and the classification data stored in the learning classification data storage unit 163 and associated with the walking data; Based on the learning. In actual learning, a classification model is learned for each group based on the group group learned by the data grouping unit 200. One or more classification models are constructed for one group. As an example of the classification model learning algorithm, SVM (see Reference 2) or the like is used. The constructed classification model is managed by the learning model storage unit 165.

[参考文献2]:V.Vapnik, "Statistical Learning Theory", Wiley-Interscience, 1998. [Reference 2]: V.Vapnik, "Statistical Learning Theory", Wiley-Interscience, 1998.

学習モデル格納部165には、ステップ種別学習部160で学習した分類モデルが格納される。   The learning model storage unit 165 stores the classification model learned by the step type learning unit 160.

<本発明の実施の形態に係る路面状況学習システムの作用> <Operation of the road surface state learning system according to the embodiment of the present invention>

次に、本発明の実施の形態に係る路面状況学習システム10の路面状況学習装置300の作用について説明する。路面状況学習装置300は、定期的に、歩行データ蓄積部130、及び測位データ蓄積部180にセンサ出力データ、及び測位データが蓄積、更新されていることを検知し、図8に示す路面状況学習処理ルーチンを実行する。   Next, the operation of the road surface state learning device 300 of the road surface state learning system 10 according to the embodiment of the present invention will be described. The road surface state learning device 300 periodically detects that the sensor output data and the positioning data are stored and updated in the walking data storage unit 130 and the positioning data storage unit 180, and the road surface state learning shown in FIG. Execute the processing routine.

まず、ステップS100では、歩行データ蓄積部130に蓄積されたユーザ各々のセンサ出力データに基づいて、センサ出力データにおける、ユーザが歩行する際の個々の足の運びである歩行ステップを認識する。   First, in step S <b> 100, based on the sensor output data of each user stored in the walking data storage unit 130, a walking step that is an individual foot movement when the user walks in the sensor output data is recognized.

次に、ステップS102では、ステップS100で認識された歩行ステップに基づいて、歩行データ蓄積部130に蓄積されたユーザの各々のセンサ出力データを、歩行ステップに対応する歩行データの各々にセグメント化する。   Next, in step S102, based on the walking step recognized in step S100, each sensor output data of the user stored in the walking data storage unit 130 is segmented into each of the walking data corresponding to the walking step. .

ステップS104では、ステップS102でセグメント化された歩行データの各々に基づいて、複数のユーザの歩行データをグループ化したグループ群を学習し、グループ化情報格納部205に格納する。   In step S <b> 104, based on each of the walking data segmented in step S <b> 102, a group group obtained by grouping a plurality of users' walking data is learned and stored in the grouping information storage unit 205.

ステップS106では、歩行ステップ認識部140により認識された歩行データの各々と、ステップS104で学習されたグループ群と、学習用分類データ格納部163に格納された分類データとに基づいて、グループ群におけるグループごとに、歩行データにおける歩行ステップの状態として、複数の歩行ステップ状態の何れかを認識するための分類モデルを学習し、学習モデル格納部165に格納する。   In step S106, based on each of the walking data recognized by the walking step recognition unit 140, the group group learned in step S104, and the classification data stored in the learning classification data storage unit 163, in the group group. For each group, a classification model for recognizing any of a plurality of walking step states is learned as a walking step state in the walking data, and stored in the learning model storage unit 165.

以上説明したように、本発明の実施の形態に係る路面状況学習システムによれば、携帯デバイス100によって、データを収集し、路面状況学習装置300は、歩行ステップを認識し、歩行ステップに対応する歩行データの各々にセグメント化し、セグメント化された歩行データの各々に基づいて、複数のユーザの歩行データをグループ化したグループ群を学習し、歩行ステップ状態を認識するための分類モデルを学習することにより、ユーザの歩行ステップごとの路面状況を精度よく認識するためのグループ群、及び分類モデルを学習することができる。   As described above, according to the road surface state learning system according to the embodiment of the present invention, the mobile device 100 collects data, and the road surface state learning device 300 recognizes the walking step and corresponds to the walking step. To segment into each of the walking data, and to learn a group model that groups the walking data of a plurality of users based on each of the segmented walking data, and to learn a classification model for recognizing the walking step state Thus, it is possible to learn a group group and a classification model for accurately recognizing a road surface situation for each walking step of the user.

<本発明の実施の形態に係る路面状況理解システムの構成> <Configuration of road surface condition understanding system according to an embodiment of the present invention>

次に、本発明の実施の形態に係る路面状況理解システムの構成について説明する。図9に示すように、本発明の実施の形態に係る路面状況理解システム12は、複数のユーザがそれぞれ携帯する携帯デバイス102と、路面状況理解装置302と、出力部50とを備えている。   Next, the configuration of the road surface condition understanding system according to the embodiment of the present invention will be described. As shown in FIG. 9, the road surface situation understanding system 12 according to the embodiment of the present invention includes a mobile device 102, a road surface situation understanding device 302, and an output unit 50 that are carried by a plurality of users.

携帯デバイス102は、歩行データ収集部112、及び測位部122を備え、歩行にかかわるセンサの出力値及び位置情報をタイムスタンプと併せて獲得し、必要に応じて記憶領域103に格納する。携帯デバイス102における歩行データ収集部112、測位部122、及び記憶領域103の構成は、上記携帯デバイス100の、歩行データ収集部110、測位部120、及び記憶領域101と同様である。   The portable device 102 includes a walking data collection unit 112 and a positioning unit 122, acquires an output value and position information of a sensor related to walking together with a time stamp, and stores it in the storage area 103 as necessary. The configuration of the walking data collection unit 112, the positioning unit 122, and the storage area 103 in the portable device 102 is the same as that of the walking data collection unit 110, the positioning unit 120, and the storage area 101 of the portable device 100.

路面状況理解装置302は、CPUと、RAMと、後述する路面状況理解処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。   The road surface condition understanding device 302 can be configured by a computer including a CPU, a RAM, and a ROM that stores a program and various data for executing a road surface condition understanding process routine described later.

路面状況理解装置302は、歩行データ蓄積部132と、歩行ステップ認識部142と、歩行データセグメント化部152と、ステップ種別認識部162と、学習モデル格納部166と、歩行データ分析結果蓄積部172と、測位データ蓄積部182と、位置別路面状況理解部192と、データグループ化部202と、グループ化情報格納部206と、を備えている。   The road surface condition understanding device 302 includes a walking data accumulation unit 132, a walking step recognition unit 142, a walking data segmentation unit 152, a step type recognition unit 162, a learning model storage unit 166, and a walking data analysis result accumulation unit 172. A positioning data storage unit 182, a position-specific road surface condition understanding unit 192, a data grouping unit 202, and a grouping information storage unit 206.

歩行データ蓄積部132には、携帯デバイス102から受信したセンサ出力データの値が格納されている。格納されるセンサ出力データの形式は歩行データ蓄積部130と同じである。   The walking data storage unit 132 stores sensor output data values received from the portable device 102. The format of the sensor output data stored is the same as that of the walking data storage unit 130.

歩行ステップ認識部142は、歩行データ蓄積部132に蓄積されたセンサ出力データに基づいて、センサ出力データにおける、ユーザが歩行する際の個々の足の運びである歩行ステップを認識する。具体的な処理は、上記歩行ステップ認識部140と同様である。   Based on the sensor output data stored in the walking data storage unit 132, the walking step recognition unit 142 recognizes the walking steps that are the steps of individual feet when the user walks in the sensor output data. The specific process is the same as that of the walking step recognition unit 140.

歩行データセグメント化部152は、歩行ステップ認識部142で認識された歩行ステップに基づいて、センサ出力データを、歩行ステップに対応する歩行データの各々にセグメント化する。具体的な処理は、上記歩行データセグメント化部150と同様である。   The walking data segmentation unit 152 segments the sensor output data into each of the walking data corresponding to the walking step based on the walking step recognized by the walking step recognition unit 142. The specific processing is the same as that of the walking data segmentation unit 150.

測位データ蓄積部182には、携帯デバイス102から受信した識別情報と、測位データの値とが、歩行データの各々に対する測位データとして格納される。格納される測位データの形式は測位データ蓄積部180と同じである。   The positioning data storage unit 182 stores the identification information received from the mobile device 102 and the value of the positioning data as positioning data for each of the walking data. The format of the positioning data stored is the same as that of the positioning data storage unit 180.

グループ化情報格納部206には、路面状況学習装置300により予め学習されたグループ群の各グループのグループ化情報(グループID)と、各グループの特徴ベクトルとが格納されている。格納されるデータの形式はグループ化情報格納部205と同じである。   The grouping information storage unit 206 stores the grouping information (group ID) of each group of the group group learned in advance by the road surface condition learning device 300 and the feature vector of each group. The format of the stored data is the same as that of the grouping information storage unit 205.

データグループ化部202は、歩行データセグメント化部152でセグメント化された歩行データの各々について、グループ化情報格納部206に格納された、複数のユーザの歩行データをグループ化したグループ群から、当該歩行データが所属するグループを特定する。歩行データのグループの特定には、例えば、学習時に作成したグループのうち、当該歩行データとの特徴ベクトルの類似性の高い一つ以上のクラスタに割当て、グループ情報として出力することが考えられる。また、k近傍法により歩行データと歩容の類似した歩行データ群をk個特定し、グループを特定することが考えられる。特定されるグループは1つ以上であればよい。   For each of the walking data segmented by the walking data segmentation unit 152, the data grouping unit 202 is stored in the grouping information storage unit 206, and a group group that groups the walking data of a plurality of users. Identify the group to which the walking data belongs. For example, a group of walking data may be specified by assigning to one or more clusters having a high similarity in feature vectors with the walking data among the groups created during learning and outputting the group information. Further, it is conceivable to specify k groups of walking data having a gait similar to walking data by the k-nearest neighbor method, and specify a group. One or more groups may be specified.

また、データグループ化部202は、予め取得した歩行中のユーザのユーザ属性と、グループ群の各グループに付与されているユーザ属性とに基づいて、歩行データの各々が所属するグループを特定するようにしてもよい。例えば、歩行中のユーザのユーザ属性において、センサ配置が特定されている場合には、特定のセンサ配置に絞り込んでグループを特定することができる。また、データグループ化部202は、歩行データセグメント化部152でセグメント化された歩行データの各々について、測位データ蓄積部182に格納された歩行データに対する測位データに基づいて、グループ群から、歩行データが所属するグループを特定してもよい。これにより、各グループの特徴ベクトルに組み込まれた緯度経度情報から、近い位置のグループに絞り込んでグループを特定することができる。   In addition, the data grouping unit 202 identifies the group to which each of the walking data belongs based on the user attribute of the user who is walking in advance and the user attribute assigned to each group of the group group. It may be. For example, when the sensor arrangement is specified in the user attribute of the user who is walking, the group can be specified by narrowing down to the specific sensor arrangement. In addition, the data grouping unit 202 determines the walking data from the group group based on the positioning data for the walking data stored in the positioning data storage unit 182 for each of the walking data segmented by the walking data segmentation unit 152. You may specify the group to which. Thereby, it is possible to specify a group by narrowing down to a group at a close position from the latitude and longitude information incorporated in the feature vector of each group.

学習モデル格納部166には、予め路面状況学習装置300により学習された分類モデルが格納されている。   The learning model storage unit 166 stores a classification model learned in advance by the road surface state learning device 300.

ステップ種別認識部162は、歩行ステップ認識部142により認識された歩行データの各々について、データグループ化部202で特定された歩行データのグループの分類モデルに基づいて、歩行データにおける歩行ステップの状態として、平地における歩行ステップ、傾斜地における歩行ステップ、及び段差における歩行ステップを含む複数の歩行ステップ状態の何れかを認識する。そして、歩行ステップの各々の認識結果を歩行データ分析結果蓄積部172に格納する。ここでは、歩行ステップ状態の認識にあたって、学習モデル格納部166を参照し、データグループ化部202で特定したグループについて学習された分類モデルを利用して歩行ステップの分類を行う。認識時に利用する分類モデルは1つの場合も考えられるが、複数の判定結果を重み付きで評価し分類するなど、複数の分類モデルを用いることも考えられる。   For each of the walking data recognized by the walking step recognizing unit 142, the step type recognizing unit 162 uses the walking data group classification model identified by the data grouping unit 202 as the walking step state in the walking data. Any of a plurality of walking step states including a walking step on a flat ground, a walking step on a sloping ground, and a walking step on a step is recognized. Then, each recognition result of the walking step is stored in the walking data analysis result accumulation unit 172. Here, when the walking step state is recognized, the learning model storage unit 166 is referred to, and the walking step is classified using the classification model learned for the group specified by the data grouping unit 202. Although there may be one classification model used at the time of recognition, it is also conceivable to use a plurality of classification models such as evaluating and classifying a plurality of determination results with weights.

歩行データ分析結果蓄積部172には、ステップ種別認識部162で認識された、歩行ステップの各々に対する歩行ステップ状態を含む認識結果が格納されている。路面状況理解装置302は定期的に、又は更新等に応じて歩行データ分析結果蓄積部172に蓄積された認識結果を出力部50に出力する。図10に示すように、歩行データ分析結果蓄積部172に格納される認識結果の一例は、各レコードが歩行ステップに対応した端末ID、タイムスタンプ開始点、タイムスタンプ終了点、及び分析結果(歩行ステップ状態)である。少なくともその歩行データを識別するための歩行データとその歩行データに対する認識結果を記憶する。歩行データを認識する例としては、データを取得した端末デバイスの端末ID及びデータ取得時のタイムスタンプの開始点、及び終了点を記録することが考えられる。   The walking data analysis result accumulating unit 172 stores a recognition result including a walking step state for each walking step recognized by the step type recognition unit 162. The road surface condition understanding device 302 outputs the recognition result accumulated in the walking data analysis result accumulation unit 172 to the output unit 50 periodically or in response to an update or the like. As shown in FIG. 10, an example of the recognition result stored in the walking data analysis result accumulation unit 172 is that each record corresponds to a walking step, a terminal ID, a time stamp start point, a time stamp end point, and an analysis result (walking Step state). At least walking data for identifying the walking data and a recognition result for the walking data are stored. As an example of recognizing walking data, it is conceivable to record the terminal ID of the terminal device that acquired the data and the start point and end point of the time stamp at the time of data acquisition.

位置別路面状況理解部192は、測位データ蓄積部182に格納された歩行データの各々に対する測位データと、歩行データ分析結果蓄積部172に格納された歩行データの各々に対する歩行ステップ状態とを集計して、測位データにおける各位置の路面状況を認識し、出力部50に出力する。路面状況を認識することで、どの場所がどのような路面状況であるかを把握することが可能となる。また、路面状況の認識結果を用いて、例えば、バッチ処理を行って、路面状況を把握できる路面状況付き地図を生成することや、オンライン処理により今後進む方向の路面状況を獲得することが可能となる。   The position-specific road surface state understanding unit 192 totalizes the positioning data for each of the walking data stored in the positioning data storage unit 182 and the walking step state for each of the walking data stored in the walking data analysis result storage unit 172. The road surface condition at each position in the positioning data is recognized and output to the output unit 50. By recognizing the road surface condition, it is possible to grasp which place is what kind of road surface condition. In addition, using the road surface condition recognition result, for example, it is possible to perform batch processing to generate a map with road surface condition that can grasp the road surface condition, or to acquire the road surface condition in the future direction by online processing Become.

<本発明の実施の形態に係る路面状況理解システムの作用> <Operation of the road surface condition understanding system according to the embodiment of the present invention>

次に、本発明の実施の形態に係る路面状況理解システム12の路面状況理解装置302の作用について説明する。路面状況理解装置302は、定期的に、歩行データ蓄積部132、及び測位データ蓄積部182にセンサ出力データ、及び測位データが蓄積、更新されていることを検知し、図11に示す路面状況理解処理ルーチンを実行する。   Next, the operation of the road surface state understanding device 302 of the road surface state understanding system 12 according to the embodiment of the present invention will be described. The road surface condition understanding device 302 periodically detects that sensor output data and positioning data are accumulated and updated in the walking data accumulation unit 132 and the positioning data accumulation unit 182, and understands the road surface condition shown in FIG. 11. Execute the processing routine.

まず、ステップS200では、歩行データ蓄積部132に蓄積されたセンサ出力データに基づいて、センサ出力データにおける、ユーザが歩行する際の個々の足の運びである歩行ステップを認識する。   First, in step S200, based on the sensor output data stored in the walking data storage unit 132, a walking step, which is a step of an individual foot when the user walks, in the sensor output data is recognized.

次に、ステップS202では、ステップS100で認識された歩行ステップに基づいて、センサ出力データを、歩行ステップに対応する歩行データの各々にセグメント化する。   Next, in step S202, based on the walking step recognized in step S100, the sensor output data is segmented into each of the walking data corresponding to the walking step.

ステップS204では、歩行データセグメント化部152でセグメント化された歩行データの各々について、グループ化情報格納部206に格納された、複数のユーザの歩行データがグループ化されたグループ群から、歩行データが所属するグループを特定する。   In step S204, for each of the walking data segmented by the walking data segmenting unit 152, the walking data is stored from the group group in which the walking data of a plurality of users is grouped and stored in the grouping information storage unit 206. Identify the group to which you belong.

ステップS206では、歩行ステップ認識部142により認識された歩行データの各々について、ステップS204で特定された当該歩行データのグループの分類モデルに基づいて、歩行データにおける歩行ステップの状態を認識し、歩行データ分析結果蓄積部172に格納する。   In step S206, for each of the walking data recognized by the walking step recognition unit 142, the state of the walking step in the walking data is recognized based on the classification model of the group of the walking data specified in step S204. The result is stored in the analysis result accumulation unit 172.

ステップS208では、測位データ蓄積部182に格納された歩行データの各々に対する測位データと、ステップS200で歩行データ分析結果蓄積部172に格納された歩行データの各々に対する歩行ステップ状態とを集計して、測位データの各位置の路面状況を認識する。   In step S208, the positioning data for each of the walking data stored in the positioning data storage unit 182 and the walking step state for each of the walking data stored in the walking data analysis result storage unit 172 in step S200 are tabulated. Recognize the road surface condition of each position of positioning data.

ステップS210では、ステップS206で認識された各歩行ステップの歩行ステップ状態を含む認識結果と、ステップS208で認識された各位置の路面状況を出力部50に出力し処理を終了する。   In step S210, the recognition result including the walking step state of each walking step recognized in step S206 and the road surface condition of each position recognized in step S208 are output to the output unit 50, and the process ends.

以上説明したように、本発明の実施の形態に係る路面状況理解システムによれば、携帯デバイス100によって、データを収集し、路面状況学習装置300は、歩行ステップを認識し、歩行ステップに対応する歩行データの各々にセグメント化し、セグメント化された歩行データの各々について、グループ群から、歩行データが所属するグループを特定し、歩行データのグループに基づいて、歩行ステップ状態の何れかを認識し、測位データと、歩行ステップ状態とを集計して、各位置の路面状況を認識することにより、ユーザの歩行ステップごとの路面状況を精度よく認識できる。   As described above, according to the road surface condition understanding system according to the embodiment of the present invention, the mobile device 100 collects data, and the road surface state learning apparatus 300 recognizes the walking step and corresponds to the walking step. Segmented into each of the walking data, for each of the segmented walking data, identify the group to which the walking data belongs from the group group, recognize any of the walking step state based on the group of walking data, By counting the positioning data and the walking step state and recognizing the road surface state at each position, the road surface state for each walking step of the user can be accurately recognized.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、上述した実施の形態では、路面状況理解装置302に位置別路面状況理解部192を含み、位置別路面状況理解部192によって、各位置の路面状況を認識する場合を例に限定したが、これに限定されるものではなく、路面状況理解装置302は位置別路面状況理解部192を含まずに、歩行ステップの各々の歩行ステップ状態の認識までを行うようにしてもよい。   For example, in the embodiment described above, the road surface situation understanding device 302 includes the position-specific road surface situation understanding unit 192, and the position-specific road surface situation understanding unit 192 is limited to an example of recognizing the road surface situation at each position. However, the present invention is not limited to this, and the road surface condition understanding device 302 may not include the position-specific road surface condition understanding unit 192 and may recognize each walking step state of the walking step.

また、上述した路面状況学習装置300のデータグループ化部200では、複数のユーザの歩行データをグループ化したグループ群を学習する場合を例に説明したが、これに限定されるものではなく、複数のユーザをグループ化したグループを学習するようにしてもよい。この場合には、ユーザ属性に基づいて、体格が近しいユーザやセンサの配置場所が同じユーザをグループ化し、各グループの特徴ベクトルを作成する。また、路面状況理解装置300の歩行データセグメント化部152では、複数のユーザがグループ化されたグループ群から、歩行データが所属するグループを特定するようにしてもよい。   Moreover, in the data grouping unit 200 of the road surface state learning device 300 described above, the case of learning a group group in which walking data of a plurality of users is grouped has been described as an example, but the present invention is not limited to this. You may make it learn the group which grouped these users. In this case, based on the user attributes, users having similar physiques or users having the same sensor placement location are grouped to create a feature vector for each group. Further, the walking data segmentation unit 152 of the road surface condition understanding device 300 may specify a group to which walking data belongs from a group group in which a plurality of users are grouped.

10 路面状況学習システム
12 路面状況理解システム
50 出力部
100、102 携帯デバイス
101、103 記憶領域
110、112 歩行データ収集部
120、122 測位部
130、132 歩行データ蓄積部
140、142 歩行ステップ認識部
150、152 歩行データセグメント化部
160、162 ステップ種別学習部
163 学習用分類データ格納部
165、166 学習モデル格納部
172 歩行データ分析結果蓄積部
180、182 測位データ蓄積部
192 位置別路面状況理解部
200、202 データグループ化部
205、206 グループ化情報格納部
300 路面状況学習装置
302 路面状況理解装置
DESCRIPTION OF SYMBOLS 10 Road surface condition learning system 12 Road surface condition understanding system 50 Output part 100, 102 Portable device 101, 103 Storage area 110, 112 Walking data collection part 120, 122 Positioning part 130, 132 Walking data storage part 140, 142 Walking step recognition part 150 , 152 Walking data segmentation unit 160, 162 Step type learning unit 163 Learning classification data storage unit 165, 166 Learning model storage unit 172 Walking data analysis result storage unit 180, 182 Positioning data storage unit 192 Positional road surface condition understanding unit 200 202 Data grouping unit 205, 206 Grouping information storage unit 300 Road surface state learning device 302 Road surface state understanding device

Claims (7)

歩行ステップ認識部が、ユーザが携帯する携帯デバイスに備え付けらえているセンサの出力値をタイムスタンプとともに時系列に記録したセンサ出力データに基づいて、前記センサ出力データにおける、前記ユーザが歩行する際の個々の足の運びである歩行ステップを認識するステップと、
歩行データセグメント化部が、前記歩行ステップ認識部で認識された歩行ステップに基づいて、前記センサ出力データを、前記歩行ステップに対応する歩行データの各々にセグメント化するステップと、
データグループ化部が、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、予め求められた、複数のユーザがグループ化されたグループ群、又は前記複数のユーザの前記歩行データがグループ化されたグループ群から、前記歩行データが所属するグループを特定するステップと、
ステップ種別認識部が、前記歩行ステップ認識部により認識された歩行データの各々について、前記データグループ化部で特定された前記歩行データのグループに基づいて、前記歩行データにおける歩行ステップ状態を認識するステップと、
位置別路面状況理解部が、前記携帯デバイスが存在する位置を計測した結果をタイムスタンプとともに記録した測位データに基づいて、前記歩行データの各々に対する前記測位データと、前記ステップ種別認識部によって認識された前記歩行データの各々に対する前記歩行ステップ状態とを集計して、各位置の路面状況を認識するステップと、
を含む路面状況理解方法。
Based on the sensor output data in which the walking step recognition unit records the output value of the sensor provided in the portable device carried by the user along with the time stamp in time series, the sensor output data when the user walks Recognizing walking steps that are individual steps,
A step of segmenting the sensor output data into each of the walking data corresponding to the walking step based on the walking step recognized by the walking step recognition unit;
A group group in which a plurality of users are grouped, or the walking data of the plurality of users is obtained in advance for each of the walking data segmented by the walking data segmentation unit. Identifying a group to which the walking data belongs from the grouped group,
A step type recognizing unit for recognizing a walking step state in the walking data based on the group of the walking data specified by the data grouping unit for each of the walking data recognized by the walking step recognizing unit; When,
The position-specific road surface condition understanding unit is recognized by the positioning data for each of the walking data and the step type recognition unit based on the positioning data obtained by recording the result of measuring the position where the portable device is present together with a time stamp. Counting the walking step state for each of the walking data and recognizing the road surface condition at each position;
How to understand road surface conditions.
前記グループ群の各グループには、前記グループに属する前記ユーザの属性を表すユーザ属性、又は前記グループに属する歩行データの前記ユーザのユーザ属性が付与されており、
前記データグループ化部がグループを特定するステップは、予め取得した歩行中のユーザのユーザ属性と、前記グループ群の各グループに付与されているユーザ属性とに基づいて、前記歩行データの各々が所属するグループを特定する請求項1に記載の路面状況理解方法。
Each group of the group group is given a user attribute representing the attribute of the user belonging to the group, or a user attribute of the user of the walking data belonging to the group,
The step of identifying the group by the data grouping unit is based on the user attribute of the user who is walking in advance acquired and the user attribute assigned to each group of the group group. The road surface state understanding method according to claim 1, wherein a group to be identified is specified.
前記グループ群は、前記測位データを更に考慮して前記複数のユーザがグループ化されたグループ群、又は前記測位データを更に考慮して前記複数のユーザの前記歩行データがグループ化されたグループ群であって、
前記データグループ化部がグループを特定するステップは、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、前記歩行データに対する測位データに基づいて、前記グループ群から、前記歩行データが所属するグループを特定する請求項1に記載の路面状況理解方法。
The group group is a group group in which the plurality of users are grouped in consideration of the positioning data, or a group group in which the walking data of the plurality of users is grouped in further consideration of the positioning data. There,
The step of identifying the group by the data grouping unit includes, for each of the walking data segmented by the walking data segmentation unit, the walking data from the group group based on positioning data for the walking data. The road surface state understanding method according to claim 1, wherein a group to which the user belongs is specified.
ユーザが携帯する携帯デバイスに備え付けらえているセンサの出力値をタイムスタンプとともに時系列に記録したセンサ出力データに基づいて、前記センサ出力データにおける、前記ユーザが歩行する際の個々の足の運びである歩行ステップを認識する歩行ステップ認識部と、
前記歩行ステップ認識部で認識された歩行ステップに基づいて、前記センサ出力データを、前記歩行ステップに対応する歩行データの各々にセグメント化する歩行データセグメント化部と、
前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、予め求められた、複数のユーザがグループ化されたグループ群、又は前記複数のユーザの前記歩行データがグループ化されたグループ群から、前記歩行データが所属するグループを特定するデータグループ化部と、
前記歩行ステップ認識部により認識された歩行データの各々について、前記データグループ化部で特定された前記歩行データのグループに基づいて、前記歩行データにおける歩行ステップ状態を認識するステップ種別認識部と、
前記携帯デバイスが存在する位置を計測した結果をタイムスタンプとともに記録した測位データに基づいて、前記歩行データの各々に対する前記測位データと、前記ステップ種別認識部によって認識された前記歩行データの各々に対する前記歩行ステップ状態とを集計して、各位置の路面状況を認識する位置別路面状況理解部と、
を含む路面状況理解装置。
Based on the sensor output data recorded in time series with the time stamp of the output value of the sensor provided in the portable device carried by the user, the individual output when the user walks in the sensor output data A walking step recognition unit for recognizing a certain walking step;
A walking data segmenting unit that segments the sensor output data into each of the walking data corresponding to the walking step based on the walking step recognized by the walking step recognition unit;
For each of the walking data segmented by the walking data segmentation unit, a group group in which a plurality of users are grouped or a group group in which the walking data of the plurality of users is grouped is obtained in advance. From the data grouping unit for identifying the group to which the walking data belongs,
For each of the walking data recognized by the walking step recognition unit, a step type recognition unit for recognizing the walking step state in the walking data based on the group of the walking data specified by the data grouping unit;
The positioning data for each of the walking data and the walking data recognized by the step type recognition unit based on the positioning data recorded with the time stamp of the result of measuring the position where the portable device exists. By summing up the walking step state, the road surface condition understanding unit by position that recognizes the road surface state of each position,
Road surface condition understanding device.
前記グループ群の各グループには、前記グループに属する前記ユーザの属性を表すユーザ属性、又は前記グループに属する歩行データの前記ユーザのユーザ属性が付与されており、
前記データグループ化部は、予め取得した歩行中のユーザのユーザ属性と、前記グループ群の各グループに付与されているユーザ属性とに基づいて、前記歩行データの各々が所属するグループを特定する請求項4に記載の路面状況理解装置。
Each group of the group group is given a user attribute representing the attribute of the user belonging to the group, or a user attribute of the user of the walking data belonging to the group,
The data grouping unit specifies a group to which each of the walking data belongs, based on a user attribute of a walking user acquired in advance and a user attribute assigned to each group of the group group. Item 5. Road surface condition understanding device.
前記グループ群は、前記測位データを更に考慮して前記複数のユーザがグループ化されたグループ群、又は前記測位データを更に考慮して前記複数のユーザの前記歩行データがグループ化されたグループ群であって、
前記データグループ化部は、前記歩行データセグメント化部でセグメント化された前記歩行データの各々について、前記歩行データに対する測位データに基づいて、前記グループ群から、前記歩行データが所属するグループを特定する請求項4に記載の路面状況理解装置。
The group group is a group group in which the plurality of users are grouped in consideration of the positioning data, or a group group in which the walking data of the plurality of users is grouped in further consideration of the positioning data. There,
The data grouping unit identifies, for each of the walking data segmented by the walking data segmentation unit, a group to which the walking data belongs from the group group based on positioning data for the walking data. The road surface condition understanding device according to claim 4.
コンピュータを、請求項1〜請求項3のいずれか1項に記載の路面状況理解方法の各ステップを実行させるためのプログラム。   The program for making a computer perform each step of the road surface condition understanding method of any one of Claims 1-3.
JP2015246263A 2015-12-17 2015-12-17 Road surface condition understanding method, apparatus, and program Active JP6480319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015246263A JP6480319B2 (en) 2015-12-17 2015-12-17 Road surface condition understanding method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246263A JP6480319B2 (en) 2015-12-17 2015-12-17 Road surface condition understanding method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2017111659A JP2017111659A (en) 2017-06-22
JP6480319B2 true JP6480319B2 (en) 2019-03-06

Family

ID=59079632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246263A Active JP6480319B2 (en) 2015-12-17 2015-12-17 Road surface condition understanding method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP6480319B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7052604B2 (en) * 2018-07-05 2022-04-12 富士通株式会社 Business estimation method, information processing device, and business estimation program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333998A (en) * 2006-06-15 2007-12-27 Hitachi Ltd Automatic map generating device
JP5826120B2 (en) * 2012-06-11 2015-12-02 日本電信電話株式会社 Gait measuring device, method and program
JP5952907B2 (en) * 2012-08-01 2016-07-13 株式会社日立製作所 Walking style discrimination system, walking style discrimination device, and walking style discrimination method
JP2013232235A (en) * 2013-08-06 2013-11-14 Nippon Telegr & Teleph Corp <Ntt> Information processing apparatus and program thereof
JP6457346B2 (en) * 2015-07-06 2019-01-23 日本電信電話株式会社 Road surface understanding system, road surface understanding method, road surface understanding program

Also Published As

Publication number Publication date
JP2017111659A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
Lane et al. Enabling large-scale human activity inference on smartphones using community similarity networks (csn)
Carpineti et al. Custom dual transportation mode detection by smartphone devices exploiting sensor diversity
Ye et al. FTrack: Infrastructure-free floor localization via mobile phone sensing
CN105493109B (en) Inferred using the air quality of multiple data sources
Kjærgaard et al. Detecting pedestrian flocks by fusion of multi-modal sensors in mobile phones
US20190156161A1 (en) System and Method for Generating a Map From Activity Data
KR101510458B1 (en) Location information representation method, location information processing method, location information model constructing method, and locational information processing apparatus
CN104318765A (en) Method for automatically detecting real-time traffic congestion based on smart phone
Li et al. Senseflow: An experimental study of people tracking
JP6052806B2 (en) Apparatus, program, and method for estimating stay purpose of user having portable terminal
Yin et al. Mining GPS data for trajectory recommendation
Moshtaghi et al. Anomaly detection by clustering ellipsoids in wireless sensor networks
Zhu et al. Learning transportation annotated mobility profiles from GPS data for context-aware mobile services
Dziengel et al. Deployment and evaluation of a fully applicable distributed event detection system in Wireless Sensor Networks
JP6049186B2 (en) Apparatus, program, and method for estimating staying place of user having portable terminal
JP2017228091A (en) Walking state learning method, walking state estimation method, road surface condition comprehension method, device and program
JP5930551B2 (en) Residence point extraction method, residence point extraction device, and residence point extraction program
Kim et al. Activity recognition for a smartphone based travel survey based on cross-user history data
Iwasawa et al. Combining human action sensing of wheelchair users and machine learning for autonomous accessibility data collection
Lane et al. Community similarity networks
Guo et al. Transportation mode recognition with deep forest based on GPS data
Kim et al. Activity recognition for a smartphone and web-based human mobility sensing system
Iwasawa et al. Toward an automatic road accessibility information collecting and sharing based on human behavior sensing technologies of wheelchair users
JP6089764B2 (en) Activity status processing apparatus and activity status processing method
Kim et al. Activity recognition for a smartphone and web based travel survey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190207

R150 Certificate of patent or registration of utility model

Ref document number: 6480319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150