JP5544508B2 - Action identification system - Google Patents

Action identification system Download PDF

Info

Publication number
JP5544508B2
JP5544508B2 JP2009078730A JP2009078730A JP5544508B2 JP 5544508 B2 JP5544508 B2 JP 5544508B2 JP 2009078730 A JP2009078730 A JP 2009078730A JP 2009078730 A JP2009078730 A JP 2009078730A JP 5544508 B2 JP5544508 B2 JP 5544508B2
Authority
JP
Japan
Prior art keywords
information
label
sensor
annotation
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009078730A
Other languages
Japanese (ja)
Other versions
JP2010227326A (en
Inventor
太 納谷
雅一 宮前
春生 野間
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009078730A priority Critical patent/JP5544508B2/en
Publication of JP2010227326A publication Critical patent/JP2010227326A/en
Application granted granted Critical
Publication of JP5544508B2 publication Critical patent/JP5544508B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

この発明は、行動識別システムに関し、特にたとえば、医療現場において看護師が行う行動を、センサからのセンサ情報および時計からの時刻情報に基づいて識別する、行動識別システムに関する。   The present invention relates to an action identification system, and more particularly to an action identification system that identifies an action performed by a nurse in a medical field based on sensor information from a sensor and time information from a clock.

従来のこの種のシステムとしては、特許文献1に記載されたものが知られている。この背景技術では、被験者(看護師)に加速度センサを装着して加速度データを収集する一方、実験者が被験者に随伴して行動の時間(開始時刻および終了時刻)とラベル(識別情報)とを記録する。たとえば、被験者が歩行すると、実験者は、その時間を特定して“歩行”というラベルを付与する。こうして実験者が特定した時間および付与したラベルが、加速度センサで収集された加速度データと共にサーバに入力され、サーバは、当該加速度データから当該時間に属する部分を切り出してその特徴を計算し、当該特徴および当該ラベルを互いに関連付けてデータベース(以下“DB”)に記録する。   As a conventional system of this type, a system described in Patent Document 1 is known. In this background art, an accelerometer is attached to a subject (nurse) to collect acceleration data, while an experimenter accompanies the subject with action time (start time and end time) and label (identification information). Record. For example, when the subject walks, the experimenter identifies the time and gives the label “walking”. The time specified by the experimenter and the given label are input to the server together with the acceleration data collected by the acceleration sensor, and the server cuts out the portion belonging to the time from the acceleration data and calculates its characteristics. The labels are associated with each other and recorded in a database (hereinafter “DB”).

このような処理を繰り返すことで、DB内に特徴およびラベルの間の対応関係を示す情報(辞書情報)が蓄積されていく。サーバは、こうして生成された辞書DBを参照することで、加速度データに基づいて看護師の行動を識別することができる。
特開2009−39466号公報
By repeating such processing, information (dictionary information) indicating the correspondence between features and labels is accumulated in the DB. The server can identify the action of the nurse based on the acceleration data by referring to the dictionary DB generated in this way.
JP 2009-39466 A

しかし、背景技術では、たとえば“手洗い”というラベルを付された行動の特徴が手洗いとは異なる行動の特徴(外れ値)をも含んでいて、辞書DBの精度が低下する場合があった。   However, in the background art, for example, the behavior feature labeled “hand washing” includes behavior features (outliers) different from hand washing, and the accuracy of the dictionary DB may be reduced.

また、背景技術は、実験者が被験者に随伴して時間特定およびラベル付与を行うものであり、加速度データに基づいて事後的にこれらを行うことはできなかった。   In the background art, the experimenter specifies the time and labels according to the subject, and it has not been possible to perform these afterwards based on the acceleration data.

それゆえに、この発明の主たる目的は、新規な行動識別システムを提供することである。   Therefore, the main object of the present invention is to provide a novel behavior identification system.

この発明の他の目的は、辞書等のDBから外れ値を会話的に(実験者に情報を提示してその指示に応じて)削除することができる、行動識別システムを提供することである。   Another object of the present invention is to provide an action identification system that can delete outliers from a DB such as a dictionary interactively (in accordance with an instruction by presenting information to an experimenter).

この発明のその他の目的は、加速度などのセンサ情報に基づくラベル付加、および付加したラベルのDBへの登録を、事後的かつ会話的に行うことができる、行動識別システムを提供することである。   Another object of the present invention is to provide an action identification system capable of performing label addition based on sensor information such as acceleration and registration of the added label in a DB afterwards and conversationally.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、被験者の行動をセンサからのセンサ情報および時計からの時刻情報に基づいて識別する行動識別システムであって、センサ情報および時刻情報を蓄積したセンサDB、被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積した辞書DB、センサ情報および時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する行動識別手段、行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積するアノテーションDB、センサDBに基づくセンサデータ画面にアノテーションDBに基づくアノテーション情報を時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面をモニタに表示する第1表示手段、および、行動識別手段から出力される行動情報が示す特徴を第1ベクトルに変換して各第1ベクトルの散布状態を示す第1散布図画像をモニタに表示する第2表示手段と、モニタに表示された第1散布図画像を参照しつつ入力装置で行われる外れ値削除操作を受け付ける第1受付手段とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、外れ値削除操作に応じて、辞書DBおよびアノテーションDBから削除する、会話的削除手段を備える。 1st invention is the action identification system which identifies a test subject's action based on the sensor information from a sensor, and the time information from a clock, Comprising: Sensor DB which accumulated sensor information and time information, Each action which a test subject can perform A dictionary DB that stores dictionary information indicating features and labels, sensor information and time information are input, and features are extracted from the sensor information. Based on a comparison between the extracted features and the dictionary DB, labels corresponding to the features are extracted. A time corresponding to the selected and extracted feature is specified based on time information, and action identification means for outputting action information indicating the extracted feature, the selected label and the specified time, action output from the action identification means An annotation DB that accumulates the label and time indicated by the information as annotation information, and a sensor data based on the sensor DB Added based annotation information based on the annotation DB at time information on a screen, the first display means for displaying the annotated sensor data screen on the monitor, and the feature indicated by the action information output from the action identification unit first This is performed by an input device with reference to the second display means for displaying on the monitor a first scatter diagram image that is converted into one vector and indicating the scatter state of each first vector, and the first scatter diagram image displayed on the monitor. and a first receiving means for receiving the outliers delete operation, the features indicated by the action information output from the action identification unit, the labels and time, depending on the outliers delete operation, deletes from the dictionary DB and annotation DB, Conversational deletion means is provided.

第1の発明では、行動識別システム(100)は、センサDB(16a)、辞書DB(16c)、行動識別手段(14)、アノテーションDB(16b)、第1表示手段(20)および会話的削除手段(18,S1〜S39,S51〜S71)を備える。センサDBは、センサ(12)からのセンサ情報および時計(12T)からの時刻情報を蓄積している。辞書DBは、被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積している。行動識別手段は、センサ情報および時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する。アノテーションDBは、行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積する。第1表示手段は、センサDBに基づくセンサデータ画面にアノテーションDBに基づくアノテーション情報を時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面(図2)をモニタ(52)に表示する。会話的削除手段は、行動識別手段から出力される行動情報が示す特徴を第1ベクトルに変換して各第1ベクトルの散布状態を示す第1散布図画像(W1:図5(A),図5(B),図6(A),図6(B))をモニタに表示する第2表示手段(S5〜S19)と、モニタに表示された第1散布図画像を参照しつつ入力装置(54)で行われる外れ値削除操作を受け付ける第1受付手段(S21,S27)とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、外れ値削除操作に応じて、辞書DBおよびアノテーションDBから削除する。 In the first invention, the action identification system (100) includes a sensor DB (16a), a dictionary DB (16c), an action identification means (14), an annotation DB (16b), a first display means (20), and conversational deletion. Means (18, S1-S39, S51-S71) are provided. The sensor DB stores sensor information from the sensor (12) and time information from the clock (12T). Dictionary DB accumulate | stores the dictionary information which shows the characteristic and label about each action which a test subject can perform. The behavior identification means receives sensor information and time information, extracts a feature from the sensor information, selects a label corresponding to the feature based on a comparison between the extracted feature and the dictionary DB, and corresponds to the extracted feature The time is specified based on the time information, and action information indicating the extracted feature, the selected label, and the specified time is output. The annotation DB accumulates the label and time indicated by the behavior information output from the behavior identification means as annotation information. The first display means adds annotation information based on the annotation DB to the sensor data screen based on the sensor DB based on the time information, and displays the sensor data screen with annotation (FIG. 2) on the monitor (52). The conversational deletion means converts the feature indicated by the action information output from the action identification means into a first vector, and shows a first scatter diagram image (W1: FIG. 5 (A), FIG. 5 (B), FIG. 6 (A), FIG. 6 (B)) on the monitor, and an input device (S5 to S19) with reference to the first scatter diagram image displayed on the monitor. and a first receiving means for receiving the outlier delete operation to be performed (S21, S27) at 54), the features shown behavioral information output from the action identification unit, the labels and time, in accordance with the outliers removed operation Delete from the dictionary DB and annotation DB.

第1の発明によれば、辞書データDBおよびアノテーションDBから外れ値を会話的に削除することができる。   According to the first invention, outliers can be deleted conversationally from the dictionary data DB and the annotation DB.

第2の発明は、第1の発明に従属する行動識別システムであって、第1受付手段は、モニタに表示された第1散布図画像を参照しつつ入力装置で行われる外れ値選択操作を外れ値削除操作の前に受け付け、第1表示手段は、アノテーション付きセンサデータ画面内の外れ値選択操作に対応する部分をハイライト表示し、外れ値削除操作はさらにアノテーション付きセンサデータ画面内のハイライト表示された部分も参照しつつ行われる。 A second invention is an action identification system subordinate to the first invention, wherein the first receiving means performs an outlier selection operation performed on the input device while referring to the first scatter diagram image displayed on the monitor. accepted before outliers delete operation, the first display means, a portion corresponding to the outlier selection operation annotated sensor data screen highlight, outliers deletion further annotated sensor data screen This is done while referring to the highlighted part .

第2の発明では、第1受付手段は、モニタに表示された第1散布図画像を参照しつつ入力装置で行われる外れ値選択操作を外れ値削除操作の前に受け付け、第1表示手段は、アノテーション付きセンサデータ画面内の外れ値選択操作に対応する部分をハイライト表示する。外れ値削除操作は、さらにアノテーション付きセンサデータ画面内のハイライト表示された部分も参照しつつ行われる。 In the second invention, the first accepting means accepts an outlier selection operation performed on the input device with reference to the first scatter diagram image displayed on the monitor before the outlier removal operation, and the first display means The portion corresponding to the outlier selection operation in the annotated sensor data screen is highlighted . The outlier deletion operation is further performed while referring to the highlighted portion in the annotated sensor data screen .

第2の発明によれば、アノテーション付きセンサデータ画面内の外れ値選択操作に対応する部分をハイライト表示することで、実験者は各第1ベクトルが外れ値であるか否かの判断をアノテーション付きセンサデータ画面内のハイライト表示された部分とそれ以外の部分との比較に基づいて行える。 According to the second invention, by highlighting a portion corresponding to the outlier selection operation annotated sensor data screen, the annotation of the experimenter determines whether the first vector is an outlier This can be done based on a comparison between the highlighted portion in the attached sensor data screen and the other portions .

第3の発明は、第の発明に従属する行動識別システムであって、第2表示手段は、各第1ベクトルに外れ値判定処理を施して判定結果が外れ値を示す第1ベクトルを外れ値候補としてハイライト表示する(図6(A),図6(B))。 A third invention is an action identification system according to the first invention, wherein the second display means performs an outlier determination process on each first vector, and the determination result deviates from the first vector indicating the outlier. Highlighted as a value candidate (FIGS. 6A and 6B).

第3の発明によれば、外れ値候補をハイライト表示することで、実験者は各第1ベクトルが外れ値であるか否かの判断を容易に行える。   According to the third aspect, by highlighting outlier candidates, the experimenter can easily determine whether or not each first vector is an outlier.

第4の発明は、第3の発明に従属する行動識別システムであって、第2表示手段はさらに、各第1ベクトルについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示す第1ベクトルと時間的近接性なしを示す第1ベクトルとでハイライト表示の態様を異ならせる(図6(B))。   A fourth invention is an action identification system subordinate to the third invention, wherein the second display means further determines the presence or absence of temporal proximity for each first vector, and the determination result is temporal proximity. The highlight display mode is made different between the first vector indicating presence and the first vector indicating no temporal proximity (FIG. 6B).

第4の発明によれば、ハイライト表示の態様(色,明るさ,点滅周期,形状,大きさなど)を時間的近接性の有無により異ならせるので、実験者は各第1ベクトルが外れ値であるか否かの判断をいっそう容易に行える。   According to the fourth invention, since the highlight display mode (color, brightness, blinking cycle, shape, size, etc.) varies depending on the presence or absence of temporal proximity, the experimenter determines that each first vector is an outlier. This makes it easier to determine whether or not.

第5の発明は、第1ないし第4のいずれかの発明に従属する行動識別システムであって、行動識別手段から出力される行動情報が示す特徴を第2ベクトルに変換して各第2ベクトルをクラスタ化し、各第2ベクトルの散布状態をクラスタリング情報と共に示す第2散布図画像をモニタに表示する第3表示手段と、モニタに表示された第2散布図画像を参照しつつ入力装置で行われるラベル付加操作を受け付ける第2受付手段とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、ラベル付加操作に応じて、辞書DBおよびアノテーションDBに追加する、会話的追加手段をさらに備える。 A fifth invention is an action identification system according to any one of the first to fourth inventions, wherein the feature indicated by the action information output from the action identification means is converted into a second vector and each second vector is converted. And a third display means for displaying on the monitor a second scatter diagram image showing the scatter state of each second vector together with the clustering information, and the input device while referring to the second scatter diagram image displayed on the monitor. and a second receiving means for receiving the label application operation dividing characteristic indicated by the action information output from the action identification unit, the labels and time, in accordance with the label application operation, is added to the dictionary DB and annotation DB, conversations The method further includes an additional means.

第5の発明では、行動識別システムは会話的追加手段(22,S81〜S119)をさらに備える。会話的追加手段は、行動識別手段から出力される行動情報が示す特徴を第2ベクトルに変換して各第2ベクトルをクラスタ化し、各第2ベクトルの散布状態をクラスタリング情報と共に示す第2散布図画像(図7)をモニタに表示する第3表示手段(S85〜S99)と、モニタに表示された第2散布図画像を参照しつつ入力装置で行われるラベル付加操作を受け付ける第2受付手段(S101,S107)とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、ラベル付加操作に応じて、辞書DBおよびアノテーションDBに追加する。 In 5th invention, an action identification system is further provided with a conversational addition means (22, S81-S119). The conversational adding means converts the feature indicated by the action information output from the action identifying means into a second vector, clusters each second vector, and shows a scatter state of each second vector together with clustering information. Third display means (S85 to S99) for displaying the image (FIG. 7) on the monitor, and second reception means for receiving the label addition operation performed on the input device while referring to the second scatter diagram image displayed on the monitor ( S101, S107) and a characteristic indicated by the action information output from the action identification unit, the labels and time, in accordance with the label application operation, is added to the dictionary DB and annotation DB.

第5の発明によれば、センサ情報に基づくラベル付加、および付加したラベルのアノテーションDBおよび辞書DBへの登録を、事後的かつ会話的に行うことができる。   According to the fifth invention, label addition based on sensor information and registration of the added label in the annotation DB and dictionary DB can be performed afterwards and conversationally.

第6の発明は、第5の発明に従属する行動識別システムであって、会話的追加手段は、第2散布図画像に含まれるクラスタに関するラベル候補画像をモニタに表示する第表示手段をさらに含み、ラベル付加操作はさらにラベル候補画像も参照しつつ行われる。 A sixth invention is an action identification system according to the fifth invention, wherein the conversational adding means further includes fourth display means for displaying a label candidate image relating to a cluster included in the second scatter diagram image on the monitor. In addition, the label addition operation is further performed with reference to the label candidate image.

第6の発明では、会話的追加手段は第表示手段をさらに含む。第表示手段は、ラベル候補画像(W:図)をモニタに表示する。ラベル付加操作は、さらにラベル候補画像も参照しつつ行われる。 In the sixth invention, conversational additional means further includes a fourth display hand stage. The fourth display means displays the label candidate image (W 3 : FIG. 8 ) on the monitor. The label addition operation is further performed with reference to the label candidate image.

第6の発明によれば、第2散布図画像に含まれるクラスタに関するラベル候補を表示することで、実験者は、容易にラベルを付与できる。 According to the sixth invention, the label candidates for the cluster in the second scatterplot image by table Shimesuru, the experimenter can easily impart label.

第7の発明は、第の発明に従属する行動識別システムであって、第3表示手段はさらに、各クラスタについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示すクラスタをラベル付加候補としてハイライト表示する。 The seventh invention is an action identification system subordinate to the fifth invention, wherein the third display means further determines the presence or absence of temporal proximity for each cluster, and the determination result indicates that there is temporal proximity. The indicated cluster is highlighted as a label addition candidate.

第7の発明によれば、時間的近接性のあるクラスタをラベル付加候補としてハイライト表示するので、実験者はラベルを付加すべき行動に対応するクラスタを容易に認識できる。   According to the seventh aspect, since the cluster having temporal proximity is highlighted as a label addition candidate, the experimenter can easily recognize the cluster corresponding to the action to which the label is to be added.

第8の発明は、被験者の行動をセンサからのセンサ情報および時計からの時刻情報に基づいて識別する行動識別システムであって、センサ情報および時刻情報を蓄積したセンサDB、被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積した辞書DB、センサ情報および時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する行動識別手段、行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積するアノテーションDB、センサDBに基づくセンサデータ画面にアノテーションDBに基づくアノテーション情報を時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面をモニタに表示する、第1表示手段、および、行動識別手段から出力される行動情報が示す特徴をベクトルに変換して各ベクトルをクラスタ化し、各ベクトルの散布状態をクラスタリング情報と共に示す散布図画像をモニタに表示する第2表示手段と、モニタに表示された散布図画像を参照しつつ入力装置で行われるラベル付加操作を受け付ける受付手段とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、ラベル付加操作に応じて、辞書DBおよびアノテーションDBに追加する、会話的追加手段を備える。 An eighth invention is a behavior identification system for identifying a subject's behavior based on sensor information from a sensor and time information from a clock, the sensor DB storing sensor information and time information, and each behavior that a subject can perform A dictionary DB that stores dictionary information indicating features and labels, sensor information and time information are input, and features are extracted from the sensor information. Based on a comparison between the extracted features and the dictionary DB, labels corresponding to the features are extracted. A time corresponding to the selected and extracted feature is specified based on time information, and action identification means for outputting action information indicating the extracted feature, the selected label and the specified time, action output from the action identification means An annotation DB that accumulates the label and time indicated by the information as annotation information, and a sensor data based on the sensor DB Added based annotation information based on the annotation DB at time information on a screen, and displays the annotated sensor data screen on the monitor, the first display means, and the characteristics indicated by the action information output from the action identification unit A second display means for clustering each vector by converting it into a vector and displaying a scatter diagram image showing the scatter state of each vector together with clustering information on the monitor; and an input device with reference to the scatter diagram image displayed on the monitor and a receiving means for receiving the label application operation to be performed, the features indicated by the action information output from the action identification unit, the labels and time, in accordance with the label application operation, is added to the dictionary DB and annotation DB, conversational Additional means are provided.

第8の発明では、行動識別システム(100)は、センサDB(16a)、辞書DB(16c)、行動識別手段(14)、アノテーションDB(16b)、第1表示手段(20)および会話的追加手段(22,S81〜S119)を備える。センサDBは、センサ(12)からのセンサ情報および時計(12T)からの時刻情報を蓄積している。辞書DBは、被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積している。行動識別手段は、センサ情報および時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する。アノテーションDBは、行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積する。第1表示手段は、センサDBに基づくセンサデータ画面にアノテーションDBに基づくアノテーション情報を時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面(図2)をモニタ(52)に表示する。会話的追加手段は、行動識別手段から出力される行動情報が示す特徴をベクトルに変換して各ベクトルをクラスタ化し、各ベクトルの散布状態をクラスタリング情報と共に示す散布図画像(図7)をモニタに表示する第2表示手段(S85〜S99)と、モニタに表示された散布図画像を参照しつつ入力装置(54)で行われるラベル付加操作を受け付ける受付手段(S101,S107)とを含み、行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、ラベル付加操作に応じて、辞書DBおよびアノテーションDBに追加する。 In the eighth invention, the behavior identification system (100) includes a sensor DB (16a), a dictionary DB (16c), a behavior identification means (14), an annotation DB (16b), a first display means (20), and conversational addition. Means (22, S81 to S119) are provided. The sensor DB stores sensor information from the sensor (12) and time information from the clock (12T). Dictionary DB accumulate | stores the dictionary information which shows the characteristic and label about each action which a test subject can perform. The behavior identification means receives sensor information and time information, extracts a feature from the sensor information, selects a label corresponding to the feature based on a comparison between the extracted feature and the dictionary DB, and corresponds to the extracted feature The time is specified based on the time information, and action information indicating the extracted feature, the selected label, and the specified time is output. The annotation DB accumulates the label and time indicated by the behavior information output from the behavior identification means as annotation information. The first display means adds annotation information based on the annotation DB to the sensor data screen based on the sensor DB based on the time information, and displays the sensor data screen with annotation (FIG. 2) on the monitor (52). The conversational addition means converts the feature indicated by the action information output from the action identification means into a vector, clusters each vector, and uses a scatter diagram image (FIG. 7) showing the scatter state of each vector together with clustering information on the monitor. A second display means (S85 to S99) for displaying, and a receiving means (S101, S107) for receiving a label addition operation performed by the input device (54) while referring to the scatter diagram image displayed on the monitor. features indicated by action information output from the identification means, the labels and time, in accordance with the label application operation, is added to the dictionary DB and annotation DB.

第8の発明によれば、センサ情報に基づくラベル付加、および付加したラベルのアノテーションDBおよび辞書DBへの登録を、事後的かつ会話的に行うことができる。   According to the eighth invention, label addition based on sensor information and registration of the added label in the annotation DB and dictionary DB can be performed afterwards and conversationally.

第9の発明は、第8の発明に従属する行動識別システムであって、会話的追加手段は、散布図画像に含まれるクラスタに関するラベル候補画像をモニタに表示する第表示手段をさらに含み、ラベル付加操作はさらにラベル候補画像も参照しつつ行われる。 A ninth invention is a behavioral identification system that depends on the eighth invention, conversational additional means further includes a third display means for displaying the label candidate image on the clusters included in the scatterplot image on the monitor The label addition operation is further performed with reference to the label candidate image.

第9の発明では、会話的追加手段は第表示手段をさらに含む。第表示手段は、散布図画像画像に含まれるクラスタに関するラベル候補画像(図)をモニタに表示する。ラベル付加操作は、さらにラベル候補画像も参照しつつ行われる。 In the ninth invention, conversational additional means further includes a third display hand stage. Third display means displays the label candidate image on the clusters included in the scatterplot image image (FIG. 8) on the monitor. The label addition operation is further performed with reference to the label candidate image.

第9の発明によれば、散布図画像に含まれるクラスタに関するラベル候補を表示することで、実験者は、容易にラベルを付与できる。 According to the ninth invention, the label candidates for clusters included in scatterplot image by Table Shimesuru, the experimenter can easily impart label.

第10の発明は、第の発明に従属する行動識別システムであって、第2表示手段はさらに、各クラスタについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示すクラスタをラベル付加候補としてハイライト表示する。 The tenth invention is an action identification system according to the eighth invention, wherein the second display means further determines the presence or absence of temporal proximity for each cluster, and the determination result indicates that there is temporal proximity. The indicated cluster is highlighted as a label addition candidate.

第10の発明によれば、時間的近接性のあるクラスタをラベル付加候補としてハイライト表示するので、実験者はラベルを付加すべき行動に対応するクラスタを容易に認識できる。   According to the tenth invention, the cluster having temporal proximity is highlighted as the label addition candidate, so that the experimenter can easily recognize the cluster corresponding to the action to which the label should be added.

第11の発明は、第1ないし第10のいずれかの発明に従属する行動識別システムであって、ビデオカメラからのビデオ映像情報および時計と同期した第2時計からの時刻情報を蓄積したビデオDBをさらに備え、第1表示手段はビデオ映像情報および時刻情報に基づくビデオ映像をモニタにさらに表示し、外れ値削除操作および/またはラベル付加操作はさらにビデオ映像も参照しつつ行われる。   An eleventh invention is a behavior identification system according to any one of the first to tenth inventions, wherein the video DB stores video image information from a video camera and time information from a second clock synchronized with the clock. The first display means further displays the video image based on the video image information and the time information on the monitor, and the outlier deletion operation and / or the label addition operation is further performed while referring to the video image.

第11の発明では、行動識別システムはビデオDB(16d)をさらに備える。ビデオDBは、ビデオカメラ(24)からのビデオ映像情報および時計と同期した第2時計(24T)からの時刻情報を蓄積している。第1表示手段はビデオ映像情報および時刻情報に基づくビデオ映像(図4)をモニタにさらに表示し、外れ値削除操作および/またはラベル付加操作はさらにビデオ映像も参照しつつ行われる。   In the eleventh aspect, the behavior identification system further includes a video DB (16d). The video DB stores video image information from the video camera (24) and time information from the second clock (24T) synchronized with the clock. The first display means further displays the video image (FIG. 4) based on the video image information and the time information on the monitor, and the outlier deletion operation and / or the label addition operation is further performed with reference to the video image.

第11の発明によれば、実験者は、ビデオ映像も参照することで、外れ値削除やラベル付加に関する判断をよりいっそう容易に行える。   According to the eleventh aspect, the experimenter can more easily determine the outlier removal and the label addition by referring to the video image.

この発明によれば、DBから外れ値を会話的に削除できる、行動識別システムが実現される。また、センサ情報に基づくラベル付加、および付加したラベルのDB登録を、事後的かつ会話的に行える、行動識別システムが実現される。この結果、精度の高いDBを容易に構築できるようになり、行動識別システムの識別精度を高めることができる。   According to this invention, the action identification system which can delete an outlier conversationally from DB is implement | achieved. In addition, an action identification system is realized in which label addition based on sensor information and DB registration of the added label can be performed afterwards and conversationally. As a result, a highly accurate DB can be easily constructed, and the identification accuracy of the action identification system can be increased.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例である行動識別システムの構成を示すブロック図である。It is a block diagram which shows the structure of the action identification system which is one Example of this invention. センサデータ(加速度データ)ビューワ画面の一例を示す図解図である。It is an illustration figure which shows an example of a sensor data (acceleration data) viewer screen. アノテーションデータビューワ画面の一例を示す図解図である。It is an illustration figure which shows an example of an annotation data viewer screen. ビデオ映像ビューワ画面の一例を示す図解図である。It is an illustration figure which shows an example of a video image viewer screen. (A)は散布図ウィンドウの一例を示す図解図であり、(B)は散布図ウィンドウの他の一例を示す図解図である。(A) is an illustration figure which shows an example of a scatter diagram window, (B) is an illustration figure which shows another example of a scatter diagram window. (A)は散布図ウィンドウのその他の一例を示す図解図であり、(B)は散布図ウィンドウのさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of the scatter diagram window, (B) is an illustrative view showing still another example of the scatter diagram window. 散布図ウィンドウの他の一例を示す図解図である。It is an illustration figure which shows another example of a scatter diagram window. ラベル候補ウィンドウの一例を示す図解図である。It is an illustration figure which shows an example of a label candidate window. PCの構成例を示すブロック図である。It is a block diagram which shows the structural example of PC. PCのメインメモリのメモリマップを示す図解図である。It is an illustration figure which shows the memory map of the main memory of PC. PCのCPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement of PC. PCのCPU動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other CPU operation | movement of PC. PCのCPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement of PC. PCのCPU動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another part of the CPU operation of the PC. PCのCPU動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other CPU operation | movement of PC.

図1を参照して、この発明の一実施例である行動識別システム100(以下“システム100”)は、PC10,センサ12およびビデオカメラ24を備える。センサ12およびビデオカメラ24には時計12Tおよび24Tがそれぞれ設けられており、各時計12Tおよび24TはPC10側の時計10T(図9参照:後述)と同期している。センサ12およびビデオカメラ24にはさらに無線LANモジュール12Lおよび24Lが設けられており、各無線LANモジュール12Lおよび24LはPC10側の無線LANモジュール10L(図9参照:後述)との間で無線LAN通信を行う。   Referring to FIG. 1, an action identification system 100 (hereinafter “system 100”) according to an embodiment of the present invention includes a PC 10, a sensor 12, and a video camera 24. The sensor 12 and the video camera 24 are provided with clocks 12T and 24T, respectively. The clocks 12T and 24T are synchronized with a clock 10T on the PC 10 side (see FIG. 9: described later). The sensor 12 and the video camera 24 are further provided with wireless LAN modules 12L and 24L. The wireless LAN modules 12L and 24L communicate with the wireless LAN module 10L on the PC 10 side (see FIG. 9: described later). I do.

センサ12は、たとえば4個の3軸加速センサで構成され、各3軸加速センサは被験者(看護師など)の左上腕,右上腕,胸および腰にそれぞれ装着される。センサ12からは、これら4個の3軸加速センサに基づく計12成分の加速度データが、時計12Tに基づくタイムスタンプと共に、無線LANモジュール12Lを通してPC10へと送信される。すなわち、センサ12が出力するセンサデータは、12成分の加速度データとタイムスタンプとを含む。   The sensor 12 includes, for example, four three-axis acceleration sensors, and each three-axis acceleration sensor is attached to the left upper arm, upper right arm, chest and waist of a subject (nurse or the like). From the sensor 12, a total of 12 component acceleration data based on these four 3-axis acceleration sensors is transmitted to the PC 10 through the wireless LAN module 12L together with a time stamp based on the clock 12T. That is, the sensor data output from the sensor 12 includes 12-component acceleration data and a time stamp.

ビデオカメラ24は、被験者が所定の行動たとえば手洗いを行うシンクの近傍などに設置される。ビデオカメラ24からは、設置場所の近傍を捉えた映像データが、時計24Tに基づくタイムスタンプと共に、無線LANモジュール24Lを通してPC10へと送信される。すなわち、ビデオカメラ24が出力する映像データにもタイムスタンプが含まれる。   The video camera 24 is installed in the vicinity of a sink where the subject performs predetermined actions such as hand washing. From the video camera 24, video data that captures the vicinity of the installation location is transmitted to the PC 10 through the wireless LAN module 24L together with a time stamp based on the clock 24T. In other words, the video data output from the video camera 24 also includes a time stamp.

なお、ここで示すシステム100の構成は一例に過ぎず、様々に変更可能である。たとえば、センサ12の構成要素として、位置計測のための赤外線センサや、被験者の近接対象(患者や看護機材など)を特定するための近接センサ(Bluetooth(登録商標)モジュールなど)を追加してもよい。また、PC10とセンサ12およびビデオカメラ24との間の各接続には、BluetoothやZigBee(登録商標)といった、無線LAN以外の近距離無線通信方式を用いてもよい。PC10とビデオカメラ24との間は有線接続でもよい。   The configuration of the system 100 shown here is merely an example, and various changes can be made. For example, an infrared sensor for position measurement or a proximity sensor (such as a Bluetooth (registered trademark) module) for specifying a proximity object (patient, nursing equipment, etc.) of the subject as a component of the sensor 12 may be added. Good. Further, for each connection between the PC 10 and the sensor 12 and the video camera 24, a short-range wireless communication method other than the wireless LAN such as Bluetooth or ZigBee (registered trademark) may be used. A wired connection may be used between the PC 10 and the video camera 24.

PC10は、行動識別エンジン14,データマネージャ16,会話的外れ値削除アプリケーション18,データビューワ20および会話的ラベル付加アプリケーション22を備える。データマネージャ16は、センサDB16a,アノテーションDB16b,辞書DB16cおよびビデオDB16dを含む。なお、これらの構成要素(14〜22,16a〜16d)の機能は、図9に示すハードウェア資源、つまり時計10T,無線LANモジュール10L,CPU50,LCDモニタ52,キー入力装置54およびメインメモリ56と、メインメモリ56に格納されたソフトウェア資源(図10にその一部が示されている)とによって実現される。   The PC 10 includes a behavior identification engine 14, a data manager 16, a conversational outlier deletion application 18, a data viewer 20, and a conversational label addition application 22. The data manager 16 includes a sensor DB 16a, an annotation DB 16b, a dictionary DB 16c, and a video DB 16d. The functions of these components (14 to 22, 16a to 16d) are the hardware resources shown in FIG. 9, that is, the clock 10T, the wireless LAN module 10L, the CPU 50, the LCD monitor 52, the key input device 54, and the main memory 56. And software resources (a part of which is shown in FIG. 10) stored in the main memory 56.

センサ12からのセンサデータおよびビデオカメラ24からの映像データはデータマネージャ16に与えられ、データマネージャ16は、与えられたセンサデータおよび映像データをセンサDB16aおよびビデオDB16dにそれぞれ記録する。したがって、センサDB16aにはタイムスタンプ付きの加速度データ(以下“加速度データ”)が、ビデオDB16dにはタイムスタンプ付きの映像データ(以下“映像データ”)が、それぞれ蓄積されていく。   The sensor data from the sensor 12 and the video data from the video camera 24 are given to the data manager 16, and the data manager 16 records the given sensor data and video data in the sensor DB 16a and the video DB 16d, respectively. Therefore, time-stamped acceleration data (hereinafter referred to as “acceleration data”) is stored in the sensor DB 16a, and time-stamped video data (hereinafter referred to as “video data”) is stored in the video DB 16d.

センサDB16aに蓄積された加速度データは、データマネージャ16を通じて行動識別エンジン14に与えられ、行動識別エンジン14は、与えられた加速度データを辞書DB16cと比較して被験者の行動を識別し、識別結果を示す行動データをデータマネージャ16に返す。行動データには、認識した行動について特徴,ラベルおよび時間(開始時刻および終了時刻)が記述されている。   The acceleration data stored in the sensor DB 16a is given to the behavior identification engine 14 through the data manager 16, and the behavior identification engine 14 compares the given acceleration data with the dictionary DB 16c to identify the subject's behavior, and the identification result is obtained. The behavior data shown is returned to the data manager 16. In the behavior data, features, labels, and times (start time and end time) of the recognized behavior are described.

より詳しくは、辞書DB16cには、被験者が行い得る各行動について特徴およびラベルを示す辞書データが格納されている。ここで、特徴は、行動識別エンジン14が過去の加速度データから抽出した各行動の特徴であり、たとえば波形データの態様を有する。一方、ラベルは、抽出された各行動の特徴に対して、実験者が会話的ラベル付加アプリケーション22(後述)を介して付与した識別情報であり、たとえば“手洗い”,“手拭き”のような文字データの態様を有する。   More specifically, the dictionary DB 16c stores dictionary data indicating features and labels for each action that can be performed by the subject. Here, the feature is a feature of each behavior extracted from the past acceleration data by the behavior identification engine 14, and has, for example, a form of waveform data. On the other hand, the label is identification information given by the experimenter to the extracted feature of each action through the conversational label addition application 22 (described later). For example, characters such as “hand wash” and “hand wipe” are used. It has a data aspect.

行動識別エンジン14は、与えられた加速度データに対して特徴抽出を行い、抽出した特徴で辞書DB16cを検索してそこから当該特徴に対応するラベルを取得する一方、抽出した特徴に対応する時間を加速度データに付されたタイムスタンプを参照して特定する。そして、抽出した特徴,取得したラベルおよび特定した時間を、与えられた加速度データに関する識別結果(行動データ)として出力する。   The behavior identification engine 14 performs feature extraction on the given acceleration data, searches the dictionary DB 16c with the extracted feature, and obtains a label corresponding to the feature from the dictionary DB 16c, while calculating the time corresponding to the extracted feature. The time stamp attached to the acceleration data is specified with reference to the time stamp. Then, the extracted feature, the acquired label, and the specified time are output as an identification result (behavior data) regarding given acceleration data.

データマネージャ16は、行動識別エンジン14からの行動データに含まれるラベルおよび時間を、センサDB16a内の加速度データに対するアノテーション(注釈)データとして、アノテーションDB16bに記録する。アノテーションデータと加速度データとは、タイムスタンプを介して関連付けられている。   The data manager 16 records the label and time included in the behavior data from the behavior identification engine 14 in the annotation DB 16b as annotation data for the acceleration data in the sensor DB 16a. The annotation data and the acceleration data are associated with each other through a time stamp.

データマネージャ16はまた、こうしてアノテーションDB16bに登録されたラベルおよび特徴のうち辞書DB16cに存在しないものがあれば、会話的ラベル付加アプリケーション22(後述)を介して当該ラベルおよび特徴を示す辞書データを辞書DB16cに追記する。   If there is any label and feature registered in the annotation DB 16b that does not exist in the dictionary DB 16c, the data manager 16 also creates dictionary data indicating the label and feature via the interactive label addition application 22 (described later). Add to DB16c.

データビューワ20は、データマネージャ16を介して各種DB16a〜16dからデータを取得して可視化する。具体的には、主としてセンサDB16aからのセンサデータに基づいて図2に示すようなセンサデータビューワ画面を表示し、アノテーションDB16bからのアノテーションデータに基づいて図3に示すようなアノテーションデータビューワ画面を表示し、そしてビデオDB16dからのビデオ映像データに基づいて図4に示すようなビデオ映像ビューワ画面を表示する。辞書DB16cに登録されたラベルを、図8に示すようなラベル候補ウィンドウW3として表示することも可能である。   The data viewer 20 acquires data from various DBs 16 a to 16 d via the data manager 16 and visualizes the data. Specifically, a sensor data viewer screen as shown in FIG. 2 is displayed mainly based on sensor data from the sensor DB 16a, and an annotation data viewer screen as shown in FIG. 3 is displayed based on annotation data from the annotation DB 16b. Then, the video image viewer screen as shown in FIG. 4 is displayed based on the video image data from the video DB 16d. It is also possible to display the label registered in the dictionary DB 16c as a label candidate window W3 as shown in FIG.

図2のセンサデータ画面には、前述した計12成分の加速度波形が共通の時間軸に沿って描画される。このセンサデータ画面にはまた、アノテーションDB16bからのアノテーションデータに基づくアノテーション情報、つまりラベルを示す文字や、時間を示す帯および数字なども描画されている。   On the sensor data screen of FIG. 2, the acceleration waveforms of the total 12 components described above are drawn along a common time axis. On the sensor data screen, annotation information based on annotation data from the annotation DB 16b, that is, characters indicating labels, bands and numbers indicating time, and the like are also drawn.

図3のアノテーションデータビューワ画面には、時間の始点または終点を示す“時刻”と、“手洗い:開始”,“手洗い:終了”,“手拭き:開始”といった包括的な行動を示す上位ラベルである“ラベル1”と、“手濡らし:開始”,“手濡らし:終了”,“手のひら洗い:開始”といった詳細な行動を示す下位ラベルである“ラベル2”とが一覧表示されている。なお、他の実施例では、ラベルを3層以上に階層化してもよく、何ら階層化しなくてもよい。   The annotation data viewer screen of FIG. 3 is a high-level label indicating “time” indicating the start or end of time, and comprehensive actions such as “hand-washing: start”, “hand-washing: end”, and “hand-wiping: start”. “Label 1” and “Label 2”, which is a subordinate label indicating detailed actions such as “hand wetting: start”, “hand wetting: end”, and “hand washing: start”, are listed. In other embodiments, the labels may be hierarchized into three or more layers, or may not be hierarchized at all.

図4のビデオ映像ビューワ画面には、被験者が手を洗っている場面のビデオ映像と、タイムスタンプを示す数字とが表示されている。図8のラベル候補ウィンドウW3には、辞書DB16cの登録ラベルのうち一部を示す文字が、階層を示すインデント(“・”または“・・”)付きで表示されている。   The video image viewer screen of FIG. 4 displays a video image of a scene where the subject is washing his hands and a number indicating a time stamp. In the label candidate window W3 in FIG. 8, characters indicating a part of the registered label of the dictionary DB 16c are displayed with an indent ("." Or "..") indicating a hierarchy.

会話的外れ値削除アプリケーション18は、図5および図6に示すような散布図ウィンドウW1を通して会話的に、アノテーションDB16bおよび辞書DB16cから外れ値に対応するデータを除去する。詳しくは、散布図ウィンドウW1は、ユーザがセンサDB16aのセンサデータに関して1つ以上のラベルおよび特徴ベクトルの2成分を指定するのに応じて表示される。図5および図6のいずれの散布図ウィンドウW1でも、ラベルについては“手拭き”,“手洗い”,“手袋”,“消毒”が指定されている。2成分としては、図5(A)の散布図ウィンドウW1では“1”および“2”が、図5(B),図6(A)および図6(B)では“1”および“3”が、それぞれ指定されている。   The conversational outlier deletion application 18 interactively removes data corresponding to the outlier from the annotation DB 16b and the dictionary DB 16c through the scatter diagram window W1 as shown in FIGS. Specifically, the scatter diagram window W1 is displayed in response to the user specifying two components of one or more labels and feature vectors regarding the sensor data in the sensor DB 16a. In any of the scatter plot windows W1 in FIG. 5 and FIG. 6, “hand wipe”, “hand wash”, “gloves”, and “disinfection” are designated for the labels. The two components are “1” and “2” in the scatter diagram window W1 in FIG. 5A, and “1” and “3” in FIGS. 5B, 6A, and 6B. Are specified respectively.

会話的外れ値削除アプリケーション18は、センサDB16aからセンサデータを取得して、取得したセンサデータから指定ラベルに対応する部分を切り出す。そして、切り出したセンサデータに対して特徴抽出処理を施し、これにより抽出された特徴に対応する点を、ラベル毎に異なる態様(ここでは形状:丸,四角,三角など)で、散布図ウィンドウW1内にプロット表示する。   The conversational outlier deletion application 18 acquires sensor data from the sensor DB 16a, and cuts out a portion corresponding to the specified label from the acquired sensor data. Then, a feature extraction process is performed on the extracted sensor data, and points corresponding to the extracted features are displayed in different manners (here, shapes: circles, squares, triangles, etc.) for each label. Plot display inside.

図5,図6を参照して、散布図ウィンドウW1内の各点は、ラベル毎にクラスタを形成する。ただし、抽出された特徴に外れ値が含まれていると、図6のようにクラスタから孤立した点が現れる。会話的外れ値削除アプリケーション18は、クラスタから孤立した点については、外れ値候補として、クラスタ内の各点と区別するべくハイライト表示(たとえば輝度を高める,点滅させる等)する。   5 and 6, each point in scatter diagram window W1 forms a cluster for each label. However, if the extracted feature includes an outlier, a point isolated from the cluster appears as shown in FIG. The conversational outlier deletion application 18 highlights a point isolated from the cluster as an outlier candidate so as to distinguish it from each point in the cluster (for example, increase brightness, blink, etc.).

そして、このような孤立点には、クラスタに対して時間的近接性を有するものと有さないものとがあり、会話的外れ値削除アプリケーション18は、図6(B)のように、各孤立点を時間的近接性の有無によって異なる態様(たとえば大きさ,色など)でハイライト表示することもできる。   Such isolated points may or may not have temporal proximity to the cluster, and the conversational outlier deletion application 18 may use each isolated point as shown in FIG. Can be highlighted in a different manner (eg, size, color, etc.) depending on the presence or absence of temporal proximity.

図6(A)のように外れ値候補を単にハイライト表示するか、図6(B)のように外れ値候補を時間的近接性の有無によって異なる態様(ここでは異なる大きさ)でハイライト表示するかは、実験者の選択に基づいて決められる。   The outlier candidates are simply highlighted as shown in FIG. 6A, or the outlier candidates are highlighted in different modes (different sizes here) depending on the presence or absence of temporal proximity as shown in FIG. 6B. The display is determined based on the experimenter's selection.

一方、実験者が散布図ウィンドウW1内の任意の点を、たとえば図5(A)に示すようにカーソルCで選択すると、図2〜図4に示した各種ビューワ画面が当該点に対応する時間のものに更新表示される。なお、更新後のセンサデータビューワ画面および更新後のアノテーションデータビューワ画面では、当該点に対応する部分(図2および図3の点線枠部分)がハイライトされてもよい。   On the other hand, when the experimenter selects an arbitrary point in the scatter diagram window W1 with the cursor C as shown in FIG. 5A, for example, the various viewer screens shown in FIGS. Updated to be displayed. Note that on the updated sensor data viewer screen and the updated annotation data viewer screen, a portion corresponding to the point (dotted line frame portion in FIGS. 2 and 3) may be highlighted.

さらに、実験者がこの選択した点について削除操作を行うと、当該点に対応するデータがアノテーションDB16bおよび辞書DB16cから削除され、これに伴ってセンサデータビューワ画面およびアノテーションデータビューワ画面もさらに更新される。すなわち、図2のセンサデータビューワ画面からは“手指交差洗い”が削除され、図3のアノテーションデータビューワ画面からは“09:02:20:800”および“手指交差洗い:開始”ならびに“09:02:21:700”および“手指交差洗い:終了”が削除される。   Further, when the experimenter performs a deletion operation on the selected point, data corresponding to the point is deleted from the annotation DB 16b and the dictionary DB 16c, and the sensor data viewer screen and the annotation data viewer screen are further updated accordingly. . That is, “hand finger wash” is deleted from the sensor data viewer screen of FIG. 2, and “09: 02: 20: 800” and “hand finger wash: start” and “09: “02: 21: 700” and “hand cross-washing: end” are deleted.

従って、実験者は、図5,図6に示した散布図ウィンドウW1を通じて外れ値候補(孤立点)の有無を確認し、もし外れ値候補があれば、その孤立点に対応するセンサデータやビデオ映像を図2〜図4に示した各種ビューワ画面で確認して、必要ならこのようなセンサデータやビデオ映像を孤立点とクラスタ内の点との間で比較して、その孤立点が実際に外れ値かどうかを判断した上で、削除操作を行うことができる。   Therefore, the experimenter confirms whether or not there is an outlier candidate (isolated point) through the scatter diagram window W1 shown in FIGS. 5 and 6, and if there is an outlier candidate, sensor data or video corresponding to the isolated point is displayed. Check the images on the various viewer screens shown in FIGS. 2 to 4, and if necessary, compare such sensor data and video images between isolated points and points in the cluster. The deletion operation can be performed after determining whether the value is an outlier.

会話的ラベル付加アプリケーション22は、図7に示すような散布図ウィンドウW2および図8に示すようなラベル候補ウィンドウW3を通して、会話的にアノテーションDB16bおよび辞書DB16cに新たなデータを追記する。詳しくは、散布図ウィンドウW2およびラベル候補ウィンドウW3は、ユーザがセンサDB16aのセンサデータに関して1つ以上のラベルおよび特徴ベクトルの2成分を指定するのに応じて表示される。   The interactive label addition application 22 adds new data to the annotation DB 16b and the dictionary DB 16c interactively through the scatter diagram window W2 as shown in FIG. 7 and the label candidate window W3 as shown in FIG. Specifically, the scatter diagram window W2 and the label candidate window W3 are displayed in response to the user specifying two components of one or more labels and feature vectors regarding the sensor data in the sensor DB 16a.

図7の散布図ウィンドウW2では、図5(A)のそれと同様、ラベルとして“手拭き”,“手洗い”,“手袋”,“消毒”が、2成分としては“1”および“2”がそれぞれ指定されており、これら指定されたラベルおよび成分に対応する特徴を示す点がプロットされている。ここでも各点はラベル毎にクラスタを形成しているが、図5(A)のそれとは異なり、各クラスタから孤立した点(星型)も多数存在している。そして、これら孤立点のうち時間的近接性を有するものが新たなクラスタを形成しており、この新たな“時間的近接性のあるクラスタ”がラベル付加候補としてハイライト表示されている。   In the scatter diagram window W2 in FIG. 7, as in FIG. 5 (A), “hand wipe”, “hand wash”, “gloves”, “disinfection” as labels, and “1” and “2” as two components, respectively. The points indicating the features corresponding to these specified labels and components are plotted. Again, each point forms a cluster for each label, but unlike that of FIG. 5A, there are many points (stars) isolated from each cluster. Among these isolated points, those having temporal proximity form a new cluster, and this new “cluster having temporal proximity” is highlighted as a label addition candidate.

図7のような散布図ウィンドウW2内でラベル付加候補としてハイライト表示されているクラスタの1つが実験者によって指定されると、会話的ラベル付加アプリケーション22は、図8に示すようなラベル候補ウィンドウW3を表示する。このラベル候補ウィンドウW3には、指定ラベル(つまり“手拭き”,“手洗い”,…)およびその下位ラベル(たとえば“手濡らし”,“手のひら洗い”,…,“ペーパータオル取り”,…など)が表示される。   When one of the clusters highlighted as the label addition candidate in the scatter diagram window W2 as shown in FIG. 7 is designated by the experimenter, the interactive label addition application 22 displays the label candidate window as shown in FIG. W3 is displayed. In this label candidate window W3, the designated label (that is, “hand wipe”, “hand wash”,...) And its lower labels (for example, “hand wet”, “hand wash”,..., “Paper towel removal”,...) Are displayed. Is done.

図8のようなラベル候補ウィンドウW3に表示されているラベル候補のうち1つを実験者が指定すると、会話的ラベル付加アプリケーション22は、先に散布図ウィンドウW2で指定されたクラスタに含まれる点に対応する特徴(つまり未知の特徴)に対し、ここで指定されたラベルを付加すると共に、特徴に対応する時間を特定する。そして、これら特徴および時間を示すアノテーションデータをアノテーションDB16bに追記する一方、これら特徴およびラベルを示す辞書データを辞書DB16cに追記する。   When the experimenter specifies one of the label candidates displayed in the label candidate window W3 as shown in FIG. 8, the interactive label addition application 22 is included in the cluster previously specified in the scatter diagram window W2. A label designated here is added to a feature corresponding to (i.e., an unknown feature), and a time corresponding to the feature is specified. Then, annotation data indicating these features and time is added to the annotation DB 16b, while dictionary data indicating these features and labels is added to the dictionary DB 16c.

以上のようなシステム100の動作のうち、特に会話的外れ値削除アプリケーション18および会話的ラベル付加アプリケーション22を実現するために、PC10が行う情報処理について、次に説明する。   Among the operations of the system 100 as described above, information processing performed by the PC 10 to realize the conversational outlier deletion application 18 and the conversational label addition application 22 will be described next.

PC10は、図9に示すように、無線LANモジュール10L,時計10T,CPU50,LCDモニタ52,キー入力装置54およびメインメモリ56を含む。無線LANモジュール10Lは、CPU50の制御下で、センサ12およびビデオカメラ24にそれぞれ設けられた無線LANモジュール12Lおよび24Lと無線LAN通信を行う。時計10Tは、センサ12およびビデオカメラ24にそれぞれ設けられた時計12Tおよび24Tと同期しており、CPU50に必要な時刻情報を与える。   As shown in FIG. 9, the PC 10 includes a wireless LAN module 10L, a clock 10T, a CPU 50, an LCD monitor 52, a key input device 54, and a main memory 56. The wireless LAN module 10L performs wireless LAN communication with the wireless LAN modules 12L and 24L provided in the sensor 12 and the video camera 24, respectively, under the control of the CPU 50. The timepiece 10T is synchronized with the timepieces 12T and 24T provided in the sensor 12 and the video camera 24, respectively, and gives necessary time information to the CPU 50.

LCDモニタ52は、CPU50の制御下で、図2〜図8のような画像を表示する。キー入力装置54は、実験者の操作を受け、対応するコマンドをCPU50に与える。メインメモリ56には、CPU50が処理を行うためのプログラムおよびデータが記憶される。詳しくは、図10に示すように、メインメモリ56にはプログラム領域56aおよびデータ領域56bが形成され、プログラム領域56aには会話的外れ値削除プログラム60,会話的ラベル付加プログラム62,表示制御プログラム64および通信制御プログラム66などが格納されている。   The LCD monitor 52 displays images as shown in FIGS. 2 to 8 under the control of the CPU 50. The key input device 54 receives the operation of the experimenter and gives a corresponding command to the CPU 50. The main memory 56 stores a program and data for the CPU 50 to perform processing. Specifically, as shown in FIG. 10, a program area 56a and a data area 56b are formed in the main memory 56. The program area 56a has a conversational outlier deletion program 60, a conversational label addition program 62, a display control program 64, and A communication control program 66 and the like are stored.

会話的外れ値削除プログラム60は、会話的外れ値削除アプリケーション18を実現するためのメインプログラムであり、これに対応するフローチャートが図11〜図13に示されている。会話的ラベル付加プログラム62は、会話的ラベル付加アプリケーション22を実現するためのメインプログラムであり、これに対応するフローチャートが図14〜図15に示されている。表示制御プログラム64は、会話的外れ値削除プログラム60および会話的ラベル付加プログラム62によって利用されるサブプログラムであり、これにより図2〜図8のような画像の表示が実現される。通信制御プログラム66は、会話的外れ値削除プログラム60および会話的ラベル付加プログラム62によって利用されるサブプログラムであり、これによってPC10とセンサ12やビデオカメラ24との無線通信が実現される。   The conversational outlier deletion program 60 is a main program for realizing the conversational outlier deletion application 18, and flowcharts corresponding to the main program are shown in FIGS. The conversational label addition program 62 is a main program for realizing the conversational label addition application 22, and flowcharts corresponding to the main program are shown in FIGS. 14 to 15. The display control program 64 is a subprogram used by the conversational outlier deletion program 60 and the conversational label addition program 62, thereby realizing display of images as shown in FIGS. 2 to 8. The communication control program 66 is a subprogram used by the conversational outlier deletion program 60 and the conversational label addition program 62, thereby realizing wireless communication between the PC 10 and the sensor 12 or the video camera 24.

データ領域56bは、センサデータ領域70,アノテーションデータ領域72,辞書データ領域74,ビデオ映像データ領域76および変数/パラメータ領域78などを含む。各種データ領域70〜78は、各種DB16a〜16dから読み込まれた各種データを記憶するための領域である。変数/パラメータ領域74は、プログラムで使用される各種の変数(特徴ベクトルX,時刻ベクトルT,正準ベクトルC,主成分ベクトルP,…)やパラメータ(class,α,Flag,dt,param,…)を記憶するための領域である。   The data area 56b includes a sensor data area 70, an annotation data area 72, a dictionary data area 74, a video image data area 76, a variable / parameter area 78, and the like. The various data areas 70 to 78 are areas for storing various data read from the various DBs 16a to 16d. The variable / parameter area 74 includes various variables (feature vector X, time vector T, canonical vector C, principal component vector P,...) And parameters (class, α, Flag, dt, param,...) Used in the program. ) Is an area for storing.

図11を参照して、会話的外れ値削除プログラム60が起動されると、CPU50は、まず、ステップS1で各種DB16a〜16dから各種データを各種データ領域70〜78に読み込み、ステップS3では、読み込んだ各種データに基づいて図2〜図4のような各種ビューワ画面をLCDモニタ52に表示する。   Referring to FIG. 11, when conversational outlier deletion program 60 is activated, CPU 50 first reads various data from various DBs 16a to 16d into various data areas 70 to 78 in step S1, and in step S3. Various viewer screens as shown in FIGS. 2 to 4 are displayed on the LCD monitor 52 based on the various data.

次に、ステップS5で、ラベルおよび特徴ベクトルの2成分を指定する操作をキー入力装置54を通じて受け付け、ステップS7では、指定されたラベルおよびセンサデータに対して特徴抽出処理を行い、特徴ベクトルXおよび時刻ベクトルTを求める。ステップS9では、特徴ベクトルXに対して正準相関変換処理を施して、正準ベクトルCを求める。そしてステップS11で、散布図ウィンドウW1内に、求めた正準ベクトルCの指定2成分(に対応する点)をプロット表示する(図5,図6参照)。   Next, in step S5, an operation for designating two components of a label and a feature vector is accepted through the key input device 54. In step S7, feature extraction processing is performed on the designated label and sensor data, and the feature vector X and A time vector T is obtained. In step S9, a canonical correlation conversion process is performed on the feature vector X to obtain a canonical vector C. In step S11, the specified two components (corresponding points) of the obtained canonical vector C are plotted and displayed in the scatter diagram window W1 (see FIGS. 5 and 6).

次に、ステップS13で、キー入力装置54の操作に基づいてパラメータの設定を行う。これによって、“class”には対象クラスが、“α”には外れ値係数が、“Flag”には時間的近接性考慮フラグが、そして“dt”には時間的近接性に関する閾値が、それぞれ設定される。ステップS15では、正準ベクトルC,時刻ベクトルTおよびパラメータ(class,α,Flag,dt)に基づいて外れ値処理(図13参照:後述)を行い、“Outlier”および“Continuity”を求める。ここで、“Outlier”は外れ値となる正準ベクトルの配列であり、“Continuity”は外れ値の時間的近接性の有無(True/False)に関する配列である。ステップS17では、“Outlier”を“Continuity”がTrueのもの(“Outlier_cont”)とFalseのもの(“Outlier_discont”)とに分類する。そしてステップS19で、“Outlier_cont”および“Outlier_discont”を互いに異なる態様(大きさや色)でハイライト表示する。   Next, in step S13, parameters are set based on the operation of the key input device 54. As a result, the target class is “class”, the outlier coefficient is “α”, the temporal proximity consideration flag is “Flag”, and the threshold value for temporal proximity is “dt”. Is set. In step S15, outlier processing (see FIG. 13: described later) is performed based on the canonical vector C, the time vector T, and the parameters (class, α, Flag, dt) to obtain “Outlier” and “Continuity”. Here, “Outlier” is an array of canonical vectors that are outliers, and “Continuity” is an array related to the presence / absence of temporal proximity of outliers (True / False). In step S17, “Outlier” is classified into “Continuity” that is True (“Outlier_cont”) and False (“Outlier_discont”). In step S19, “Outlier_cont” and “Outlier_discount” are highlighted in different modes (size and color).

次に、ステップS21で、散布図ウィンドウW1内のいずれかの点を指定する操作をキー入力装置54を通じて受け付け(図5(A)参照)、ステップS23では、指定された点に対応する時刻を算出する。ステップS25では、各種ビューワの画面(図2〜図4参照)を算出した時刻のものに更新表示する。センサデータビューワ画面およびアノテーションデータビューワ画面で当該時間区間をハイライト表示してもよい。ステップS27では、キー入力装置54を通じて、先に指定した点を対象とする外れ値削除操作を受け付ける。そして、ステップS29で外れ値削除操作の有無を判別し、NOであればステップS13に戻って同様の処理を繰り返す。   Next, in step S21, an operation for designating any point in the scatter diagram window W1 is accepted through the key input device 54 (see FIG. 5A). In step S23, the time corresponding to the designated point is set. calculate. In step S25, various viewer screens (see FIGS. 2 to 4) are updated and displayed at the calculated times. The time interval may be highlighted on the sensor data viewer screen and the annotation data viewer screen. In step S27, an outlier deletion operation for the previously designated point is accepted through the key input device 54. In step S29, it is determined whether or not an outlier deletion operation has been performed. If NO, the process returns to step S13 to repeat the same processing.

ステップS29でYESであれば、ステップS31で当該点に対応する正準ベクトルCひいては特徴ベクトルXを削除する。ステップS33では散布図ウィンドウW1を更新表示し、ステップS35ではアノテーションDB16bおよび辞書DB16cを更新し、ステップS37では各種ビューワ画面を更新表示する。そしてステップS39で終了するか否かの判定を行い、NOであればステップS5に戻って同様の処理を繰り返す。キー入力装置54による終了操作が行われると、ステップS39でYESと判定し、この処理を終了する。   If “YES” in the step S29, the canonical vector C and the feature vector X corresponding to the point are deleted in a step S31. In step S33, the scatter diagram window W1 is updated and displayed. In step S35, the annotation DB 16b and the dictionary DB 16c are updated. In step S37, various viewer screens are updated and displayed. In step S39, it is determined whether or not to end. If NO, the process returns to step S5 to repeat the same processing. When the end operation is performed by the key input device 54, it is determined YES in step S39, and this process is ended.

上記ステップS15の外れ値処理は、図13のサブルーチンに従って実行される。ステップS51では、正準ベクトルCのうち“class”で指定されたサンプルに相当する正準サンプルベクトルC*=C_s.t.(クラスレベル=class)について、その平均ベクトルμi(1≦i≦d)と、共分散行列の対角成分σi(1≦i≦d)つまり[σ1,σ2,…,σd]=diag(Cov(C*))とを求める。また、C*のサンプル数(つまり正準ベクトルCのうち“class”で指定したラベルを持つサンプルの数)を求め、これを“K”とする。さらに、平均ベクトルμiの近傍にあるサンプルベクトルの時刻の平均を求め、これを“T*”とする。   The outlier processing in step S15 is executed according to the subroutine of FIG. In step S51, the canonical sample vector C * = C_s. Corresponding to the sample specified by “class” in the canonical vector C. t. For (class level = class), the average vector μi (1 ≦ i ≦ d) and the diagonal component σi (1 ≦ i ≦ d) of the covariance matrix, that is, [σ1, σ2,..., Σd] = diag (Cov (C *)). Further, the number of samples of C * (that is, the number of samples having the label designated by “class” in the canonical vector C) is obtained, and this is set to “K”. Further, the average of the times of the sample vectors in the vicinity of the average vector μi is obtained, and this is set as “T *”.

ステップS53では、カウンタを初期化する(k=1)。ステップS55では、全データについて処理が終了したか否か(k>K?)を判別する。ここでYESであれば上位層のルーチンに復帰し、NOであればステップS57に進む。ステップS57では、正準サンプルベクトルC*(k)の各要素C*(k)iについて平均ベクトルμiとの差Diを計算する(Di=|C*(k)i−μi|)。ステップS59では、計算結果のうちDi>α×σiとなる要素があるか否かを判別し、YESであれば(1つでもあれば)ステップS71に進む一方、NOであれば(1つもなければ)ステップS61に進む。   In step S53, the counter is initialized (k = 1). In step S55, it is determined whether or not processing has been completed for all data (k> K?). If “YES” here, the process returns to the upper layer routine, and if “NO”, the process proceeds to a step S57. In step S57, the difference Di from the average vector μi is calculated for each element C * (k) i of the canonical sample vector C * (k) (Di = | C * (k) i−μi |). In step S59, it is determined whether or not there is an element satisfying Di> α × σi in the calculation result. If YES (if any), the process proceeds to step S71. If NO (NO), there is no one. Eg) Proceed to step S61.

ステップS61では、“Outlier”にkを追加する。ステップS63では、時間的近接性を考慮するか否かを“Flag”により判別する。Flag=TrueであればYESと判別してステップS71に進む一方、Flag=FalseであればNOと判別してステップS65に進む。   In step S61, k is added to “Outlier”. In step S63, it is determined by “Flag” whether or not the temporal proximity is considered. If Flag = True, the determination is YES and the process proceeds to step S71. If Flag = False, NO is determined and the process proceeds to step S65.

ステップS65では、時刻T(k)と時刻T*との絶対値差分が先に指定した閾値つまり“dt”を超えている否か(|T(k)−T*|>dt?)を判別する。ここでYESであれば、ステップS67で“Continuity[k]”に“True”をセットした後、ステップS71に進む。一方、NOであれば、ステップS69で“Continuity[k]”に“False”をセットした後、ステップS71に進む。   In step S65, it is determined whether or not the absolute value difference between the time T (k) and the time T * exceeds the previously specified threshold, that is, “dt” (| T (k) −T * |> dt?). To do. If “YES” here, after setting “True” to “Continuity [k]” in a step S67, the process proceeds to a step S71. On the other hand, if “NO”, “False” is set in “Continuity [k]” in step S69, and then the process proceeds to step S71.

ステップS71では、カウンタをインクリメントし(k=k+1)、その後、ステップS55に戻って同様の処理を繰り返す。   In step S71, the counter is incremented (k = k + 1), and then the process returns to step S55 to repeat the same processing.

図14を参照して、会話的ラベル付加プログラム62が起動されると、CPU50は、まず、ステップS81で各種DB16a〜16dから各種データを各種データ領域70〜78に読み込み、ステップS83では、読み込んだ各種データに基づいて図2〜図4のような各種ビューワ画面をLCDモニタ52に表示する。   Referring to FIG. 14, when conversational label addition program 62 is activated, CPU 50 first reads various data from various DBs 16a to 16d into various data areas 70 to 78 in step S81, and in step S83, the data is read. Various viewer screens as shown in FIGS. 2 to 4 are displayed on the LCD monitor 52 based on the various data.

次に、ステップS85で、ラベルおよび特徴ベクトルの2成分を指定する操作をキー入力装置54を通じて受け付け、ステップS87では、指定されたラベルおよびセンサデータに対して特徴抽出処理を行い、特徴ベクトルXおよび時刻ベクトルTを求める。ステップS89では、特徴ベクトルXに対して主成分分析処理を施して、主成分ベクトルPを求める。そしてステップS91で、散布図ウィンドウW2内に、求めた主成分ベクトルPの指定2成分(に対応する点)をプロット表示する(図7参照)。   Next, in step S85, an operation for designating two components of a label and a feature vector is accepted through the key input device 54. In step S87, feature extraction processing is performed on the designated label and sensor data, and the feature vector X A time vector T is obtained. In step S89, the principal component analysis process is performed on the feature vector X to obtain the principal component vector P. In step S91, the designated two components (corresponding points) of the obtained principal component vector P are plotted and displayed in the scatter diagram window W2 (see FIG. 7).

次に、ステップS93で、キー入力装置54の操作に基づいてパラメータの設定を行う。これによって、“param”にはクラスタリングパラメータが、“Flag”には時間的近接性考慮フラグが、そして“dt”には時間的近接性に関する閾値が、それぞれ設定される。ステップS95では、主成分ベクトルC,時刻ベクトルTおよびパラメータ(param,Flag,dt)に基づいてクラスタリング処理を行い、“Cluster”および“Continuity”を求める。ここで、“Cluster”はクラスタリング処理の結果であるクラスタの配列であり、“Continuity”はクラスタの時間的近接性の有無(True/False)に関する配列である。クラスタリング処理には、多変量混合正規分布を仮定したEM(Expectation Maximization)アルゴリズムによるクラスタリング手法や、標準的クラスタリング手法であるK平均法(k−means)などを用いることができる。   Next, in step S93, parameters are set based on the operation of the key input device 54. Accordingly, a clustering parameter is set in “param”, a temporal proximity consideration flag is set in “Flag”, and a threshold value related to temporal proximity is set in “dt”. In step S95, clustering processing is performed based on the principal component vector C, the time vector T, and the parameters (param, Flag, dt) to obtain “Cluster” and “Continuity”. Here, “Cluster” is an array of clusters as a result of the clustering process, and “Continuity” is an array related to the presence / absence of cluster proximity (True / False). For the clustering process, a clustering method based on an EM (Expectation Maximization) algorithm assuming a multivariate mixed normal distribution, a K-means (K-means) which is a standard clustering method, or the like can be used.

ステップS97では、“Cluster”を“Continuity”がTrueのも(“Cluster_cont”)とFalseのもの(“Cluster_discont”)とに分類する。そしてステップS99で、“Cluster_cont”および“Outlier_discont”を互いに異なる態様(大きさや色)でハイライト表示する。   In step S97, “Cluster” is classified into “Continuity” with True (“Cluster_cont”) and False (“Cluster_discount”). In step S99, “Cluster_cont” and “Outlier_discount” are highlighted in different modes (size and color).

次に、ステップS101で、散布図ウィンドウW2内のいずれかのクラスタを指定するカーソルCの操作をキー入力装置54を通じて受け付け(図7参照)、ステップS103では、指定されたクラスタに対応する時間区間を算出する。ステップS105では、各種ビューワの画面(図2〜図4参照)を算出した時間区間のものに更新表示する。センサデータビューワ画面およびアノテーションデータビューワ画面で当該時間区間をハイライト表示してもよい。ステップS107では、図8のようなラベル候補ウィンドウW3をLCDモニタ52に表示して、先に指定したクラスタを対象とするラベル付与操作をキー入力装置54を通じて受け付ける。具体的には、実験者がラベル候補ウィンドウW3に示されたラベルの1つをカーソル操作により選択するか、またはラベル候補ウィンドウW3にない新規のラベルを文字キー操作で入力する。そして、ステップS109でラベル付与操作の有無を判別し、NOであればステップS93に戻って同様の処理を繰り返す。   Next, in step S101, an operation of the cursor C for designating any cluster in the scatter diagram window W2 is accepted through the key input device 54 (see FIG. 7), and in step S103, a time interval corresponding to the designated cluster. Is calculated. In step S105, various viewer screens (see FIGS. 2 to 4) are updated and displayed in the calculated time section. The time interval may be highlighted on the sensor data viewer screen and the annotation data viewer screen. In step S107, a label candidate window W3 as shown in FIG. 8 is displayed on the LCD monitor 52, and a label assignment operation for the previously designated cluster is accepted through the key input device. Specifically, the experimenter selects one of the labels shown in the label candidate window W3 by a cursor operation, or inputs a new label not in the label candidate window W3 by a character key operation. In step S109, the presence / absence of a labeling operation is determined. If NO, the process returns to step S93 to repeat the same processing.

ステップS109でYESであれば、ステップS111で当該クラスタに対応する主成分ベクトルPひいては特徴ベクトルXに対してラベルを付加する。ステップS113では散布図ウィンドウW2を更新表示し、ステップS115ではアノテーションDB16bを更新し、ステップS117では各種ビューワ画面を更新表示する。そしてステップS119で終了するか否かの判定を行い、NOであればステップS85に戻って同様の処理を繰り返す。キー入力装置54による終了操作が行われると、ステップS119でYESと判定し、この処理を終了する。   If “YES” in the step S109, a label is added to the principal component vector P corresponding to the cluster and the feature vector X in a step S111. In step S113, the scatter diagram window W2 is updated and displayed. In step S115, the annotation DB 16b is updated. In step S117, various viewer screens are updated and displayed. In step S119, it is determined whether or not to end. If NO, the process returns to step S85 to repeat the same processing. When the end operation is performed by the key input device 54, YES is determined in the step S119, and this process is ended.

以上から明らかなように、この実施例の行動識別システム100はPC10を含み、PC10はセンサDB16a,辞書DB16c,行動識別エンジン14,アノテーションDB16b,会話的外れ値削除アプリケーション18,データビューワ20および会話的ラベル付加アプリケーション22の各機能を実現する。センサDB16aはセンサ12からのセンサ情報および時計12Tからの時刻情報を蓄積している。辞書DB16cは被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積している。行動識別エンジン14は、センサ情報および時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と辞書DB16cの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する。アノテーションDB16bは、行動識別エンジンから出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積する。データビューワ20は、センサDB16aに基づくセンサデータ画面にアノテーションDB16bに基づくアノテーション情報を時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面(図2)をLCDモニタ52に表示する。   As is clear from the above, the behavior identification system 100 of this embodiment includes a PC 10, which is a sensor DB 16a, a dictionary DB 16c, a behavior identification engine 14, an annotation DB 16b, a conversational outlier deletion application 18, a data viewer 20, and a conversational label. Each function of the additional application 22 is realized. The sensor DB 16a stores sensor information from the sensor 12 and time information from the clock 12T. The dictionary DB 16c stores dictionary information indicating features and labels for each action that can be performed by the subject. The behavior identification engine 14 receives sensor information and time information, extracts a feature from the sensor information, selects a label corresponding to the feature based on a comparison between the extracted feature and the dictionary DB 16c, and corresponds to the extracted feature. The time to perform is specified based on the time information, and the extracted feature, the selected label, and the action information indicating the specified time are output. The annotation DB 16b accumulates the label and time indicated by the behavior information output from the behavior identification engine as annotation information. The data viewer 20 adds annotation information based on the annotation DB 16 b to the sensor data screen based on the sensor DB 16 a based on the time information, and displays the sensor data screen with annotation (FIG. 2) on the LCD monitor 52.

そして、会話的削除アプリケーション18は、行動識別エンジン14から出力される行動情報が示す特徴,ラベルおよび時間を、LCDモニタ52に表示されたアノテーション付きセンサデータ画面を参照しつつキー入力装置54で行われる外れ値削除操作に応じて、辞書DB16cおよびアノテーションDB16bから削除する(S1〜S39,S51〜S71)。こうして、センサDB16aおよびアノテーションDB16bから外れ値を会話的に削除することができる。   Then, the conversational deletion application 18 performs the feature, label, and time indicated by the behavior information output from the behavior identification engine 14 by using the key input device 54 while referring to the annotated sensor data screen displayed on the LCD monitor 52. In response to the outlier deletion operation, the dictionary DB 16c and the annotation DB 16b are deleted (S1 to S39, S51 to S71). In this way, outliers can be deleted conversationally from the sensor DB 16a and the annotation DB 16b.

一方、会話的ラベル付加アプリケーション22は、行動識別エンジン14から出力される行動情報が示す特徴,ラベルおよび時間を、LCDモニタ52に表示されたアノテーション付きセンサデータ画面を参照しつつキー入力装置54で行われるラベル付加操作に応じて、辞書DB16cおよびアノテーションDB16bに追加する(S81〜S119)。こうして、センサ情報に基づくラベル付加、および付加したラベルのセンサDB16aおよびアノテーションDB16bへの登録を、事後的かつ会話的に行える。   On the other hand, the conversational label addition application 22 uses the key input device 54 while referring to the annotated sensor data screen displayed on the LCD monitor 52 for the features, labels, and times indicated by the behavior information output from the behavior identification engine 14. Depending on the label addition operation to be performed, it is added to the dictionary DB 16c and the annotation DB 16b (S81 to S119). In this way, label addition based on sensor information and registration of the added label in the sensor DB 16a and annotation DB 16b can be performed afterwards and conversationally.

なお、この実施例では、行動識別エンジン14へは、センサDB16aに蓄積されているセンサ情報を入力したが、センサ12から出力されるセンサ情報をリアルタイムに入力してもよい。   In this embodiment, the sensor information stored in the sensor DB 16a is input to the behavior identification engine 14, but the sensor information output from the sensor 12 may be input in real time.

また、この実施例では、センサ12として4個の3軸加速度センサを用いたが、これに加えて、赤外線送受信機を利用した位置センサや、Bluetooth(登録商標)モジュールなどを利用した近接センサを用いてもよい。この場合、位置センサや近接センサの各時計もPC10の時計10Tと同期しており、センサDB16aは、位置センサからの位置情報や近接センサからの近接情報も時刻情報と共に蓄積する。行動識別エンジン14は、主として加速度情報に基づいて、位置情報や近接情報も適宜参照しつつ、行動識別を行う。   In this embodiment, four three-axis acceleration sensors are used as the sensor 12, but in addition to this, a position sensor using an infrared transmitter / receiver or a proximity sensor using a Bluetooth (registered trademark) module or the like is used. It may be used. In this case, the timepieces of the position sensor and the proximity sensor are also synchronized with the timepiece 10T of the PC 10, and the sensor DB 16a accumulates the position information from the position sensor and the proximity information from the proximity sensor together with the time information. The action identification engine 14 performs action identification based on acceleration information, referring to position information and proximity information as appropriate.

以上では、看護業務への適用例を説明したが、この発明は、たとえば製造,物流など他の業務にも適用できる。   In the above, an example of application to nursing work has been described. However, the present invention can be applied to other work such as manufacturing and distribution.

10 …PC
12 …センサ(3軸加速度センサ×4)
14 …行動識別エンジン
16 …データマネージャ
18 …会話的外れ値削除アプリケーション
20 …データビューワ
22 …会話的ラベル付加アプリケーション
24 …ビデオカメラ
50 …CPU
52 …LCDモニタ
54 …キー入力装置
56 …メインメモリ
10T,12T,24T …時計
16a …センサDB
16b …アノテーションDB
16c …辞書DB
16d …ビデオDB
100 …行動識別システム
10 ... PC
12 ... Sensor (3-axis acceleration sensor x 4)
DESCRIPTION OF SYMBOLS 14 ... Action identification engine 16 ... Data manager 18 ... Conversational outlier deletion application 20 ... Data viewer 22 ... Conversational label addition application 24 ... Video camera 50 ... CPU
52 ... LCD monitor 54 ... Key input device 56 ... Main memory 10T, 12T, 24T ... Clock 16a ... Sensor DB
16b Annotation DB
16c ... Dictionary DB
16d ... Video DB
100 ... Action identification system

Claims (11)

被験者の行動をセンサからのセンサ情報および時計からの時刻情報に基づいて識別する行動識別システムであって、
前記センサ情報および前記時刻情報を蓄積したセンサDB、
前記被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積した辞書DB、
前記センサ情報および前記時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と前記辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を前記時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する、行動識別手段、
前記行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積するアノテーションDB、
前記センサDBに基づくセンサデータ画面に前記アノテーションDBに基づくアノテーション情報を前記時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面をモニタに表示する第1表示手段、および
前記行動識別手段から出力される行動情報が示す特徴を第1ベクトルに変換して各前記第1ベクトルの散布状態を示す第1散布図画像を前記モニタに表示する第2表示手段と、前記モニタに表示された第1散布図画像を参照しつつ入力装置で行われる外れ値削除操作を受け付ける第1受付手段とを含み、前記行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、前記外れ値削除操作に応じて、前記辞書DBおよび前記アノテーションDBから削除する、会話的削除手段を備える、行動識別システム。
A behavior identification system for identifying a subject's behavior based on sensor information from a sensor and time information from a clock,
A sensor DB that stores the sensor information and the time information;
Dictionary DB that stores dictionary information indicating features and labels for each action that can be performed by the subject,
The sensor information and the time information are input, a feature is extracted from the sensor information, a label corresponding to the feature is selected based on a comparison between the extracted feature and the dictionary DB, and a time corresponding to the extracted feature is determined. Action identification means for specifying the extracted time based on the time information and outputting action information indicating the extracted feature, the selected label and the specified time;
An annotation DB that accumulates the label and time indicated by the behavior information output from the behavior identification means as annotation information,
First display means for adding annotation information based on the annotation DB to the sensor data screen based on the sensor DB based on the time information, and displaying the sensor data screen with annotation on a monitor; and
Second display means for converting the characteristics indicated by the action information output from the action identification means into a first vector and displaying on the monitor a first scatter diagram image showing a scatter state of each of the first vectors; and the monitor A first accepting unit that accepts an outlier deletion operation performed by the input device with reference to the first scatter diagram image displayed on the screen , and the feature, label, and time indicated by the behavior information output from the behavior identifying unit in response to the outlier delete operation, it deletes from the dictionary DB and the annotation DB, comprises a conversational deletion means, behavioral identification system.
前記第1受付手段は、前記モニタに表示された第1散布図画像を参照しつつ前記入力装置で行われる外れ値選択操作を前記外れ値削除操作の前に受け付け、
前記第1表示手段は、前記アノテーション付きセンサデータ画面内の前記外れ値選択操作に対応する部分をハイライト表示し、
記外れ値削除操作はさらに前記アノテーション付きセンサデータ画面内のハイライト表示された部分も参照しつつ行われる、請求項1記載の行動識別システム。
The first accepting unit accepts an outlier selection operation performed on the input device with reference to the first scatter diagram image displayed on the monitor before the outlier removal operation,
The first display means highlights a portion corresponding to the outlier selection operation in the annotated sensor data screen,
Before Kihazure value delete operation is carried out with reference also more highlighted portions of the annotated sensor data screen, behavior identification system of claim 1, wherein.
前記第2表示手段は、各前記第1ベクトルに外れ値判定処理を施して判定結果が外れ値を示す第1ベクトルを外れ値候補としてハイライト表示する、請求項記載の行動識別システム。 The second display means, highlighting a first vector indicating a determination result outlier subjected to outlier determination processing to each of said first vector as an outlier candidate, behavior identification system of claim 1, wherein. 前記第2表示手段はさらに、各前記第1ベクトルについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示す第1ベクトルと時間的近接性なしを示す第1ベクトルとで前記ハイライト表示の態様を異ならせる、請求項3記載の行動識別システム。   The second display means further determines the presence or absence of temporal proximity for each of the first vectors, and a first vector indicating that the determination result is temporal proximity and a first vector indicating no temporal proximity; The behavior identification system according to claim 3, wherein the highlight display is made different. 前記行動識別手段から出力される行動情報が示す特徴を第2ベクトルに変換して各前記第2ベクトルをクラスタ化し、各前記第2ベクトルの散布状態をクラスタリング情報と共に示す第2散布図画像を前記モニタに表示する第3表示手段と、前記モニタに表示された第2散布図画像を参照しつつ前記入力装置で行われるラベル付加操作を受け付ける第2受付手段とを含み、前記行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、前記ラベル付加操作に応じて、前記辞書DBおよび前記アノテーションDBに追加する、会話的追加手段をさらに備える、請求項1ないし4のいずれかに記載の行動識別システム。 The second scatter diagram image showing the scatter state of each second vector together with clustering information is converted into a second vector by converting the feature indicated by the behavior information output from the behavior identification means into a second vector. 3rd display means to display on a monitor, and 2nd reception means to receive the label addition operation performed with the said input device, referring the 2nd scatter diagram image displayed on the said monitor, It outputs from the said action identification means 5. The apparatus according to claim 1, further comprising a conversation addition unit that adds the feature, the label, and the time indicated by the action information to be added to the dictionary DB and the annotation DB according to the label addition operation. Behavior identification system. 前記会話的追加手段は、前記第2散布図画像に含まれるクラスタに関するラベル候補画像を前記モニタに表示する第表示手段をさらに含み、前記ラベル付加操作はさらに前記ラベル候補画像も参照しつつ行われる、請求項5記載の行動識別システム。 The interactive addition means further includes fourth display means for displaying on the monitor a label candidate image relating to a cluster included in the second scatter diagram image, and the label addition operation is performed while further referring to the label candidate image. The behavior identification system according to claim 5. 前記第3表示手段はさらに、各前記クラスタについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示すクラスタをラベル付加候補としてハイライト表示する、請求項記載の行動識別システム。 6. The behavior according to claim 5 , wherein the third display means further determines whether or not there is temporal proximity for each of the clusters, and highlights a cluster indicating that the determination result indicates temporal proximity as a label addition candidate. Identification system. 被験者の行動をセンサからのセンサ情報および時計からの時刻情報に基づいて識別する行動識別システムであって、
前記センサ情報および前記時刻情報を蓄積したセンサDB、
前記被験者が行い得る各行動について特徴およびラベルを示す辞書情報を蓄積した辞書DB、
前記センサ情報および前記時刻情報が入力され、当該センサ情報から特徴を抽出し、抽出した特徴と前記辞書DBの比較に基づいて当該特徴に対応するラベルを選択し、抽出した特徴に対応する時間を前記時刻情報に基づいて特定し、そして抽出した特徴,選択したラベルおよび特定した時間を示す行動情報を出力する、行動識別手段、
前記行動識別手段から出力される行動情報が示すラベルおよび時間をアノテーション情報として蓄積するアノテーションDB、
前記センサDBに基づくセンサデータ画面に前記アノテーションDBに基づくアノテーション情報を前記時刻情報に基づいて付加して、当該アノテーション付きセンサデータ画面をモニタに表示する、第1表示手段、および
前記行動識別手段から出力される行動情報が示す特徴をベクトルに変換して各前記ベクトルをクラスタ化し、各前記ベクトルの散布状態をクラスタリング情報と共に示す散布図画像を前記モニタに表示する第2表示手段と、前記モニタに表示された散布図画像を参照しつつ入力装置で行われるラベル付加操作を受け付ける受付手段とを含み、前記行動識別手段から出力される行動情報が示す特徴,ラベルおよび時間を、前記ラベル付加操作に応じて、前記辞書DBおよび前記アノテーションDBに追加する、会話的追加手段を備える、行動識別システム。
A behavior identification system for identifying a subject's behavior based on sensor information from a sensor and time information from a clock,
A sensor DB that stores the sensor information and the time information;
Dictionary DB that stores dictionary information indicating features and labels for each action that can be performed by the subject,
The sensor information and the time information are input, a feature is extracted from the sensor information, a label corresponding to the feature is selected based on a comparison between the extracted feature and the dictionary DB, and a time corresponding to the extracted feature is determined. Action identification means for specifying the extracted time based on the time information and outputting action information indicating the extracted feature, the selected label and the specified time;
An annotation DB that accumulates the label and time indicated by the behavior information output from the behavior identification means as annotation information,
First display means for adding annotation information based on the annotation DB to the sensor data screen based on the sensor DB based on the time information and displaying the sensor data screen with annotation on a monitor; and
Second display means for converting the feature indicated by the action information output from the action identifying means into a vector, clustering each vector, and displaying a scatter diagram image showing the scatter state of each vector together with clustering information on the monitor And receiving means for receiving a label addition operation performed by an input device while referring to a scatter diagram image displayed on the monitor, and the feature, label, and time indicated by the action information output from the action identifying means, An action identification system comprising conversational addition means for adding to the dictionary DB and the annotation DB in accordance with the label addition operation.
前記会話的追加手段は、前記散布図画像に含まれるクラスタに関するラベル候補画像を前記モニタに表示する第表示手段をさらに含み、前記ラベル付加操作はさらに前記ラベル候補画像も参照しつつ行われる、請求項8記載の行動識別システム。 The conversational additional means further includes a third display means for displaying the label candidate image on the clusters included in the scatter diagram image on the monitor, the label application operation yet the label candidate image is also carried out with reference to, The behavior identification system according to claim 8. 前記第2表示手段はさらに、各前記クラスタについて時間的近接性の有無を判別し、当該判別結果が時間的近接性ありを示すクラスタをラベル付加候補としてハイライト表示する、請求項記載の行動識別システム。 9. The behavior according to claim 8 , wherein the second display means further determines the presence or absence of temporal proximity for each of the clusters, and highlights the cluster indicating that the determination result indicates temporal proximity as a label addition candidate. Identification system. ビデオカメラからのビデオ映像情報および前記時計と同期した第2時計からの時刻情報を蓄積したビデオDBをさらに備え、
前記第1表示手段は前記ビデオ映像情報および前記時刻情報に基づくビデオ映像を前記モニタにさらに表示し、前記外れ値削除操作および/または前記ラベル付加操作はさらに前記ビデオ映像も参照しつつ行われる、請求項1ないし10のいずれかに記載の行動識別システム。
A video DB that stores video image information from a video camera and time information from a second clock synchronized with the clock;
The first display means further displays a video image based on the video image information and the time information on the monitor, and the outlier deletion operation and / or the label addition operation is further performed with reference to the video image. The action identification system according to any one of claims 1 to 10.
JP2009078730A 2009-03-27 2009-03-27 Action identification system Active JP5544508B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009078730A JP5544508B2 (en) 2009-03-27 2009-03-27 Action identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009078730A JP5544508B2 (en) 2009-03-27 2009-03-27 Action identification system

Publications (2)

Publication Number Publication Date
JP2010227326A JP2010227326A (en) 2010-10-14
JP5544508B2 true JP5544508B2 (en) 2014-07-09

Family

ID=43043814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009078730A Active JP5544508B2 (en) 2009-03-27 2009-03-27 Action identification system

Country Status (1)

Country Link
JP (1) JP5544508B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6546456B2 (en) * 2015-06-19 2019-07-17 矢崎エナジーシステム株式会社 Traveling information analysis device and computer program
CN110088745B (en) * 2016-12-22 2023-08-08 日本电信电话株式会社 Data processing system and data processing method
JP6844562B2 (en) * 2018-03-13 2021-03-17 オムロン株式会社 Annotation method, annotation device, annotation program and identification system
CN108710965A (en) * 2018-04-17 2018-10-26 平安科技(深圳)有限公司 Prediction technique, device, computer equipment and the storage medium got a profit in short term
JP7370516B2 (en) * 2018-11-07 2023-10-30 株式会社テックコーポレーション hand washing monitoring system
US20220003655A1 (en) * 2018-11-16 2022-01-06 Sony Group Corporation Information processing apparatus, information processing method, and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000245713A (en) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd Behavior recognizing device
JP2003323502A (en) * 2002-05-07 2003-11-14 Casio Comput Co Ltd Action recording device and action recording program
JP2006092356A (en) * 2004-09-24 2006-04-06 Sanyo Electric Co Ltd Presumption system, presumption apparatus and sensing apparatus
JP2007093433A (en) * 2005-09-29 2007-04-12 Hitachi Ltd Detector for motion of pedestrian

Also Published As

Publication number Publication date
JP2010227326A (en) 2010-10-14

Similar Documents

Publication Publication Date Title
JP5544508B2 (en) Action identification system
Pirttikangas et al. Feature selection and activity recognition from wearable sensors
JP4752721B2 (en) Movement pattern identification device, movement pattern identification method, movement pattern identification program, and recording medium recording the same
JP5160818B2 (en) Business microscope system
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
WO2018159542A1 (en) Behavior recognition system and behavior recognition method
JP5219378B2 (en) Interaction data display device, processing device, and display method
US20080183525A1 (en) Business microscope system
CN110580489B (en) Data object classification system, method and equipment
EP3254619B1 (en) Mental state measurement system
JP6334767B1 (en) Information processing apparatus, program, and information processing method
Vitali et al. Acquisition of customer’s tailor measurements for 3D clothing design using virtual reality devices
JP2016112024A (en) Method for controlling information processing device and image processing method
US20210125518A1 (en) Skill evaluation device, skill evaluation method, and storage medium
KR20220062197A (en) Cognitive function assessment system and method of assessing cognitive funtion
CN106601217B (en) Interactive musical instrument playing method and device
EP3186737A1 (en) Method and apparatus for hierarchical data analysis based on mutual correlations
JP5775417B2 (en) User interface automatic analysis and evaluation system and user interface automatic analysis and evaluation method
CN108009620A (en) A kind of fortnightly holiday method of counting, system and device
JP2003058298A (en) Information classifying device, information classifying method, information classifying program and computer readable recording medium
JP6279635B2 (en) Program, information processing apparatus and information processing method
Chamaidi et al. IOHIVE: design requirements for a system that supports interactive journaling for beekeepers during apiary inspections
Fernández et al. ErgoExplorer: Interactive Ergonomic Risk Assessment from Video Collections
JP6722505B2 (en) Image control method, device, and program
CN107742070B (en) Method and system for motion recognition and privacy protection based on acceleration data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140409

R150 Certificate of patent or registration of utility model

Ref document number: 5544508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250