JP2011109563A - Device, method and program for checking work content - Google Patents

Device, method and program for checking work content Download PDF

Info

Publication number
JP2011109563A
JP2011109563A JP2009264660A JP2009264660A JP2011109563A JP 2011109563 A JP2011109563 A JP 2011109563A JP 2009264660 A JP2009264660 A JP 2009264660A JP 2009264660 A JP2009264660 A JP 2009264660A JP 2011109563 A JP2011109563 A JP 2011109563A
Authority
JP
Japan
Prior art keywords
work
distribution
work content
sensor data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009264660A
Other languages
Japanese (ja)
Inventor
Takafumi Watanabe
孝文 渡邉
Mori Kurokawa
茂莉 黒川
Hiroyuki Yokoyama
浩之 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009264660A priority Critical patent/JP2011109563A/en
Publication of JP2011109563A publication Critical patent/JP2011109563A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for recording conditions of a worker using a wearable sensor group mounted to the worker, and checking the record against a record obtained by inputting work contents in a day by the worker. <P>SOLUTION: This device for checking a work content retains a distribution of feature quantities corresponding to work contents of a person being checked, and is configured to input feature quantities of sensor data representing conditions of the person being checked, and input work contents and start and end times of the work of the person being checked, and checks whether the retained distribution of the feature quantities corresponding to the input work contents matches the distribution of the feature quantities of the sensor data in the period from the start to the end of the work. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、加速度センサ等を含むセンサ群を用いて作業者の作業内容を検定する装置、方法およびプログラムに関する。   The present invention relates to an apparatus, a method, and a program for verifying an operator's work content using a sensor group including an acceleration sensor and the like.

従来、マンション管理人や配達業者の作業状況を作業者の管理者が確認するには、各作業員が自身で入力する日報などを見る以外の手段は無い。これでは、作業員の作業状況を客観的に判断することができず、作業者が本来行うべき作業を行っていたかどうかを判断することができない。作業者の作業状態を管理することができれば作業手順、作業場所、作業者の配置など効率化を図ることなどが可能となり、作業者の作業状態を管理する手段が望まれている。   Conventionally, there is no means for a worker's manager to confirm the work status of an apartment manager or a delivery company other than viewing daily reports etc. that each worker inputs by himself / herself. In this case, it is impossible to objectively determine the work status of the worker, and it is not possible to determine whether or not the worker has performed the work that should be originally performed. If the worker's work state can be managed, it is possible to improve efficiency such as work procedure, work place, and worker arrangement, and a means for managing the worker's work state is desired.

これまでに、ウェアラブルセンサを利用して、人間の行動を識別する技術がある。具体的には、体の複数個所に加速度センサを固定し、加速度センサから得られるデータをある一定の時間幅(窓)で区切っていき、各窓の平均値、標準偏差、エネルギーなどを特徴量とし、それらに基づき学習を行い、推定を行っている。(例えば特許文献1,2参照)   Until now, there is a technology for identifying human behavior using a wearable sensor. Specifically, the acceleration sensor is fixed at multiple locations on the body, and the data obtained from the acceleration sensor is separated by a certain time width (window), and the average value, standard deviation, energy, etc. of each window are featured. Based on these, learning is performed and estimation is performed. (For example, see Patent Documents 1 and 2)

特許文献1では、携帯電話に搭載された3軸加速度センサ(X,Y,Z)を利用し被験者の行動(歩く、座る、立つ、乗り物に搭乗する)を識別している。具体的には、携帯電話装置から得られる運動加速度と、あらかじめ登録されている各行動の基準行動パターンと比較して、被験者の現在の行動の識別を行っている。   In Patent Literature 1, a subject's behavior (walking, sitting, standing, boarding a vehicle) is identified using a three-axis acceleration sensor (X, Y, Z) mounted on a mobile phone. Specifically, the current behavior of the subject is identified by comparing the motion acceleration obtained from the mobile phone device with a reference behavior pattern of each behavior registered in advance.

特許文献2では、被験者の行動を識別する前にまず被験者の姿勢を識別することを行っている。被験者の姿勢は、立位、座位、歩行の3状態と仮定して、姿勢の識別を行い、識別した姿勢の中で取り得る行動(例えば、立つ、エレベータの上り、エレベータの下り)を識別している。このとき、体の複数個所にセンサを設置しており、どのセンサがどの姿勢、行動を識別するのに有効であるかということを明らかにした上で、識別を行う際に利用するセンサを適切に選ぶことで識別率の向上を図っている。   In Patent Document 2, first, the posture of the subject is identified before identifying the behavior of the subject. The posture of the subject is assumed to be three states of standing, sitting, and walking. The posture is identified, and actions that can be taken in the identified posture (for example, standing, climbing the elevator, descending the elevator) are identified. ing. At this time, sensors are installed at multiple locations on the body, and it is clarified which sensor is effective for identifying which posture and action, and the sensor used for identification is appropriate. By selecting this, the identification rate is improved.

また、人間の移動状態の識別する技術もある。(例えば非特許文献1を参照)。
非特許文献1では、上記と同様に加速度センサから得られる時系列情報を窓で区切ることに加え、マイク、GPSの情報などを利用し、移動状態の推定を行っている。マイク、GPSなどを利用することで被験者の周囲の環境、位置情報を得ることができ、推定精度の向上を図っている。例えば、GPSの時系列の情報があれば、被験者の移動速度を算出することができ、被験者が電車、自動車、自転車、歩行しているのかの区別をすることができる。
There is also a technique for identifying a human movement state. (For example, refer nonpatent literature 1).
In Non-Patent Document 1, in addition to dividing time-series information obtained from an acceleration sensor with a window as described above, a moving state is estimated using information on a microphone and GPS. By using a microphone, GPS, or the like, the environment and position information around the subject can be obtained, and the estimation accuracy is improved. For example, if there is GPS time-series information, the moving speed of the subject can be calculated, and it can be distinguished whether the subject is traveling by train, automobile, bicycle, or walking.

特開2003−46630号公報JP 2003-46630 A 特開2009−39466号公報JP 2009-39466 A

“釈迦:携帯電話を用いたユーザ移動状態推定方式”小林亜令、岩本健嗣、西山智 情報処理学会論文誌 Vol50,No1 199-208(Jan 2009)"Shaka: User movement state estimation method using mobile phone" A. Kobayashi, Kengo Iwamoto, Satoshi Nishiyama IPSJ Journal Vol50, No1 199-208 (Jan 2009)

従来の技術では、上記で述べた通り加速度センサなどから得られるデータを数秒の窓で区切り、その窓の中の特徴量を抽出し、抽出した特徴量を基に行動の識別を行っている。したがって、ある行動を複数の窓に区切った場合に抽出される特徴量が同じであることを前提としていたり、各窓で区切られた時間の行動を識別しており、数秒間の行動を識別している。   In the conventional technology, as described above, data obtained from an acceleration sensor or the like is divided by a window of several seconds, a feature amount in the window is extracted, and an action is identified based on the extracted feature amount. Therefore, it is based on the premise that the extracted feature quantity is the same when a certain action is divided into multiple windows, or the action of the time divided by each window is identified, and the action for several seconds is identified. ing.

したがって、識別の対象としている行動は、周期の短い動作の繰り返しからなる行動を対象としている。例えば、歩く、走る、歯を磨くなどがある。歩く、走るなどの行動は、単純な動作であるためこれらの動作によって発生する加速度値には明確に特徴が現れ、各窓から抽出される特徴量が同じであり、識別の精度も高い。   Therefore, the behavior that is the object of identification is the behavior that consists of repeated operations with a short cycle. For example, walking, running, brushing teeth. Actions such as walking and running are simple actions, so that features clearly appear in the acceleration values generated by these actions, the feature quantities extracted from each window are the same, and the identification accuracy is high.

しかしながら、ある行動を行っている際に別の行動を行うような複雑な行動を識別の対象としているものは少なく、識別の精度は低い。   However, there are few things that are subject to identification of complex actions that perform another action when performing a certain action, and the accuracy of the identification is low.

例えば、マンションの清掃員が行う作業の窓拭きという作業の中には、窓を拭くという作業の他に、雑巾を絞る、雑巾を持って移動する、バケツの水を入れ替えるなど複数の行動が混在している。これら複雑な行動を識別することは難しい。   For example, in the work of wiping the window of the apartment cleaning work, in addition to the work of wiping the window, multiple actions such as squeezing the rag, moving with a rag, replacing the water in the bucket are mixed is doing. It is difficult to identify these complex behaviors.

しかしながら、ある行動に対してその行動を本当に行ったかどうかを検定することは可能である。例えば作業員が作成した日報に対して、日報に記載されている各作業に対して、その時間にその作業を行っていたかどうかの検定を行うといったものである。これは、作業内容を識別する必要はなく検定に特化したものである。   However, it is possible to test whether a certain action has actually been performed. For example, with respect to a daily report created by a worker, each work described in the daily report is verified whether or not the work was performed at that time. This does not require identification of the work content, but is specialized for testing.

作業内容の検定ができれば、作業者の虚偽を含む申告を発見することができ、業務の効率化を見込むことができる。   If the work contents can be verified, it is possible to find a declaration including the worker's falsehood, and to expect an increase in work efficiency.

そこで、本発明は、作業員に装着したウェアラブルセンサ群を利用して作業員の状態を記録し、その記録と作業員が一日の作業内容を入力した記録との検定を行う装置、プログラム及び方法を提供することを目的する。   Therefore, the present invention records a worker's state using a wearable sensor group attached to the worker, and an apparatus, a program, and a program for verifying the record and a record of the worker's daily work content input Aims to provide a method.

上記目的を実現するため本発明による作業内容検定装置は、被験者の状態を示すセンサデータの特徴量を入力する第1の入力手段と、前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力手段と、前記被験者の作業内容に対応する特徴量の分布を保持する保持手段と、前記保持手段から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定する手段とを備えている。   In order to achieve the above object, a work content verification apparatus according to the present invention inputs a first input means for inputting a feature amount of sensor data indicating a state of a subject, the work content of the subject, and a start / end time of the work. A second input means; a holding means for holding a distribution of feature values corresponding to the work content of the subject; a feature value distribution corresponding to the input work content from the holding means; Means for taking out a distribution of feature quantities in the time from the start to the end of the work from the feature quantities, and testing whether the distributions of both feature quantities match.

また、前記第1の入力手段は、前記被験者に装着され、前記センサデータを計測する1つまたは複数のセンサと、前記1つまたは複数のセンサから前記センサデータを収集する手段と、前記センサデータの特徴量を抽出する手段と、前記入力手段に前記特徴量を送信する手段とを備えたセンサデータ計測装置から、前記センサデータの特徴量を入力することも好ましい。   In addition, the first input means is one or more sensors that are attached to the subject and measures the sensor data, means for collecting the sensor data from the one or more sensors, and the sensor data It is also preferable to input the feature amount of the sensor data from a sensor data measuring device provided with means for extracting the feature amount of the sensor and means for transmitting the feature amount to the input means.

また、前記特徴量は、前記センサデータの所定の時間間隔における平均、分散またはエネルギーであることも好ましい。   The feature amount is preferably an average, variance, or energy of the sensor data in a predetermined time interval.

また、前記センサは、加速度センサ、地磁気センサ、ジャイロセンサ、気圧センサ、GPS、またはマイクであることも好ましい。   The sensor is preferably an acceleration sensor, a geomagnetic sensor, a gyro sensor, an atmospheric pressure sensor, a GPS, or a microphone.

上記目的を実現するため本発明による作業内容を検定する方法は、被験者の状態を示すセンサデータの特徴量を入力する第1の入力ステップと、前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力ステップと、前記被験者の作業内容に対応する特徴量の分布を保持する保持ステップと、前記保持された特徴量の分布から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定するステップとを有している。   In order to achieve the above object, a method for validating work content according to the present invention includes a first input step of inputting a feature amount of sensor data indicating the state of a subject, the work content of the subject, and the start / end time of the work. A second input step of inputting, a holding step of holding a distribution of feature values corresponding to the work content of the subject, and a distribution of feature values corresponding to the input work content from the held distribution of feature values And taking out the distribution of the feature quantity in the time from the start to the end of the work from the feature quantity of the sensor data, and testing whether the distribution of both feature quantities is suitable.

上記目的を実現するため本発明による作業内容を検定するプログラムは、被験者の状態を示すセンサデータの特徴量を入力する第1の入力手段と、前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力手段と、前記被験者の作業内容に対応する特徴量の分布を保持する保持手段と、前記保持手段から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定する手段としてコンピュータを機能させる。   In order to achieve the above object, a program for examining work contents according to the present invention comprises: first input means for inputting a feature amount of sensor data indicating a state of a subject; work contents of the subject; and start and end times of the work. A second input means for inputting; a holding means for holding a distribution of feature values corresponding to the work content of the subject; a feature value distribution corresponding to the input work content from the holding means; A feature distribution in the time from the start to the end of the work is taken out from the feature amount of the data, and the computer is made to function as a means for testing whether the distribution of both feature amounts matches.

本発明の装置、プログラム及び方法によれば,作業員の管理者は作業員の作業状況を客観的に判断することができ、作業員が本来行うべき作業を行っていたかどうかを判断することができ、作業員の業務効率化などが可能となる。   According to the apparatus, program, and method of the present invention, the manager of the worker can objectively determine the work status of the worker, and can determine whether the worker has performed the work that should be originally performed. It is possible to improve the work efficiency of workers.

本実施形態における作業内容を検定するシステムの動作概要を示す。The operation | movement outline | summary of the system which test | inspects the work content in this embodiment is shown. 本実施形態におけるセンサデータ計測装置の構成を示す。The structure of the sensor data measuring device in this embodiment is shown. 本実施形態における作業内容検定装置の構成を示す。The structure of the work content verification apparatus in this embodiment is shown. 清掃員の腰に固定した3軸加速度計で取得した加速度データの合成加速度データの分散の度数分布を各作業ごとに比較した結果を示す。The result of having compared the frequency distribution of the dispersion | distribution of the synthetic acceleration data of the acceleration data acquired with the triaxial accelerometer fixed to the cleaner's waist for every operation | work is shown.

本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は本実施形態における作業内容を検定するシステムの動作概要を示す。   The best mode for carrying out the present invention will be described in detail below with reference to the drawings. FIG. 1 shows an outline of the operation of a system for examining work contents in the present embodiment.

本実施形態によれば、作業内容を検定するシステムは、作業員が装着し作業員の作業内容の特徴量を抽出し、特徴量を送信するセンサデータ計測装置1と、作業員が一日以上の作業内容を入力し、入力した内容を所定のサーバに送信する機能を有する作業日報作成装置2と、各作業員のセンサデータと各作業員の作業日報を比較して、作業日報の申告内容を検定する作業内容検定装置3と、作業内容の問い合わせ、問い合わせ結果を表示する検定結果表示装置4を備えている。   According to the present embodiment, the system for validating work content includes a sensor data measuring apparatus 1 that is worn by a worker, extracts a feature amount of the work content of the worker, and transmits the feature amount. The daily work report preparation device 2 having a function of inputting the work content of the job and transmitting the input content to a predetermined server, the sensor data of each worker and the daily work report of each worker are compared, and the daily work report is reported And a verification result display device 4 for displaying an inquiry about the work content and an inquiry result.

図2は、本実施形態におけるセンサデータ計測装置の構成を示す。センサデータ計測装置1は携帯電話等に内蔵され、作業員が装着できる小型の機器である。センサデータ計測装置1は、加速度センサなどのウェアラブルセンサ群11と、ウェアラブルセンサ群が取得したセンサデータを保存する機能12と、センサデータからあらかじめ定めた特徴量を抽出し、その結果を保存する機能13と、所定のサーバに無線または有線で取得した特徴量を送信する機能14とを備えている。   FIG. 2 shows a configuration of the sensor data measuring device in the present embodiment. The sensor data measuring device 1 is a small device that is built in a mobile phone or the like and can be worn by a worker. The sensor data measuring device 1 includes a wearable sensor group 11 such as an acceleration sensor, a function 12 for storing sensor data acquired by the wearable sensor group, and a function for extracting a predetermined feature amount from the sensor data and storing the result. 13 and a function 14 for transmitting feature values acquired wirelessly or by wire to a predetermined server.

図3は、本実施形態における作業内容検定装置の構成を示す。作業内容検定装置3は、センサデータ計測装置1から特徴量を、作業日報作成装置2から作業日報を受信する機能31と、特徴量および作業日報を保存する機能32と、表示装置4からの問い合わせを受信し、問い合わせ結果を送受信する機能33と、予備実験等により事前に計測しておいた作業者の作業内容ごとの特徴量の分布を保持する機能34と、計測された特徴量の分布と作業日報の作業内容に対応する特徴量の分布とを比較して、作業日報の申告内容を検定する機能35とを備えている。   FIG. 3 shows the configuration of the work content verification apparatus in this embodiment. The work content verification device 3 has a function 31 for receiving feature amounts from the sensor data measuring device 1, a function 31 for receiving daily work reports from the daily work report creation device 2, a function 32 for storing feature amounts and daily work reports, and an inquiry from the display device 4. , The function 33 for transmitting and receiving the inquiry result, the function 34 for maintaining the distribution of the feature amount for each work content of the worker that has been measured in advance by a preliminary experiment, and the distribution of the measured feature amount A function 35 is provided for comparing the distribution of feature values corresponding to the work content of the daily work report and verifying the report content of the daily work report.

センサデータ計測装置1は以下のように動作する。センサデータ計測装置1は被験者の体に装着され、ウェアラブルセンサ群11から各センサデータが得られる。対象となるセンサは、加速度センサ、地磁気センサ、ジャイロセンサ、気圧センサ、GPS、マイクなどがある。各センサは、一度起動すれば自動的にデータの収集を定期的に行い、そのデータはセンサデータを記録するためのセンサデータ保存機能12に自動的に保存される。取得したセンサデータのサイズは大きいため、センサデータの特徴量(特徴量は以下で詳しく説明する)を抽出する。抽出後、抽出結果を特徴量抽出保存機能13に保存し、作業内容検定装置3に抽出結果を送信する。またこのとき、自動的に送信するのではなく、その結果を被験者がサーバに送信するものとしてもよい。この送信は、無線、有線で通信するだけでなく、被験者がメモリカード等の記録媒体に抽出結果を記録し、センサデータ計測装置1から作業内容検定装置3に送信することもできる。   The sensor data measuring device 1 operates as follows. The sensor data measuring device 1 is attached to the body of a subject, and each sensor data is obtained from the wearable sensor group 11. Examples of the target sensor include an acceleration sensor, a geomagnetic sensor, a gyro sensor, an atmospheric pressure sensor, a GPS, and a microphone. Each sensor automatically collects data periodically once activated, and the data is automatically stored in the sensor data storage function 12 for recording sensor data. Since the size of the acquired sensor data is large, the feature amount of the sensor data (the feature amount will be described in detail below) is extracted. After the extraction, the extraction result is stored in the feature amount extraction storage function 13 and the extraction result is transmitted to the work content verification device 3. At this time, instead of automatically transmitting, the result may be transmitted by the subject to the server. This transmission can be performed not only by wireless or wired communication, but also by the subject recording the extraction result on a recording medium such as a memory card and transmitting it from the sensor data measuring device 1 to the work content verification device 3.

センサデータの特徴量は以下のように抽出される。ウェアラブルセンサ群が測定した時系列のデータ(例えば、加速度データ)を一定時間のスライディング・ウィンドウ(窓)に分割し、そのウィンドウ毎に特徴量を求める。この窓は一定の時間間隔(窓時間)であり、ある一定の時間間隔(窓ずらし時間)でずらされる。なお、窓は重なり合っていても構わない。窓時間および窓ずらし時間は、予備実験を行い最適な時間を決定する。この窓内の測定データの平均値や分散値、エネルギーなどを特徴量として抽出する。なお、エネルギーは、窓内の測定データにFFT(高速フーリエ変換)を行い、振幅を2乗したものである。   The feature amount of the sensor data is extracted as follows. The time-series data (for example, acceleration data) measured by the wearable sensor group is divided into sliding windows (windows) for a predetermined time, and the feature amount is obtained for each window. This window has a certain time interval (window time) and is shifted at a certain time interval (window shifting time). Note that the windows may overlap. The window time and the window shifting time are determined by conducting a preliminary experiment. The average value, variance value, energy, etc. of the measurement data in this window are extracted as feature quantities. The energy is obtained by performing FFT (Fast Fourier Transform) on the measurement data in the window and squaring the amplitude.

なお、本発明が識別の対象としているのは、複数の作業が混在している作業であり単純な動作の繰り返しではない。したがって、加速度センサなどから得られるデータの特徴量として、各窓内での平均値や分散値、エネルギーなどの特徴量では識別性能の向上を図ることはできない。なぜなら、複数の作業が混在しているため各窓での平均値、分散値が同じ傾向を示すことは考えにくい。しかしながら、ある作業の開始から終了までの特徴量の分布は、作業によって似た傾向を示す可能性がある。   Note that what is identified in the present invention is an operation in which a plurality of operations are mixed, and is not a repetition of a simple operation. Therefore, the identification performance cannot be improved by using feature values such as an average value, a variance value, and energy in each window as feature values of data obtained from an acceleration sensor or the like. This is because it is unlikely that the average value and the variance value in each window show the same tendency because a plurality of operations are mixed. However, the distribution of feature values from the start to the end of a certain work may show a similar tendency depending on the work.

図4は、ある清掃員の腰に固定した3軸加速度計で取得した加速度データの合成加速度データの分散の度数分布を各作業ごとに比較した結果である。図4で比較している作業は、雑巾による窓拭き(図4a)、モップによる窓拭き(図4b)、雑巾による壁拭き(図4c)、テーブル等を雑巾で拭く物拭き(図4d)、掃除機掛け(図4e)、休憩(図4f)の計6つである。例えば、掃除機で掃除をすることによって生じる加速度データの分散の分布と休憩をすることによって生じる加速度データの分散の分布のデータは大きく異なる。これは、掃除機で掃除を行う際には、掃除機を掛けながら動き回るため、加速度の値の変化が大きくなり、分散値が大きくなり、分布が広がる傾向がある。一方休憩時のデータは、休憩時は動き回ることが少なく、加速度の値の変化が少ないため、分散値の分布は、値が大きいものに寄らない傾向にある。   FIG. 4 shows a result of comparing the frequency distribution of the dispersion of the combined acceleration data of the acceleration data acquired by the three-axis accelerometer fixed on the waist of a certain cleaning worker for each work. The operations being compared in FIG. 4 include window wiping with a rag (FIG. 4a), window wiping with a mop (FIG. 4b), wall wiping with a rag (FIG. 4c), object wiping with a rag (FIG. 4d), There are a total of six: vacuum cleaner (Fig. 4e) and break (Fig. 4f). For example, the distribution of the distribution of acceleration data generated by cleaning with a vacuum cleaner and the distribution of the distribution of acceleration data generated by taking a break are greatly different. This is because when the cleaner is used for cleaning, it moves around while the cleaner is applied, so that the change in the acceleration value increases, the variance value increases, and the distribution tends to spread. On the other hand, the data at the time of the break is less likely to move around at the time of the break, and the change in the acceleration value is small. Therefore, the distribution of the variance values tends not to be large.

作業日報作成装置2における作業日報入力は次のように行われる。各被験者は、一日の作業が終了した後、作業日報を作成するものとする。作業日報は、作業日報作成装置2(例えば、携帯端末もしくはPC)などで行い、作業日報の入力結果は自動的に作業内容検定装置3に送信される。このとき作業日報に入力する内容としては、
1.作業者名(または、作業者にユニークなID)
2.作業開始時刻
3.作業終了時刻
4.作業内容
5.作業場所
などが必要となる。2から5は、作業内容毎に入力される。
The daily work report input in the daily work report creation apparatus 2 is performed as follows. Each subject prepares a daily work report after the work of one day is completed. The daily work report is performed by the daily work report creation apparatus 2 (for example, a portable terminal or a PC), and the input result of the daily work report is automatically transmitted to the work content verification apparatus 3. The contents to be entered in the daily work report at this time are:
1. Worker name (or unique ID for the worker)
2. 2. Work start time Work end time Work content 5. A work place is required. 2 to 5 are input for each work content.

作業内容検定装置3が上記で述べた特徴量を用いて、作業日報に入力された作業内容と取得したセンサデータから得られた結果の検定を行う方法について述べる。まず、作業日報に入力された作業内容について、各作業内容ごとに特徴量の分布(シンボル)を事前に用意する。このシンボルは、作業内容ごとに複数存在してよい。また、シンボルは予備実験を行い、ここで得られたデータから作成する。このシンボルは、作業員のデータが蓄積されるごとに更新することもできる。この場合、検定の精度が向上する。   A method will be described in which the work content verification device 3 uses the feature values described above to verify the work content input in the daily work report and the results obtained from the acquired sensor data. First, for the work content input in the daily work report, a feature amount distribution (symbol) is prepared in advance for each work content. There may be a plurality of symbols for each work content. Symbols are created from the data obtained through preliminary experiments. This symbol can be updated each time worker data is accumulated. In this case, the accuracy of the test is improved.

作業内容検定装置3は、センサデータ計測装置1が送信してきたセンサデータの特徴量を上記作業日報の入力で入力された作業開始時刻、作業終了時刻を利用して分割する。この分割したセンサデータの特徴量の分布と、上記シンボルとの適合度を検定の指標とする。この検定は例えばカイ2乗検定など既存の手法で行われる。   The work content verification device 3 divides the feature amount of the sensor data transmitted from the sensor data measuring device 1 by using the work start time and the work end time input by inputting the daily work report. The degree of matching between the distribution of the feature quantity of the divided sensor data and the symbol is used as an index for the test. This test is performed by an existing method such as a chi-square test.

例えば、作業日報の10:00〜10:30に「雑巾による窓拭き」と記載されていた場合は、10:00〜10:30のセンサデータの特徴量の分布と、「雑巾による窓拭き」に対応するシンボルとの適合度を検定の指標となる。これによって、作業者が実際に雑巾による窓拭きを行っていたかどうか検定することができる。   For example, in the case of 10: 00-10: 30 in the daily work report, “wiping the window with a rag” is described, the distribution of sensor data feature values from 10:00 to 10:30, and “wiping the window with a rag” The degree of fit with the symbol corresponding to is used as an index for the test. In this way, it can be verified whether the operator has actually wiped the window with a rag.

検定結果は、作業者の管理者が確認できる。管理者は、管理している作業員の日報に記された作業内容ごとに、検定結果表示装置4から作業内容検定装置3に問い合わせることにより検定結果を確認することができる。また、検定結果は作業内容検定装置3が自動的に所定の検定結果表示装置4に送ることもできる。管理者は作業内容表示装置3を利用することで、各作業員の作業状況を管理することができる。   The operator's manager can confirm the test result. The manager can confirm the test result by inquiring from the test result display device 4 to the work content test device 3 for each work content recorded in the daily report of the worker being managed. Further, the test result can be automatically sent to the predetermined test result display device 4 by the work content verification device 3. An administrator can manage the work status of each worker by using the work content display device 3.

また、以上述べた実施形態は全て本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。従って本発明の範囲は特許請求の範囲およびその均等範囲によってのみ規定されるものである。   Moreover, all the embodiments described above are illustrative of the present invention and are not intended to limit the present invention, and the present invention can be implemented in other various modifications and changes. Therefore, the scope of the present invention is defined only by the claims and their equivalents.

1 センサデータ計測装置
2 作業日報作成装置
3 作業内容検定装置
4 検定結果表示装置
11 ウェアラブルセンサ群
12 センサデータ保存機能
13 特徴量抽出保存機能
14 特徴量送信機能
31 特徴量および作業日報受信機能
32 特徴量および作業日報保存機能
33 問い合わせ送受信機能
34 特徴量分布保持手段
35 検定機能
DESCRIPTION OF SYMBOLS 1 Sensor data measuring device 2 Work daily report production apparatus 3 Work content verification apparatus 4 Test result display apparatus 11 Wearable sensor group 12 Sensor data storage function 13 Feature quantity extraction storage function 14 Feature quantity transmission function 31 Feature quantity and daily work report reception function 32 Feature Quantity and daily work storage function 33 Inquiry transmission / reception function 34 Feature quantity distribution holding means 35 Verification function

Claims (6)

被験者の状態を示すセンサデータの特徴量を入力する第1の入力手段と、
前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力手段と、
前記被験者の作業内容に対応する特徴量の分布を保持する保持手段と、
前記保持手段から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定する手段と、
を備えていることを特徴とする作業内容検定装置。
First input means for inputting a feature amount of sensor data indicating the state of the subject;
Second input means for inputting the work content of the subject and the start / end time of the work;
Holding means for holding a distribution of feature values corresponding to the work content of the subject;
The distribution of feature amounts corresponding to the input work content is extracted from the holding unit, the distribution of feature amounts in the time from the start to the end of the operation is extracted from the feature amount of the sensor data, and the distribution of both feature amounts is A means of testing for conformity;
A work content verification device characterized by comprising:
前記第1の入力手段は、
前記被験者に装着され、前記センサデータを計測する1つまたは複数のセンサと、
前記1つまたは複数のセンサから前記センサデータを収集する手段と、
前記センサデータの特徴量を抽出する手段と、
前記入力手段に前記特徴量を送信する手段と、
を備えたセンサデータ計測装置から、前記センサデータの特徴量を入力することを特徴とする請求項1に記載の作業内容検定装置。
The first input means includes
One or more sensors mounted on the subject and measuring the sensor data;
Means for collecting the sensor data from the one or more sensors;
Means for extracting feature quantities of the sensor data;
Means for transmitting the feature quantity to the input means;
The work content verification device according to claim 1, wherein a feature amount of the sensor data is input from a sensor data measuring device comprising:
前記特徴量は、前記センサデータの所定の時間間隔における平均、分散またはエネルギーであることを特徴とする請求項1または2に記載の作業内容検定装置。   The work content verification apparatus according to claim 1, wherein the feature amount is an average, variance, or energy of the sensor data at a predetermined time interval. 前記センサは、加速度センサ、地磁気センサ、ジャイロセンサ、気圧センサ、GPS、またはマイクであることを特徴とする請求項1から3のいずれか1項に記載の作業内容検定装置。   The work content verification device according to claim 1, wherein the sensor is an acceleration sensor, a geomagnetic sensor, a gyro sensor, an atmospheric pressure sensor, a GPS, or a microphone. 被験者の状態を示すセンサデータの特徴量を入力する第1の入力ステップと、
前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力ステップと、
前記被験者の作業内容に対応する特徴量の分布を保持する保持ステップと、
前記保持された特徴量の分布から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定するステップと、
を有していることを特徴とする作業内容を検定する方法。
A first input step for inputting a feature amount of sensor data indicating the state of the subject;
A second input step of inputting the work content of the subject and the start / end time of the work;
A holding step for holding a distribution of feature values corresponding to the work content of the subject;
A feature amount distribution corresponding to the input work content is extracted from the held feature amount distribution, a feature amount distribution in the time from the start to the end of the operation is extracted from the feature amount of the sensor data, and both Testing whether the distribution of features is compatible;
A method for validating work contents characterized by having
被験者の状態を示すセンサデータの特徴量を入力する第1の入力手段と、
前記被験者の作業内容および該作業の開始終了時刻を入力する第2の入力手段と、
前記被験者の作業内容に対応する特徴量の分布を保持する保持手段と、
前記保持手段から前記入力された作業内容に対応する特徴量の分布を取り出し、前記センサデータの特徴量から前記作業の開始から終了までの時間における特徴量の分布を取り出し、両特徴量の分布が適合するかどうかを検定する手段と、
してコンピュータを機能させることを特徴とする作業内容を検定するプログラム。
First input means for inputting a feature amount of sensor data indicating the state of the subject;
Second input means for inputting the work content of the subject and the start / end time of the work;
Holding means for holding a distribution of feature values corresponding to the work content of the subject;
The distribution of feature amounts corresponding to the input work content is extracted from the holding unit, the distribution of feature amounts in the time from the start to the end of the operation is extracted from the feature amount of the sensor data, and the distribution of both feature amounts is A means of testing for conformity;
A program that verifies work content, which is characterized by making a computer function.
JP2009264660A 2009-11-20 2009-11-20 Device, method and program for checking work content Withdrawn JP2011109563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009264660A JP2011109563A (en) 2009-11-20 2009-11-20 Device, method and program for checking work content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009264660A JP2011109563A (en) 2009-11-20 2009-11-20 Device, method and program for checking work content

Publications (1)

Publication Number Publication Date
JP2011109563A true JP2011109563A (en) 2011-06-02

Family

ID=44232533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009264660A Withdrawn JP2011109563A (en) 2009-11-20 2009-11-20 Device, method and program for checking work content

Country Status (1)

Country Link
JP (1) JP2011109563A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013044317A (en) * 2011-08-26 2013-03-04 Kajima Corp Method and system for determining idling of heavy machine
JP2013081150A (en) * 2011-09-22 2013-05-02 Nippon Television Holdings Inc Transmitting station identification device, transmitting station identification method, and program
JP2014071823A (en) * 2012-10-01 2014-04-21 Fujitsu Ltd Information input device, specific frequency extraction method, and specific frequency extraction program
JP2015522310A (en) * 2012-05-14 2015-08-06 2—オブザーブ エス.エー. Respiratory motion detection device and detection method
JP2015191529A (en) * 2014-03-28 2015-11-02 セコム株式会社 Operation support system, operation support terminal, and operation support method
JP2017032443A (en) * 2015-08-03 2017-02-09 一般財団法人電力中央研究所 Identification method, identification device and identification program for action of person

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013044317A (en) * 2011-08-26 2013-03-04 Kajima Corp Method and system for determining idling of heavy machine
JP2013081150A (en) * 2011-09-22 2013-05-02 Nippon Television Holdings Inc Transmitting station identification device, transmitting station identification method, and program
JP2015522310A (en) * 2012-05-14 2015-08-06 2—オブザーブ エス.エー. Respiratory motion detection device and detection method
JP2014071823A (en) * 2012-10-01 2014-04-21 Fujitsu Ltd Information input device, specific frequency extraction method, and specific frequency extraction program
JP2015191529A (en) * 2014-03-28 2015-11-02 セコム株式会社 Operation support system, operation support terminal, and operation support method
JP2017032443A (en) * 2015-08-03 2017-02-09 一般財団法人電力中央研究所 Identification method, identification device and identification program for action of person

Similar Documents

Publication Publication Date Title
JP2011109563A (en) Device, method and program for checking work content
CN104679969B (en) Prevent the method and device of customer churn
KR101827885B1 (en) Apparatus and Method for measuring user`s action using mobile terminal
US20190041423A1 (en) Methods and systems for pattern-based identification of a driver of a vehicle
AU2014203709B2 (en) System and method for detecting anomaly associated with driving of a vehicle
JP5953673B2 (en) Action identification device, action identification method, and program
CN103793042B (en) A kind of system and method body motion information interaction and shown
JP2010540127A5 (en)
CN105824735B (en) A kind of mobile terminal falls processing method and mobile terminal
BR112015022640B1 (en) Method and system for telematic control and communications
KR20130138321A (en) Systems, methods, and apparatuses for classifying user activity using combining of likelihood function values in a mobile device
EP3104944A1 (en) Automatic recognition, learning, monitoring, and management of human physical activities
US20200223377A1 (en) Using data collected by a personal electronic device to identify a vehicle
CN103425577B (en) A kind of test method and device
CN108109336A (en) A kind of human body tumble recognition methods based on acceleration transducer
Ketabdar et al. System and methodology for using mobile phones in live remote monitoring of physical activities
CN105588577A (en) Detection method and detection apparatus for abnormal step counting in exercise monitoring device
CN104063914A (en) Terminal achieving driving risk management and use method thereof
CN102333091A (en) Data security authentication method based on cloud computing
JP6778893B2 (en) Information terminal device control method, body motion measuring device, and program
CN106445096B (en) Detection method for vollyball function
JP6285467B2 (en) Maintenance operation support system, maintenance operation support method, maintenance operation support program
TWI532618B (en) System and method of collecting abnormal point of road surface
KR20230064514A (en) System and method for checking status of construction site worker
CN209373424U (en) A kind of OBD equipment and system based on the NB-IoT communication technology

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205