JP2006157463A - Work state recorder, and its recording method, and recording program - Google Patents

Work state recorder, and its recording method, and recording program Download PDF

Info

Publication number
JP2006157463A
JP2006157463A JP2004344998A JP2004344998A JP2006157463A JP 2006157463 A JP2006157463 A JP 2006157463A JP 2004344998 A JP2004344998 A JP 2004344998A JP 2004344998 A JP2004344998 A JP 2004344998A JP 2006157463 A JP2006157463 A JP 2006157463A
Authority
JP
Japan
Prior art keywords
work
correlation peak
data
posture
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004344998A
Other languages
Japanese (ja)
Other versions
JP4474529B2 (en
Inventor
Katsunori Matsuoka
克典 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2004344998A priority Critical patent/JP4474529B2/en
Publication of JP2006157463A publication Critical patent/JP2006157463A/en
Application granted granted Critical
Publication of JP4474529B2 publication Critical patent/JP4474529B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a work state recorder capable of automatically recording a work outline as time series information of work actions, and its recording method and recording program. <P>SOLUTION: This work state recorder includes an imaging means (1) to be attached to a human body; a first data collecting means (2) for collecting a video signal outputted from the imaging means (1) as image frame data; and a processing means (3), wherein the processing means (3) calculates a correlation peak value and a correlation peak position between two continuously collected pieces of image frame data in a first period, judges a gazing state in accordance with the correlation peak value and the correlation peak position in the first period and calculates a visual direction stationary time when the gazing state is maintained, and judges a work posture on the basis of information from an acceleration sensor attached to the human body and automatically records work actions by combining the visual direction stationary time and the work posture. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、作業者に装着した小型カメラ及び加速度センサからの情報を用い、作業状況を自動的に記録することができる作業状況記録装置、その記録方法及び記録プログラムに関する。   The present invention relates to a work situation recording apparatus capable of automatically recording a work situation using information from a small camera and an acceleration sensor attached to an operator, a recording method thereof, and a recording program.

石油精製プラント等の正常な運転には、フィールドオペレータの巡視点検作業が重要な役割を果たしている。熟練オペレータは、石油精製プラント機器の運転状況だけでなく、気象条件、臭い、音などの装置以外の要素も総合的に関連付けて異常の予兆の発見を行っており、このような作業マニュアルには表われないノウハウが重要である。   A field operator's inspection work plays an important role in the normal operation of an oil refinery plant or the like. Skilled operators discover not only the operating status of oil refinery plant equipment but also factors other than equipment such as weather conditions, odors, and sounds in an integrated manner, and such work manuals are used to find signs of abnormalities. Know-how that cannot be expressed is important.

しかし、こうしたノウハウは長年の経験によるものであり、経験の浅い作業者は持ち得ないものであり、そのノウハウを習得するには長い年月がかかる。従って、保守・点検作業のノウハウの蓄積及び伝承が要望されている。   However, such know-how is based on many years of experience, and inexperienced workers cannot have it, and it takes a long time to acquire that know-how. Accordingly, there is a demand for accumulation and transmission of know-how on maintenance and inspection work.

多くの場合、保守・点検作業ノウハウの蓄積のために、作業者の作業内容を記録するために、実際の熟練者の保守・点検作業に観察者が同行し、作業内容を記述によって記録することや、作業をビデオカメラで撮像して映像として記録し、同時に随伴する人がポイントを記録することなどが行われている。   In many cases, in order to record maintenance work and maintenance work know-how, the observer must accompany the actual skilled maintenance and inspection work to record the work contents of the worker and record the work contents as a description. In addition, the work is imaged with a video camera and recorded as an image, and the accompanying person records the points.

また、下記特許文献1には、保守作業において作業者が使用するカメラや位置姿勢センサなどを用いて作業や設備の記録を行うフィールド情報取得呈示装置が開示されている。
特開2000−353179号公報
Patent Document 1 below discloses a field information acquisition and presentation device that records work and facilities using a camera, a position and orientation sensor, and the like used by a worker in maintenance work.
JP 2000-353179 A

しかし、上記したように保守・点検作業を記録したビデオ映像からノウハウを抽出するには、記録したビデオ映像を再び目視で確認することが必要であり、また、記録されたポイントと対応させて検証したり、適宜熟練者から聞き取り調査を行うことなどが必要であり、長時間を要する問題がある。   However, in order to extract know-how from video images recorded for maintenance / inspection work as described above, it is necessary to visually check the recorded video images again, and verify them in correspondence with the recorded points. It is necessary to conduct interviews and surveys from experts as appropriate, and there is a problem that takes a long time.

また、作業記録のためには第三者が必要であり、余分な人員を必要とすることから常時記録は困難であった。   In addition, a third party is required to record the work, and extra personnel are required, so it is difficult to always record.

また、従来方法で記録された作業記録から、作業時姿勢や注視時間あるいは作業内容で記録情報を検索するためには、人手による作業記録を改めて解析し、検索項目に対応する情報を記録情報に付加する必要があった.
本発明の目的は、上記の課題を解決すべく、カメラからの映像情報を用いて作業者が見ている方向の変化を自動検知し、身体加速度情報から作業中の姿勢を自動検知することを可能にし、それらの情報を統合して、作業概要を作業行為の時系列情報として自動記録することができる作業状況記録装置、その記録方法及び記録プログラムを提供することにある。
In addition, in order to retrieve the record information from the work record recorded by the conventional method by the work posture, the gaze time, or the work content, the manual work record is analyzed again, and the information corresponding to the retrieval item is recorded as the record information. It was necessary to add.
An object of the present invention is to automatically detect a change in the direction in which a worker is looking using video information from a camera and automatically detect a posture during work from body acceleration information in order to solve the above-described problems. It is an object of the present invention to provide a work status recording apparatus, a recording method thereof, and a recording program capable of integrating such information and automatically recording a work summary as time series information of work actions.

本発明の目的は、以下の手段によって達成される。   The object of the present invention is achieved by the following means.

即ち、本発明に係る作業状況記録装置は、身体に装着される撮像手段と、該撮像手段か
ら出力される映像信号を画像フレームデータとして採取する第1データ採取手段と、処理手段とを備え、前記処理手段が、第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算し、前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定し、前記注視状態が維持されている視方向停留時間を求め、前記注視状態に対応する注視度及び前記視方向停留時間を記録することを特徴としている。
That is, the work status recording apparatus according to the present invention includes an imaging unit worn on the body, a first data collection unit that collects a video signal output from the imaging unit as image frame data, and a processing unit. The processing means calculates a correlation peak value and a correlation peak position of two image frame data collected in succession in the first period, and calculates the correlation peak value and the correlation peak position in the first period. Accordingly, the gaze state is determined, the viewing direction stop time during which the gaze state is maintained is obtained, and the gaze degree and the viewing direction stop time corresponding to the gaze state are recorded.

また、上記作業状況記録装置において、前記処理部が、前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求め、該最大値に対応する画像フレームデータを決定し、注視状態が維持されている期間の作業内容を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録することができる。   In the work status recording apparatus, the processing unit obtains a maximum value of the correlation peak value corresponding to a period during which the gaze state is maintained, determines image frame data corresponding to the maximum value, and gazes The image frame data or information for specifying the image frame data can be recorded as image information representative of work contents during the period in which the state is maintained.

また、上記作業状況記録装置において、前記身体に装着される3軸加速度センサと、該3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第2データ採取手段とをさらに備え、前記処理手段が、連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算し、前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、前記身体の姿勢を表す姿勢指標を記録することがきる。   The work status recording apparatus further includes a triaxial acceleration sensor attached to the body, and second data collection means for collecting acceleration vector data output from the triaxial acceleration sensor at a predetermined sampling interval. The processing means calculates an absolute value of each acceleration vector, an average value of these absolute values, and a standard deviation with respect to a predetermined number of the acceleration vector data collected continuously, and calculates the standard deviation and the absolute value. Can determine the posture of the body according to the number of times that exceeds the average value and the sum of the time when the absolute value exceeds the average value, and record the posture index representing the posture of the body.

また、上記作業状況記録装置において、前記処理手段が、前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算し、重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、該角度を身体の傾斜角度として、前記姿勢指標を決定することができる。   Further, in the work status recording apparatus, the processing means calculates an average acceleration vector of the predetermined number of the acceleration vector data, calculates an angle of the average acceleration vector with respect to a gravitational acceleration direction, and calculates the angle as a body inclination. The attitude index can be determined as an angle.

また、上記作業状況記録装置において、前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、該作業行為を表す情報を、時刻情報と対応させて記録することができる。   In the work situation recording apparatus, a work action representing a work situation can be determined according to the gaze degree and the posture index, and information representing the work action can be recorded in association with time information.

また、本発明に係る作業状況記録方法は、身体に装着される撮像手段から出力される映像信号を画像フレームデータとして採取する第1ステップと、第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算する第2ステップと、前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定する第3ステップと、前記注視状態が維持されている視方向停留時間を求める第4ステップと、前記注視状態に対応する注視度及び前記視方向停留時間を記録する第5ステップとを含むことを特徴としている。   Further, the work status recording method according to the present invention includes a first step of collecting a video signal output from an imaging means attached to the body as image frame data, and 2 continuously acquired in the first period. A second step of calculating a correlation peak value and a correlation peak position of the two image frame data, a third step of determining a gaze state according to the correlation peak value and the correlation peak position in the first period, It includes a fourth step for obtaining a viewing direction stop time in which the gaze state is maintained, and a fifth step for recording a gaze degree corresponding to the gaze state and the viewing direction stop time.

また、上記の作業状況記録方法において、前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求める第6ステップと、該最大値に対応する画像フレームデータを決定し、注視状態が維持されている期間を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録する第7ステップとをさらに含むことができる。   Further, in the above work status recording method, a sixth step for obtaining a maximum value of the correlation peak value corresponding to a period during which the gaze state is maintained, determining image frame data corresponding to the maximum value, and gaze A seventh step of recording the image frame data or information specifying the image frame data as image information representative of the period during which the state is maintained can be further included.

また、上記の作業状況記録方法において、前記身体に装着される3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第8ステップと、連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算する第9ステップと、前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、該姿勢を表す姿勢指標を記録する第10ス
テップとをさらに含むことができる。
In the work status recording method, an eighth step of collecting acceleration vector data output from the three-axis acceleration sensor attached to the body at a predetermined sampling interval, and a predetermined number of the continuously collected 9th step of calculating the absolute value of each acceleration vector, the average value of these absolute values, and the standard deviation with respect to the acceleration vector data, the standard deviation, the number of times the absolute value exceeds the average value, and the absolute value And a tenth step of determining the posture of the body according to the sum of the times when the average value exceeds the average value, and recording a posture index representing the posture.

また、上記の作業状況記録方法において、前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算する第11ステップと、重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、該角度を身体の傾斜角度として、前記姿勢指標を決定する第12ステップとを含むことができる。   Further, in the above work status recording method, an eleventh step of calculating an average acceleration vector of the predetermined number of the acceleration vector data, calculating an angle of the average acceleration vector with respect to a gravitational acceleration direction, and calculating the angle as an inclination of the body The angle may include a twelfth step of determining the posture index.

また、上記の作業状況記録方法において、前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、該作業行為を表す情報を、時刻情報と対応させて記録する第13ステップをさらに含むことができる。   Further, in the above work status recording method, a thirteenth step of determining a work action representing the work situation according to the gaze degree and the posture index and recording the information representing the work action in correspondence with the time information. Can further be included.

また、本発明に係る作業状況記録プログラムは、身体に装着される撮像手段と、第1データ採取手段と、処理手段とを備える作業状況記録装置に、前記第1データ採取手段を用いて、前記撮像手段から出力される映像信号を画像フレームデータとして採取する第1機能と、第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算する第2機能と、前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定する第3機能と、前記注視状態が維持されている視方向停留時間を求める第4機能と、前記注視状態に対応する注視度及び前記視方向停留時間を記録する第5機能と実現させることを特徴としている。   In addition, the work situation recording program according to the present invention provides a work situation recording apparatus including an imaging unit, a first data collection unit, and a processing unit to be worn on the body, using the first data collection unit. A first function for collecting a video signal output from the imaging means as image frame data; and a first function for calculating a correlation peak value and a correlation peak position of two pieces of the image frame data collected successively in the first period. A third function for determining a gaze state according to the correlation peak value and the correlation peak position in the first period, and a fourth function for obtaining a viewing direction stop time during which the gaze state is maintained, The fifth function of recording the gaze degree corresponding to the gaze state and the viewing direction stop time is realized.

また、上記の作業状況記録プログラムにおいて、前記作業状況記録装置に、前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求める第6機能と、該最大値に対応する画像フレームデータを決定し、注視状態が維持されている期間を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録する第7機能とをさらに実現させることができる。   In the work status recording program, a sixth function for obtaining a maximum value of the correlation peak value corresponding to a period during which the gaze state is maintained in the work status recording device, and an image corresponding to the maximum value. The seventh function of determining the frame data and recording the image frame data or the information specifying the image frame data as the image information representing the period in which the gaze state is maintained can be further realized.

また、上記の作業状況記録プログラムにおいて、前記身体に装着される3軸加速度センサと、第2データ採取手段とをさらに備える前記作業状況記録装置に、前記第2データ採取手段を用いて、前記3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第8機能と、連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算する第9機能と、前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、該姿勢を表す姿勢指標を記録する第10機能とをさらに実現させることができる。   In the work status recording program, the work status recording apparatus further comprising a triaxial acceleration sensor to be worn on the body and a second data collection unit, the second data collection unit, and the 3 The eighth function of collecting acceleration vector data output from the axial acceleration sensor at a predetermined sampling interval, and the absolute value of each acceleration vector, and the absolute value According to the ninth function for calculating an average value and a standard deviation, the standard deviation, the number of times that the absolute value exceeds the average value, and the total time when the absolute value exceeds the average value, the body And a tenth function for recording a posture index representing the posture can be further realized.

また、上記の作業状況記録プログラムにおいて、前記作業状況記録装置に、前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算する第11機能と、重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、該角度を身体の傾斜角度として、前記姿勢指標を決定する第12機能とをさらに実現させることができる。   In the work status recording program, the work status recording apparatus calculates an eleventh function for calculating an average acceleration vector of the predetermined number of the acceleration vector data, and calculates an angle of the average acceleration vector with respect to a gravitational acceleration direction. The twelfth function for determining the posture index can be further realized using the angle as the body inclination angle.

また、上記の作業状況記録プログラムにおいて、前記作業状況記録装置に、前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、該作業行為を表す情報を、時刻情報と対応させて記録する第13機能さらに実現させるこができる。   Further, in the above work status recording program, the work status recording device determines a work action representing the work situation according to the gaze degree and the posture index, and the information representing the work action corresponds to the time information. Thus, the thirteenth function for recording can be further realized.

本発明によれば、カメラから採取される映像データから、作業者が見ている方向の変化(視線方向停留情報)を自動的に検出することができ、注視している期間の代表画像を自動的に決定することができる。   According to the present invention, it is possible to automatically detect a change in the direction in which the operator is looking (gaze direction stop information) from video data collected from a camera, and automatically display a representative image during the period of gaze. Can be determined.

また、加速度センサから採取される身体加速度データから、作業者の姿勢情報を自動的
に検出することができる。
Further, the posture information of the worker can be automatically detected from the body acceleration data collected from the acceleration sensor.

さらに、それらの情報(視線方向停留情報及び姿勢情報)を組み合わせることによって、作業概要を表す作業行為を時系列に自動蓄積することが可能となる。   Furthermore, by combining these pieces of information (line-of-sight direction stop information and posture information), it is possible to automatically accumulate work actions representing work outlines in time series.

また、従来は人手によらなければならなかった作業記録解析を自動化することができ、自動蓄積された作業情報を、作業行為、作業者の身体姿勢、作業者の注視時間などの情報として、検索することが可能になる。   In addition, it is possible to automate work record analysis that had to be done manually, and search automatically stored work information as information such as work actions, worker's body posture, worker's gaze time, etc. It becomes possible to do.

以下、本発明に係る実施の形態を、添付した図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the accompanying drawings.

第1図は、本発明の実施の形態に係る作業状況記録装置の概略構成を示すブロック図である。本実施の形態に係る作業状況記録装置は、人体に装着される撮像部1と、撮像部1のアナログ出力信号を所定の時間間隔でサンプリングし、ディジタル映像信号として出力する第1データ採取部2と、人体に装着される3軸加速度センサ(以下、加速度センサと
記す)6と、加速度センサ6のアナログ出力信号を所定の時間間隔でサンプリングし、A
/D変換してディジタル信号として出力する第2データ採取部7と、第1データ採取部2及び第2データ採取部7からのディジタル信号を記録する記録部3と、メモリ部4と、これら各部を制御する処理部5とを備えている。
FIG. 1 is a block diagram showing a schematic configuration of a work status recording apparatus according to an embodiment of the present invention. The work status recording apparatus according to the present embodiment includes an imaging unit 1 mounted on a human body, and a first data sampling unit 2 that samples an analog output signal of the imaging unit 1 at a predetermined time interval and outputs the sampled digital video signal. And a three-axis acceleration sensor (hereinafter referred to as an acceleration sensor) 6 to be worn on the human body, and an analog output signal of the acceleration sensor 6 are sampled at predetermined time intervals.
Second data sampling unit 7 that performs D / D conversion and outputs as a digital signal, recording unit 3 that records digital signals from first data sampling unit 2 and second data sampling unit 7, memory unit 4, and each of these units And a processing unit 5 for controlling the above.

撮像部1は、例えば小型のCCDカメラなどであり、ヘルメットに取り付けられており、そのヘルメットをかぶった人の視線方向の映像を撮像する。第1データ採取部2は、処理部5の制御を受けて、撮像部1から出力される映像信号を所定のサンプリング間隔で採取し、ディジタルデータ(フレーム単位の画像データ)として採取した順に出力する。このディジタルデータは、時系列に記録部3に記録される。   The imaging unit 1 is, for example, a small CCD camera or the like, and is attached to a helmet, and captures an image in the line of sight of a person wearing the helmet. Under the control of the processing unit 5, the first data collection unit 2 collects video signals output from the imaging unit 1 at predetermined sampling intervals and outputs them as digital data (frame unit image data) in the order of collection. . This digital data is recorded in the recording unit 3 in time series.

一方、加速度センサ6は、例えば人体の腰部に取り付けられ、外力を受けた場合、予め加速度センサ6に設定された直交する3軸(X軸、Y軸、Z軸)の各方向の加速度に応じた3つのアナログ信号を出力する。第2データ採取部7は、処理部5の制御を受けて、加速度センサ6から出力される3つのアナログ信号を所定のサンプリング間隔Δtで採取し、ディジタル加速度データとして採取した順に出力する。これらのディジタル加速度データは、時系列のベクトルデータとして記録部3に記録される。   On the other hand, the acceleration sensor 6 is attached to, for example, the lower back of a human body and receives external force according to accelerations in three orthogonal directions (X axis, Y axis, Z axis) set in advance in the acceleration sensor 6. Three analog signals are output. Under the control of the processing unit 5, the second data collection unit 7 collects three analog signals output from the acceleration sensor 6 at a predetermined sampling interval Δt and outputs them as digital acceleration data in the order of collection. These digital acceleration data are recorded in the recording unit 3 as time-series vector data.

処理部5は、各部の制御に加えて、記録部3に記録された画像データ及び加速度データを対象とし、メモリ部4をワーク領域として使用して後述する作業状況に関する情報の検出処理などを実行する。   In addition to the control of each unit, the processing unit 5 targets image data and acceleration data recorded in the recording unit 3 and performs processing for detecting information related to work conditions, which will be described later, using the memory unit 4 as a work area. To do.

身体への取り付けに関しては、例えば、撮像部1及び第1データ採取部2が第1ユニットに組み込まれ、加速度センサ6及び第2データ採取部7が第2ユニットに組み込まれ、記録部3、メモリ部4、及び処理部5が第3ユニットに組み込まれ、少なくとも第1及び第2ユニットを身体に装着すればよい。この場合、第1及び第2データ採取部によって採取されたデータは、通信手段(有線又は無線)を更に備えて第3ユニットの記録部3に伝送されるようにすればよい。
以下、本実施の形態に係る作業状況記録装置の機能を具体的に説明する。
Regarding the attachment to the body, for example, the imaging unit 1 and the first data collection unit 2 are incorporated in the first unit, the acceleration sensor 6 and the second data collection unit 7 are incorporated in the second unit, the recording unit 3, the memory The unit 4 and the processing unit 5 are incorporated in the third unit, and at least the first and second units may be attached to the body. In this case, the data collected by the first and second data collection units may be further provided with communication means (wired or wireless) and transmitted to the recording unit 3 of the third unit.
Hereinafter, functions of the work status recording apparatus according to the present embodiment will be specifically described.

(視方向の停留検出機能)
ヘルメットなどに装着した撮像部1からの映像情報は、作業者が見ている方向の映像を強く反映していると考えられることから、ヘルメットに装着した撮像部1によって撮像される映像のブレ(映像の動きの量)を解析することにより、作業者の視方向の停留状況を自
動的に検出することができる。この機能に関して以下に説明する。
(Visual stop detection function)
Since the video information from the imaging unit 1 attached to the helmet or the like is considered to strongly reflect the video in the direction in which the worker is looking, the blur of the video imaged by the imaging unit 1 attached to the helmet ( By analyzing the amount of motion of the image, it is possible to automatically detect the stopping situation in the visual direction of the worker. This function will be described below.

図2は、本実施の形態に係る作業状況記録装置による視方向の停留検出機能を示すフローチャートである。ここで、ヘルメットに取り付けられた撮像部1によって撮像された映像データ(輝度映像)が、時系列のフレームデータとして予め記録部3に記録されていることとし、その映像データを処理対象とする。以下において、特に断らない限り処理部5が行う処理として説明する。また、各ステップでの処理において、処理部5は、適宜記録部3からメモリ部4に映像データを読み出し、メモリ部4の所定領域をワーク領域として使用して計算を行い、その結果を適宜記録部3に記録することとする。   FIG. 2 is a flowchart showing a visual direction stop detection function by the work status recording apparatus according to the present embodiment. Here, video data (luminance video) captured by the imaging unit 1 attached to the helmet is recorded in advance in the recording unit 3 as time-series frame data, and the video data is a processing target. In the following description, the processing performed by the processing unit 5 will be described unless otherwise specified. Further, in the processing at each step, the processing unit 5 reads out video data from the recording unit 3 to the memory unit 4 as appropriate, performs calculation using a predetermined area of the memory unit 4 as a work area, and records the result as appropriate. It will be recorded in part 3.

ステップS1において、初期設定を行う。処理対象とするフレーム数を指定するための評価時間幅T1、シフト時間幅ΔT(ΔT≦T1)、判定ステップで使用する第1相関しきい値H1、第2相関しきい値H2、第1移動許容値D1、第2移動許容値D2を設定する。一例として、T1=2(秒)、ΔT1=1(秒)、H1=0.2、H2=0.6、D1=10、D2=18と設定するとして、以下説明する。 In step S1, initialization is performed. Evaluation time width T 1 for designating the number of frames to be processed, shift time width ΔT 1 (ΔT 1 ≦ T 1 ), first correlation threshold value H 1 used in the determination step, second correlation threshold value H 2 , first movement allowable value D 1 , and second movement allowable value D 2 are set. As an example, T 1 = 2 (seconds), ΔT 1 = 1 (seconds), H 1 = 0.2, H 2 = 0.6, D 1 = 10, and D 2 = 18 will be described below. .

また、繰り返しカウタkに“0”を、全ての注視度U(i)(iは0以上の整数値)に“0”を設定する。後述するように、時系列の画像フレームデータF(k)に対して、時間軸に沿ってシフト時間幅ΔT1だけシフトしながら1回の注視度評価を行う処理対象画像フレ
ームデータの先頭を決定するので、シフトする回数だけ注視度U(i)を設ける。
In addition, “0” is set to the counter counter k, and “0” is set to all gaze degrees U (i) (i is an integer value of 0 or more). As will be described later, for the time-series image frame data F (k), the head of the processing target image frame data for performing one gaze degree evaluation while shifting by the shift time width ΔT 1 along the time axis is determined. Therefore, the gaze degree U (i) is provided by the number of times of shifting.

ステップS2において、隣接する2つの画像フレームデータF(k)及びF(k+1)を記録部3から読み出し、2つのフレームデータの正規化相関値を計算し、相関ピーク値P(
k)及びピーク位置R(k)=(R(k)、R(k))を求め、記録部3に記録する。ここで
、kは時系列のフレーム番号に対応し、R(k)及びR(k)はそれぞれ、画像の中心を原点とした水平座標及び垂直座標を、画素数で表した値である。
In step S2, two adjacent image frame data F (k) and F (k + 1) are read from the recording unit 3, a normalized correlation value of the two frame data is calculated, and a correlation peak value P (
k) and peak position R (k) = (R x (k), R y (k)) are obtained and recorded in the recording unit 3. Here, k corresponds to a time-series frame number, and R x (k) and R y (k) are values representing the horizontal and vertical coordinates with the center of the image as the origin in terms of the number of pixels, respectively. .

図3の上段には、時刻t及びt+Δtにおける2つのフレームデータから、2次元の相関値(相関パターン)が得られることを示している。フレーム相関値は、2枚のフレーム画像の類似度を示しており、類似度が高い時に大きな値を示す。ここでは、映像の明るさによる相関値の変化の影響を抑えるために、フレーム相関値の計算には、各フレーム画像の明るさを正規化した後に相関計算(正規化相関)を行う。正規化相関値の計算方法は、画像処理分野で周知であるので詳細説明を省略する。   The upper part of FIG. 3 shows that a two-dimensional correlation value (correlation pattern) can be obtained from two frame data at times t and t + Δt. The frame correlation value indicates the similarity between two frame images, and indicates a large value when the similarity is high. Here, in order to suppress the influence of the change in the correlation value due to the brightness of the video, the calculation of the frame correlation value is performed after normalizing the brightness of each frame image and then performing the correlation calculation (normalized correlation). Since the method for calculating the normalized correlation value is well known in the field of image processing, detailed description thereof is omitted.

フレーム相関のピーク位置の中心からのズレ量(R(k)、R(k))は、2つのフレーム間の画像移動量を表す。従って、フレーム間の相関値を計算することにより、2つのフレーム画像の類似度と移動量とを評価することができる。従って、フレーム相関値及び相関ピークの移動量から、視方向が停留している時間、即ち注視している時間を求めることができる。 The amount of deviation (R x (k), R y (k)) from the center of the peak position of the frame correlation represents the amount of image movement between two frames. Therefore, by calculating the correlation value between frames, the similarity between two frame images and the amount of movement can be evaluated. Therefore, it is possible to obtain the time during which the viewing direction is stopped, that is, the time during which the user is gazing, from the frame correlation value and the movement amount of the correlation peak.

ステップS3において、処理対象のフレームデータが残っているか否を判断し、残っていないと判断するまで、ステップS4でカウンタkを1増加した後ステップS2の戻る。   In step S3, it is determined whether or not frame data to be processed remains. Until it is determined that no frame data remains, the counter k is incremented by 1 in step S4, and then the process returns to step S2.

以上によって、フレームデータに対応する相関ピーク値P(k)及びピーク位置R(k)=(R(k)、R(k))を求めることができる。一例を、図3の下段に、相関値(P(k))、水平移動量(R(k))、垂直移動量(R(k))として示す。図3の横方向が時間軸である。相関値(P(k))は0以上の値であるが、水平移動量(R(k))、垂直移動量(R(k))は、負の値を取り得る。 As described above, the correlation peak value P (k) and peak position R (k) = (R x (k), R y (k)) corresponding to the frame data can be obtained. An example is shown in the lower part of FIG. 3 as a correlation value (P (k)), a horizontal movement amount (R x (k)), and a vertical movement amount (R y (k)). The horizontal direction in FIG. 3 is the time axis. The correlation value (P (k)) is 0 or more, but the horizontal movement amount (R x (k)) and the vertical movement amount (R y (k)) can take negative values.

ステップS5において、カウンタkとjを“0”にリセットした後、ステップS6にお
いて、記録部3に記録されているステップS2で求めた相関ピーク値P(k)及びピーク位置R(k)を、所定数N1だけ(P(k)〜P(k+N1−1)、R(k)〜R(k+N1−1))読み
出す。読み出すデータ数N1は、1秒間のフレーム数をNfとして評価時間幅T1から、N1=T1・Nfで計算される。例えば、T1=2(秒)、Nf=8(秒−1)であれば、N1=16
となる。
After resetting the counters k and j to “0” in step S5, the correlation peak value P (k) and peak position R (k) obtained in step S2 recorded in the recording unit 3 in step S6 are Only a predetermined number N 1 (P (k) to P (k + N 1 −1), R (k) to R (k + N 1 −1)) is read. Data number N 1 for reading is the number of frames per second from the evaluation time width T 1 as N f, is calculated by N 1 = T 1 · N f . For example, if T 1 = 2 (seconds) and N f = 8 (seconds −1 ), N 1 = 16
It becomes.

ステップS7において、ステップS6で読み出した全ての相関ピーク値P(k)〜P(k
+N1−1)の平均値Pav(k)が、第1相関しきい値H1=0.2以上であるか否かを判
断する。第1相関しきい値H1=0.2以上でないと判断した場合、ステップS8に移行
して、カウンタkにΔN1を加算し、ステップS6に戻り、次の処理対象とする相関ピー
ク値P(k)及びピーク位置R(k)を所定数N1だけ読み出す。ここで、ΔN1=N・ΔT1である。第1相関しきい値H1=0.2以上であると判断した場合、ステップS9に移行する。
In step S7, all correlation peak values P (k) to P (k) read in step S6.
It is determined whether the average value P av (k) of + N 1 −1) is equal to or greater than the first correlation threshold value H 1 = 0.2. When it is determined that the first correlation threshold value H 1 is not equal to or greater than 0.2, the process proceeds to step S8, ΔN 1 is added to the counter k, the process returns to step S6, and the correlation peak value P to be processed next is obtained. Read a predetermined number N 1 of (k) and peak position R (k). Here, ΔN 1 = N f · ΔT 1 . When it is determined that the first correlation threshold value H 1 = 0.2 or more, the process proceeds to step S9.

ステップS9において、次の条件で注視度U(j)を決定し、記録部3に記録する。即ち、k〜k+N1−1の範囲に対して、相関ピーク値の平均値Pav(k)、ピーク位置の平均
値Rav(k)とRav(k)が、
av(k)≧H2、Rav(k)x≦D2、及びRav(k)y≦D2の場合、U(j)=3とし、
1≦Pav(k)<H2、Rav(k)x≦D1、及びRav(k)y≦D1の場合、U(j)=2とし、
1≦Pav(k)<H2、Rav(k)x≦D2、及びRav(k)y≦D2の場合、U(j)=1とする。カウンタjの値は、j=k/ΔNである。ここで、例えばH1=0.2、H2=0
.6、D1=10、D2=18であり、U(j)=3、2、1はそれぞれ、「注視強」、「注視中」、「注視弱」を表す。決定されたU(j)は、フレーム番号がk+N1−1に対応す
る時刻の注視度であり、k+N1−1からk+N1+ΔN1−2までの区間の注視度とする
。ここでU(j)が設定されなかった場合、初期設定された“0”が設定されたままであり、この状態を、例えば「その他」とする。
In step S9, the gaze degree U (j) is determined under the following conditions and recorded in the recording unit 3. That is, the average value P av (k) of the correlation peak values, the average values R av (k) x and R av (k) y of the correlation peak values are in the range of k to k + N 1 −1.
When P av (k) ≧ H 2 , R av (k) x ≦ D 2 , and R av (k) y ≦ D 2 , U (j) = 3,
If H 1 ≦ P av (k) <H 2 , R av (k) x ≦ D 1 , and R av (k) y ≦ D 1 , then U (j) = 2,
When H 1 ≦ P av (k) <H 2 , R av (k) x ≦ D 2 , and R av (k) y ≦ D 2 , U (j) = 1. The value of the counter j is j = k / ΔN 1 . Here, for example, H 1 = 0.2, H 2 = 0
. 6, D 1 = 10, D 2 = 18, and U (j) = 3, 2, and 1 represent “gazing strength”, “during gaze”, and “gazing weakness”, respectively. It determined U (j) is the time of the attention degrees of the frame number corresponds to the k + N 1 -1, and attention degree of the section from k + N 1 -1 to k + N 1 + ΔN 1 -2 . Here, when U (j) is not set, the initially set “0” remains set, and this state is, for example, “other”.

注視度U(j)は、視方向が止まっている時間(注視している時間)の程度を表す値である。上記の判定条件は、視方向の停留時間が、評価時間幅内T1における全てのフレーム
に関するフレーム間相関値が相関しきい値よりも大きく、相関ピークの移動量が移動許容範囲内に収まっている時と考え、停留時間をランク付けするものである。
The gaze degree U (j) is a value representing the degree of time (the time during which the user is gazing) that the viewing direction has stopped. The above determination condition is that the stop time in the viewing direction is such that the inter-frame correlation value for all the frames in the evaluation time width T 1 is larger than the correlation threshold value, and the movement amount of the correlation peak is within the movement allowable range. The stop time is ranked when it is considered to be when.

ステップS10において、処理すべき相関ピーク値P(k)及びピーク位置R(k)のデータが残っているか否を判断し、残っていないと判断するまで、ステップS6〜S9を繰り返す。以上で、注視度U(j)が決定される。   In step S10, it is determined whether or not data of the correlation peak value P (k) and peak position R (k) to be processed remains, and steps S6 to S9 are repeated until it is determined that they do not remain. The gaze degree U (j) is thus determined.

ステップS11において、カウンタjを“0”にリセットする。   In step S11, the counter j is reset to “0”.

ステップS12において、記録部3に記録された注視度U(j)を読み出し、それが“0”(「その他」の状態)であるか否かを判断する。“0”であると判断した場合、ステップS14に移行する。“0”でない(注視している状態)と判断した場合、ステップS13に移行する。   In step S12, the gaze degree U (j) recorded in the recording unit 3 is read out, and it is determined whether or not it is “0” (“other” state). If it is determined that the value is “0”, the process proceeds to step S14. If it is determined that it is not “0” (a state of gazing), the process proceeds to step S13.

ステップS13において、“0”でないU(j)が連続する区間の相関ピーク値を記録部3から読み出し、それらの中の最大値P(kmax)を求め、それに対応するフレーム番号kmaxを決定し、記録部3に記録する。記録されたフレーム番号kmaxを用いて、後述するよ
うに、その区間の代表画像とする画像フレームデータを読み出すことができる。ここで、フレーム番号kmaxを記録する代わりに、代表画像とする画像フレームデータを記録して
もよい。
In step S13, a correlation peak value in a section where U (j) other than “0” continues is read from the recording unit 3, a maximum value P (k max ) is obtained, and a corresponding frame number k max is determined. And recorded in the recording unit 3. Using the recorded frame number k max, as will be described later, it is possible to read out image frame data as a representative image of the section. Here, instead of recording the frame number k max , image frame data as a representative image may be recorded.

ステップS14において、処理すべき注視度U(k)が残っているか否かを判断し、残っていると判断した場合、ステップS15に移行してカウンタjを1増加させた後、ステップS12〜S13の処理を繰り返す。   In step S14, it is determined whether or not the gaze degree U (k) to be processed remains. If it is determined that it remains, the process proceeds to step S15 and the counter j is incremented by 1, and then steps S12 to S13 are performed. Repeat the process.

以上によって、一連のフレームデータの中から特定のフレームを指定するためのフレーム番号kmaxが決定される。 As described above, the frame number k max for designating a specific frame from the series of frame data is determined.

一例として、実際の測定データに、T1=2(秒)、ΔT=1(秒)、H1=0.2、H2
=0.6、D1=10(画素)、D2=18(画素)の条件で、図2に示した一連の処理を適用した結果を図4及び図5に示す。撮像されたフレーム画像は、320×240画素である。また、相関ピークの先鋭化を図るために、前処理として各々のフレーム画像に対して高周波強調処理を行った。
As an example, the actual measurement data includes T 1 = 2 (seconds), ΔT 1 = 1 (seconds), H 1 = 0.2, H 2
FIG. 4 and FIG. 5 show the results of applying the series of processes shown in FIG. 2 under the conditions of = 0.6, D 1 = 10 (pixels), and D 2 = 18 (pixels). The captured frame image is 320 × 240 pixels. In addition, in order to sharpen the correlation peak, high frequency enhancement processing was performed on each frame image as preprocessing.

図4には、横軸を時間として、相関値、水平移動量、垂直移動量、及びこれらから判定した視方向の注視度をランク付けした結果を示している。注視度のランクは棒グラフの高さで表し、連続する棒グラフ全体の幅が停留時間になる。   FIG. 4 shows the result of ranking the correlation value, the horizontal movement amount, the vertical movement amount, and the gaze degree in the viewing direction determined from these values, with the horizontal axis as time. The gaze rank is expressed by the height of the bar graph, and the width of the entire continuous bar graph is the stop time.

図5は、図4の判定結果に関して、決定された相関ピーク値の最大値P(kmax)に対応
するフレーム番号kmaxを決定し、それらの画像(代表画像)を時間順に並べたものであ
る。図5の番号(1)〜(12)は、図4の(1)〜(12)に対応する。各フレーム画像の下には、フレーム番号に対応する時刻情報(時:分:秒)と視方向の停留時間(秒)を示している。図5に示した多くの代表画像は、作業の経過を良く説明している。
FIG. 5 shows a frame number k max corresponding to the maximum value P (k max ) of the determined correlation peak value with respect to the determination result of FIG. 4, and those images (representative images) are arranged in time order. is there. Numbers (1) to (12) in FIG. 5 correspond to (1) to (12) in FIG. Below each frame image, time information (hour: minute: second) corresponding to the frame number and a stop time (second) in the viewing direction are shown. Many representative images shown in FIG. 5 well explain the progress of the work.

以上のように、撮像部1の映像から注視度を求め、これを用いて代表画像と注視作業時間(停留時間)を自動抽出し、記録することにより、作業の変遷を自動蓄積できる。   As described above, the degree of gazing is obtained from the video of the imaging unit 1, and the representative image and the gazing work time (stopping time) are automatically extracted and recorded using the gazing degree.

(作業姿勢検出機能)
図6は、本実施の形態に係る作業状況記録装置による作業姿勢検出機能を示すフローチャートである。ここでは、人体の腰部に取り付けられた3軸加速度センサ6からの加速度データが、第2データ採取部7によって所定のサンプリング間隔Δtで所定の期間採取され、時系列にベクトルデータとして予め記録部3に記録されていることとし、その加速度データを処理対象とする。図7に、記録された加速度データの一例を示す。図7において、縦軸は加速度データの1軸方向成分、横軸は時間である。
(Working posture detection function)
FIG. 6 is a flowchart showing a work posture detection function by the work status recording apparatus according to the present embodiment. Here, acceleration data from the triaxial acceleration sensor 6 attached to the waist of the human body is sampled by the second data sampling unit 7 for a predetermined period at a predetermined sampling interval Δt, and recorded in advance as vector data in time series. The acceleration data is the processing target. FIG. 7 shows an example of recorded acceleration data. In FIG. 7, the vertical axis represents the one-axis direction component of the acceleration data, and the horizontal axis represents time.

ステップS21において、初期設定を行う。評価時間幅T2、シフト時間幅ΔT2(ΔT2≦T2)、サンプリング間隔Δt、後述する判定ステップで使用する標準偏差σの上限値σmax及び下限値σmin、回数パラメータの上限値nmax及び下限値nmin、時間パラメータの上限値tmax及び下限値tminに所定の値を設定する。また、繰り返し用カウンタjに“0”を、全ての姿勢指標V(i)(iは0以上の整数値)に“0”を設定する。後述するように、時系列の全加速度データの中から、時間軸に沿ってシフト時間幅ΔT2だけシフトしな
がら1回の処理対処とする加速度データを決定するので、シフトする回数だけ姿勢指標V(j)を設ける。
In step S21, initial setting is performed. Evaluation time width T 2 , shift time width ΔT 2 (ΔT 2 ≦ T 2 ), sampling interval Δt, upper limit value σ max and lower limit value σ min of standard deviation σ used in a determination step described later, upper limit value n of the number parameter Predetermined values are set for max and lower limit value n min , and time parameter upper limit value t max and lower limit value t min . Further, “0” is set in the repeat counter j, and “0” is set in all posture indices V (i) (i is an integer value of 0 or more). As will be described later, the acceleration data to be dealt with once is determined from all the time-series acceleration data while shifting by the shift time width ΔT 2 along the time axis. (j) is provided.

ステップS22において、時系列に記録された加速度ベクトルデータの先頭から、評価時間幅T2の間の加速度ベクトル(gx(i)、gy(i)、gz(i))(i=k〜k+N2−1)を
読み出し、各々の加速度ベクトルの大きさ|g(i)|=(gx(i)+gy(i)+gz(i))1/2を計算し、それらの平均値gav及び標準偏差σを計算する。評価時間幅T2毎の加速度データ数N2は、N2=T2/Δtで計算される。
In step S22, acceleration vectors (g x (i), g y (i), g z (i)) (i = k) between the beginning of the acceleration vector data recorded in time series and the evaluation time width T 2 ˜k + N 2 −1), calculate the magnitude of each acceleration vector | g (i) | = (g x (i) 2 + g y (i) 2 + g z (i) 2 ) 1/2 Their average value g av and standard deviation σ are calculated. Acceleration data number N 2 of the evaluation time per width T 2 are, is calculated by N 2 = T 2 / Δt.

ステップS23において、ステップS22で計算した標準偏差σが、σ<σmin を満
たすか否かを判断する。満足すると判断した場合、ステップS24に移行して姿勢指標V(j)に“1”をセットし、ステップS25に移行してカウンタkをΔN2だけ増加させた
後、ステップS22に戻る。満足しないと判断した場合、ステップS26に移行する。ここで、カウンタkをΔN2だけ増大させることは、時間軸に沿ってシフト時間幅ΔT2だけシフトして次に処理対処とする加速度データの先頭を決定することであり、ΔN2=ΔT2/Δtである。従って、ΔN2≦N2である。
In step S23, it is determined whether or not the standard deviation σ calculated in step S22 satisfies σ <σ min . If it is determined that satisfactory, set to "1" shifts to position indicator V (j) in step S24, after increasing the counter k by .DELTA.N 2 proceeds to step S25, the flow returns to step S22. If it is determined that the condition is not satisfied, the process proceeds to step S26. Here, increasing the counter k by ΔN 2 means shifting the shift time width ΔT 2 along the time axis to determine the head of acceleration data to be processed next, ΔN 2 = ΔT 2 / Δt. Therefore, ΔN 2 ≦ N 2 .

ステップS26において、ステップS22で計算した標準偏差σが、σ>σmax を満
たすか否かを判断する。満足すると判断した場合、ステップS27に移行して姿勢指標V(j)に“6”をセットした後、ステップS25に移行する。満足しないと判断した場合、ステップS28に移行する。カウンタjは、j=k/ΔN2の関係にある。
In step S26, it is determined whether or not the standard deviation σ calculated in step S22 satisfies σ> σ max . If it is determined that the condition is satisfied, the process proceeds to step S27, where “6” is set in the posture index V (j), and then the process proceeds to step S25. If it is determined that the user is not satisfied, the process proceeds to step S28. The counter j has a relationship of j = k / ΔN 2 .

ステップ28において、ステップS22で求めた加速度ベクトルの大きさ|g(i)|が平均値gavを超える回数n、及び|g(i)|>gavである時間の合計時間t1を計算する
In step 28, the number n of times that the magnitude | g (i) | of the acceleration vector obtained in step S22 exceeds the average value g av and the total time t 1 where | g (i) |> g av are calculated. To do.

ステップS29において、ステップS28で求めた回数n及び合計時間t1が、
min<n<nmax (式1)
min<t1<tmax (式2)
を満たすか否かを判断する。式1及び式2の関係を満たすと判断した場合、ステップS30に移行し、姿勢指標V(j)に“2”をセットした後、ステップS25に以降する。少なくとも式1及び式2の何れか一方が満たされないと判断した場合、ステップS31に移行する。
In step S29, the number n and the total time t 1 obtained in step S28 are
n min <n <n max (Formula 1)
t min <t 1 <t max (Formula 2)
It is determined whether or not the above is satisfied. When it is determined that the relationship of Expression 1 and Expression 2 is satisfied, the process proceeds to Step S30, and “2” is set in the posture index V (j), and then the process proceeds to Step S25. If it is determined that at least one of Expression 1 and Expression 2 is not satisfied, the process proceeds to Step S31.

ステップS31において、その区間内の加速度ベクトル(gx(i)、gy(i)、gz(i))(i=k〜k+N2−1)の平均ベクトルを計算し、重力加速度方向を基準として、この計算した平均ベクトルとの成す角度θを計算し、角度θに応じて姿勢指標V(j)を設定する。具体的には、例えば、20(度)≦θ<36(度)の場合、V(j)=3、36(度)≦θ<55(度)の場合、V(j)=4、θ≧55(度)の場合、V(j)=4と設定する。ここで設定された姿勢指標V(j)は、区間(k+N2−1〜k+N2+ΔN2−2)に対して適
用される。
In step S31, an average vector of acceleration vectors (g x (i), g y (i), g z (i)) (i = k to k + N 2 −1) in the section is calculated, and the gravitational acceleration direction is calculated. As a reference, the angle θ formed with the calculated average vector is calculated, and the posture index V (j) is set according to the angle θ. Specifically, for example, when 20 (degrees) ≦ θ <36 (degrees), V (j) = 3, and when 36 (degrees) ≦ θ <55 (degrees), V (j) = 4, θ If ≧ 55 (degrees), V (j) = 4 is set. The posture index V (j) set here is applied to the section (k + N 2 −1 to k + N 2 + ΔN 2 −2).

ステップS32において、処理対象の加速度データがN2以上残っているか否を判断し
、残っていないと判断するまで、ステップS25に戻った後、ステップS22〜S31の処理を繰り返す。
In step S32, it is determined whether or not the acceleration data to be processed remains N 2 or more, and after returning to step S25 until it is determined that there is no remaining, the processes in steps S22 to S31 are repeated.

以上の処理によって、区間(k+N2−1〜k+N2+ΔN2−2)毎に、即ちΔT2毎に、姿勢指標V(j)、即ち身体状態を示す情報が決定される。 By the above process, for each section (k + N 2 -1~k + N 2 + ΔN 2 -2), i.e. every [Delta] T 2, attitude indicator V (j), that is, information indicating the physical condition is determined.

一例として、評価時間幅T2=3(秒)、シフト時間幅ΔT2=1(秒)とし、評価時間幅T2内の加速度ベクトルの平均振幅をgavとしてσmin=0.2gav、σmax=0.9gav
min=0.2T2/Δt、nmax=0.8T2/Δt、tmin=0.2T2、tmax=0.8
2の条件で、実測した加速度ベクトルに図6に示した一連の処理を適用した結果を、図
8に示す。図8の中段に示したX、Y、Zの身体加速度は、サンプリング間隔Δt=0.05(秒)(20Hz)で採取したデータ(3軸の各成分)を示しており、その下方に姿勢判定の結果を示している。
As an example, assuming that the evaluation time width T 2 = 3 (seconds), the shift time width ΔT 2 = 1 (second), the average amplitude of the acceleration vector within the evaluation time width T 2 is g av , σ min = 0.2 g av , σ max = 0.9 g av ,
n min = 0.2 T 2 / Δt, n max = 0.8 T 2 / Δt, t min = 0.2 T 2 , t max = 0.8
Under the condition of T 2, the result of applying the series of processing shown in FIG. 6 to the actually measured acceleration vector, shown in Figure 8. The body acceleration of X, Y, and Z shown in the middle of FIG. 8 indicates data (each component of three axes) collected at a sampling interval Δt = 0.05 (seconds) (20 Hz), and the posture is below that. The result of determination is shown.

黒い棒グラフで示した姿勢判定結果は、姿勢指標V(j)が0、1、2、3、4、5、6の場合をそれぞれ、「その他」、「静止」、「歩行」、「傾斜小」、「傾斜中」、「傾斜
大」、「衝撃」と記している。図8の身体加速度の上方には、作業者に同行した観察者による、作業状況を説明するコメントを示している。コメントと姿勢判定結果とを比較すると、作業内容に対応した姿勢検出が良好に行われていることが分かる。
The posture determination results indicated by the black bar graphs are “other”, “still”, “walking”, “small slope” when the posture index V (j) is 0, 1, 2, 3, 4, 5, 6 respectively. "," Inclined "," Inclined "," Impact ". Above the body acceleration in FIG. 8 is a comment explaining the work situation by the observer accompanying the worker. Comparing the comment and the posture determination result shows that the posture detection corresponding to the work content is performed well.

(作業状況記録機能)
次に、作業者の注視度及び姿勢の検出結果を用いて、各時刻における作業行為を推定し、それを作業状況を表す情報として記録する機能に関して説明する。作業行為の推定は、上記した注視度U(j)によって表される作業者の4段階の視方向の停留状態(注視強、注視中、注視弱、停留なし(その他))と、同じ時刻における上記した姿勢指標V(j)によって表される作業者の7種類の姿勢情報(静止、歩行、傾斜小、傾斜中、傾斜大、衝撃的姿勢変化、その他)とを組み合わせて、決定する。
(Work status recording function)
Next, a description will be given of a function for estimating a work action at each time using the detection result of the gaze degree and posture of the worker and recording it as information representing the work situation. The estimation of the work activity is the same as the above-mentioned stationary state (high gaze, during gaze, weak gaze, no gaze (other)) of the visual direction of the worker represented by the gaze degree U (j) described above. It is determined in combination with seven types of posture information (stationary, walking, small tilt, middle tilt, large tilt, shock posture change, etc.) of the worker represented by the posture index V (j) described above.

図9は、本実施の形態に係る作業状況記録装置による作業状況記録機能を示すフローチャートである。ここで、映像データおよび加速度データは同じ期間採取され、図2、図6に示した処理が実行され、同じ数の注視度U(j)および姿勢指標V(j)が記録部3に記録されていることとする。   FIG. 9 is a flowchart showing a work status recording function by the work status recording apparatus according to the present embodiment. Here, the video data and the acceleration data are collected for the same period, the processing shown in FIGS. 2 and 6 is executed, and the same number of gaze degrees U (j) and posture indices V (j) are recorded in the recording unit 3. Suppose that

ステップS41において、カウンタjに“0”を設定する。j=0は、例えば、処理対象のデータ(映像データ及び加速度データ)の採取の開始時刻に対応する。   In step S41, "0" is set to the counter j. j = 0 corresponds to, for example, the start time of collection of data to be processed (video data and acceleration data).

ステップS42において、記録部3から注視度U(j)および姿勢指標V(j)を読み出す。   In step S42, the gaze degree U (j) and the posture index V (j) are read from the recording unit 3.

ステップS43において、ステップS42で読み出した注視度U(j)および姿勢指標V(j)の組み合わせに応じて、作業行為を表すパラメータW(j)を決定し、カウンタjの値と対応させて記録部3に記録する。例えば、6種類の作業行為(「移動」、「目視点検」、「注視点検・触診」、「屈み込み」、「覗き込み」、「その他」)を判別する場合、次の判定条件に応じて作業行為を判定すればよい。
(1)姿勢情報が「歩行(V(j)=2)」状態であり且つ視方向停留状態が「停留なし(U(j)=0)」の場合、「移動(W(j)=1)」と判定
(2)姿勢情報が「静止(V(j)=1)」状態の場合、または、姿勢情報が「歩行(V(
j)=2)」であり且つ視方向停留状態が「注視弱(U(j)=1)」の場合、「目視点検
(W(j)=2)」と判定
(3)姿勢情報が「静止(V(j)=1)」状態であり且つ視方向停留状態が「注視弱(U(j)=1)」、「注視中(U(j)=2)」及び「注視強(U(j)=3)」の何れかである場合、または姿勢情報が「歩行(V(j)=1)」状態であり且つ視方向停留状態が「注視中(U(j)=2)」及び「注視強(U(j)=3)」の何れかである場合、「注視点検・触診(W(j)=3)」と判定
(4)姿勢情報が「傾斜小(V(j)=3)」、「傾斜中(V(j)=4)」及び「傾斜大(V(j)=5)」の何れかの状態であり且つ視方向停留状態が「停留なし(U(j)=0)」及び「注視弱(U(j)=1)」の何れかの場合、「屈み込み(W(j)=4)」と判定
(5)姿勢情報が「傾斜小(V(j)=3)」、「傾斜中(V(j)=4)」及び「傾斜大(V(j)=5)」の何れかであり且つ視方向停留状態が「注視弱(U(j)=1)」、「注視中(U(j)=2)」及び「注視強(U(j)=3)」の何れかである場合、「覗き込み(W(j)=5)」と判定
(6)その他の状態を「その他(W(j)=0)」と判定
ステップS44において、処理対象のデータが残っているか否かを判断し、処理対象のデータがあると判断した場合、ステップS45に移行してカウンタjを1増加させて、処理対象のデータがなくなるまで、ステップS42〜43の処理を繰り返す。
In step S43, the parameter W (j) representing the work action is determined according to the combination of the gaze degree U (j) and the posture index V (j) read in step S42, and recorded in correspondence with the value of the counter j. Record in part 3. For example, when discriminating six types of work activities (“movement”, “visual inspection”, “gaze inspection / palpation”, “sagging”, “peeps”, “others”), the following judgment conditions are used. What is necessary is just to determine a work act.
(1) When the posture information is in the “walking (V (j) = 2)” state and the viewing direction stop state is “no stop (U (j) = 0)”, “movement (W (j) = 1) (2) When the posture information is in the “still (V (j) = 1)” state, or the posture information is “walking (V (
j) = 2) ”and when the viewing direction stationary state is“ weak gaze (U (j) = 1) ”, it is determined as“ visual inspection (W (j) = 2) ”(3) posture information is“ In a stationary (V (j) = 1) state and the viewing direction stationary state is “gazing weakness (U (j) = 1)”, “gazing (U (j) = 2)” and “gazing intensity (U (j) = 3) ”, or the posture information is“ walking (V (j) = 1) ”and the viewing direction stationary state is“ gazing (U (j) = 2) ”. And “gaze strength (U (j) = 3)”, it is determined as “gaze inspection / palpation (W (j) = 3)” (4) posture information is “small tilt (V (j)) = 3) "," Inclined (V (j) = 4) "and" Inclined Large (V (j) = 5) "and the visual direction stationary state is" no stationary (U (j ) = 0) "and" Less gaze (U (j) = 1) "," Deflection (W (j) = 4) " Constant (5) posture information is any one of “small inclination (V (j) = 3)”, “inclining (V (j) = 4)” and “large inclination (V (j) = 5)” In addition, when the gaze direction stationary state is any of “Less gaze (U (j) = 1)”, “Long gaze (U (j) = 2)”, and “Long gaze (U (j) = 3)” , “Peep (W (j) = 5)” is determined (6) Other state is determined as “Other (W (j) = 0)” In step S44, it is determined whether or not data to be processed remains. If it is determined that there is data to be processed, the process proceeds to step S45, the counter j is incremented by 1, and the processes in steps S42 to S43 are repeated until there is no more data to be processed.

以上の結果、作業行為を表すパラメータW(j)を決定することができる。従って、パラメータW(j)の値(例えば、0〜5)と、それらに対応する作業行為を表す文字情報などを対応させてテーブルとして記録しておけば、パラメータW(j)が決まれば、そのテーブルを参照することで、作業行為を文字情報などで表示することが可能となる。   As a result, the parameter W (j) representing the work action can be determined. Therefore, if the value of the parameter W (j) (for example, 0 to 5) and the character information representing the work action corresponding to the value are recorded as a table, if the parameter W (j) is determined, By referring to the table, the work action can be displayed as character information or the like.

一例として、図4に示した視方向の停留検出結果及び図8に示した作業姿勢検出結果に対して、上記した(1)〜(6)の判定条件を適用した結果を図10に示す。図10は、図4及び図8のうち、時刻が15:37:20〜15:39:31の間に関する結果である。このように、作業者が身に付けた撮像部1と3軸加速度センサ6のみを用いて、作業内容を作業行為の時系列情報として自動的に記録することができる。   As an example, FIG. 10 shows a result of applying the above-described determination conditions (1) to (6) to the stop detection result in the viewing direction shown in FIG. 4 and the work posture detection result shown in FIG. FIG. 10 shows the results for FIGS. 4 and 8 when the time is between 15:37:20 and 15:39:31. In this way, using only the imaging unit 1 and the three-axis acceleration sensor 6 worn by the worker, the work content can be automatically recorded as time series information of the work action.

上記の視方向の停留検出機能において、ある時刻tの注視度U(j)を判定するために、評価時間幅T1だけ過去(t−T1〜t)のデータを使用する場合を説明したが、これに限定されず、時刻tを挟んだ評価時間幅T1(t−T1+τ〜t+τ)のデータを使用してもよい。ここで、τ<T1である。評価時点で前後同じ評価時間で判定するには、τ=T1/2とすればよい。 The case where the past (t−T 1 to t) data is used for the evaluation time width T 1 in order to determine the gaze degree U (j) at a certain time t in the stop detection function in the above-described viewing direction has been described. However, the present invention is not limited to this, and data of an evaluation time width T 1 (t−T 1 + τ to t + τ) sandwiching the time t may be used. Here, τ <T 1 . In order to make a determination at the same evaluation time before and after the evaluation, τ = T 1/2 .

また、上記の作業姿勢検出機能における姿勢指標V(j)の判定に関しても同様に、時刻tを挟んだ評価時間幅T2(t−T2+τ〜t+τ)のデータを使用してもよい。ここで、τ<T2である。評価時点で前後同じ評価時間で判定するには、τ=T2/2とすればよい。 Similarly, regarding the determination of the posture index V (j) in the work posture detection function, data of the evaluation time width T 2 (t−T 2 + τ to t + τ) sandwiching the time t may be used. Here, τ <T 2 . To determine at the same evaluation time back and forth at the time of evaluation, may be set to τ = T 2/2.

また、上記した視方向の停留検出機能、作業姿勢検出機能、及び作業状況記録機能では、予め記録部に記録されている映像データ及び加速度データを処理する場合を説明したが、データの採取と並行してリアルタイムに処理を行ってもよい。その場合、例えば、視方向の停留検出機能を示す図2のステップS2の処理を、所定数の映像フレームデータを採取する処理とし、作業姿勢検出機能を示す図6のステップS22の処理を、所定数の加速度データを採取する処理とすればよい。尚、上記したように、ある時刻tにおける注視度U(j)又は姿勢指標V(j)の判定に、t−T1+τ〜t+τの範囲のデータを使用する場
合、t〜t+τの範囲のデータは時刻tにとって未来のデータであるので、処理の遅れを考慮して、あまり大きくないτ(τ<T1)を決定することが望ましい。
In the above-described visual direction stop detection function, work posture detection function, and work status recording function, the case of processing video data and acceleration data recorded in advance in the recording unit has been described. Then, processing may be performed in real time. In that case, for example, the process of step S2 in FIG. 2 showing the stop detection function in the viewing direction is set as a process of collecting a predetermined number of video frame data, and the process of step S22 in FIG. What is necessary is just to process a number of acceleration data. As described above, when data in the range of t−T 1 + τ to t + τ is used for determining the gaze degree U (j) or the posture index V (j) at a certain time t, Since the data is future data at time t, it is desirable to determine τ (τ <T 1 ) which is not so large in consideration of processing delay.

また、上記の停留検出機能に関して、ステップS9において、相関ピーク値の平均値Pav(k)、及びピーク位置の平均値Rav(k)、Rav(k)を用いて、注視度U(j)を決定したが、これに限定されない。例えば、k〜k+N1−1の区間内の各々の相関ピー
ク値P(k)及びピーク位置R(k)、R(k)が上記した条件を満たすか否かに応じて、注視度U(j)を決定してもよい。
Further, regarding the stationary detection function, in step S9, using the average value P av (k) of the correlation peak values and the average values R av (k) x and R av (k) y of the peak positions, Although U (j) has been determined, the present invention is not limited to this. For example, depending on whether or not each correlation peak value P (k) and peak positions R (k) x and R (k) y in the section of k to k + N 1 −1 satisfy the above-described condition, U (j) may be determined.

また、上記で一例として示した、第1及び第2相関しきい値H1、H2、第1及び第2移動許容値D1、D2、標準偏差の下限値及び上限値σmin、σmax、回数の下限値及び上限値nmin、nmax、時間パラメータの下限値及び上限値tmin、tmaxなどの値は、上記の値に限定されず、適宜設定することができる。 In addition, the first and second correlation threshold values H 1 and H 2 , the first and second movement allowable values D 1 and D 2 , the lower limit value and the upper limit value σ min , σ of the standard deviation shown as an example above. max, lower limit and upper limit n min of times, n max, the lower limit and the upper limit value t min of the time parameter, the value of such t max is not limited to the above values can be set as appropriate.

また、上記では注視度を3ランクに、姿勢状態を7種類に、傾斜状態を3ランクに、さらに作業行為を6種類に分類する場合を説明したが、これらに限定されず、これらより多く分類することも、少なく分類することもできる。   Moreover, although the case where the gaze degree is classified into three ranks, the posture state is classified into seven types, the tilted state is classified into three ranks, and the work actions are classified into six types is described above, the present invention is not limited to these. Can be classified as few as possible.

例えば、注視度を1ランクとし、相関ピーク値が0.2以上であり且つ移動許容量が18画素以内である場合に、注視状態(視方向の停留状態)であると判定してもよい。   For example, when the degree of gaze is one rank, the correlation peak value is 0.2 or more, and the allowable movement amount is within 18 pixels, it may be determined that the gaze state (the viewing direction is stopped).

また、移動許容量は、水平方向、垂直方向で同じ値としたが、異なる値であってもよく、フレーム画像の中心からの距離((R)2+(R)2)1/2で移動許容量を指定してもよい
Further, although the movement allowable amount is set to the same value in the horizontal direction and the vertical direction, it may be a different value. The distance from the center of the frame image ((R x ) 2 + (R y ) 2 ) 1/2 The movement allowance may be specified with.

本発明の実施の形態に係る作業状況記録装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the working condition recording apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る作業状況記録装置による視方向の停留情報検出機能を示すフローチャートである。It is a flowchart which shows the stop information detection function of a visual direction by the working condition recording device which concerns on embodiment of this invention. フレーム相関値の計算を説明する図である。It is a figure explaining calculation of a frame correlation value. 本発明の実施の形態に係る作業状況記録装置による視方向の停留情報検出機能を適用した結果の一例を示す図である。It is a figure which shows an example of the result of having applied the stop information detection function of the viewing direction by the working condition recording device which concerns on embodiment of this invention. 図4に示した停留時間中の代表画像の抽出結果を示す図である。It is a figure which shows the extraction result of the representative image during the stop time shown in FIG. 本身体状態検出装置による歩行状態の検出処理機能を実行した結果の一例を示す図である。It is a figure which shows an example of the result of having performed the detection process function of the walking state by this body state detection apparatus. 加速度データの一例を示す図である。It is a figure which shows an example of acceleration data. 本発明の実施の形態に係る作業状況記録装置による作業姿勢検出機能を実行した結果の一例を示す図である。It is a figure which shows an example of the result of having performed the working posture detection function by the working condition recording device which concerns on embodiment of this invention. 本発明の実施の形態に係る作業状況記録装置による作業状況記録機能を示すフローチャートである。It is a flowchart which shows the work condition recording function by the work condition recording apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る作業状況記録装置による作業状況記録機能を実行した結果の一例を示す図である。It is a figure which shows an example of the result of having performed the work condition recording function by the work condition recording device which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 撮像部
2 第1データ採取部
3 記録部
4 メモリ部
5 処理部
6 加速度センサ
7 第2データ採取部
DESCRIPTION OF SYMBOLS 1 Imaging part 2 1st data collection part 3 Recording part 4 Memory part 5 Processing part 6 Acceleration sensor 7 2nd data collection part

Claims (15)

身体に装着される撮像手段と、
該撮像手段から出力される映像信号を画像フレームデータとして採取する第1データ採取手段と、
処理手段とを備え、
前記処理手段が、
第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算し、
前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定し、
前記注視状態が維持されている視方向停留時間を求め、
前記注視状態に対応する注視度及び前記視方向停留時間を記録することを特徴とする作業状況記録装置。
Imaging means attached to the body;
First data collection means for collecting a video signal output from the imaging means as image frame data;
Processing means,
The processing means is
In the first period, the correlation peak value and the correlation peak position of two image frame data collected in succession are calculated,
According to the correlation peak value and the correlation peak position in the first period, determine a gaze state,
Obtaining a viewing direction stop time in which the gaze state is maintained;
An operation status recording apparatus that records a gaze degree corresponding to the gaze state and the viewing direction stop time.
前記処理部が、
前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求め、
該最大値に対応する画像フレームデータを決定し、
注視状態が維持されている期間の作業内容を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録することを特徴とする請求項1に記載の作業状況記録装置。
The processing unit is
Find the maximum value of the correlation peak value corresponding to the period during which the gaze state is maintained,
Determining image frame data corresponding to the maximum value;
2. The work status recording apparatus according to claim 1, wherein the image frame data or information for specifying the image frame data is recorded as image information representative of work contents during a period in which the gaze state is maintained.
前記身体に装着される3軸加速度センサと、
該3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第2データ採取手段とをさらに備え、
前記処理手段が、
連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算し、
前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、
前記身体の姿勢を表す姿勢指標を記録することを特徴とする請求項1又は2に記載の作業状況記録装置。
A triaxial acceleration sensor worn on the body;
A second data sampling means for sampling acceleration vector data output from the three-axis acceleration sensor at a predetermined sampling interval;
The processing means is
Calculate the absolute value of each acceleration vector, the average value of these absolute values, and the standard deviation for a predetermined number of the acceleration vector data collected continuously,
The body posture is determined according to the standard deviation, the number of times the absolute value exceeds the average value, and the total time the absolute value exceeds the average value,
The work status recording apparatus according to claim 1, wherein a posture index representing the posture of the body is recorded.
前記処理手段が、
前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算し、
重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、
該角度を身体の傾斜角度として、前記姿勢指標を決定することを特徴とする請求項3に記載の作業状況記録装置。
The processing means is
Calculating an average acceleration vector of the predetermined number of the acceleration vector data;
Calculate the angle of the average acceleration vector relative to the gravitational acceleration direction,
The work status recording apparatus according to claim 3, wherein the posture index is determined using the angle as a body inclination angle.
前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、
該作業行為を表す情報を、時刻情報と対応させて記録することを特徴とする請求項4に記載の作業状況記録装置。
In accordance with the gaze degree and the posture index, a work action representing a work situation is determined,
The work status recording apparatus according to claim 4, wherein information representing the work action is recorded in association with time information.
身体に装着される撮像手段から出力される映像信号を画像フレームデータとして採取する第1ステップと、
第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算する第2ステップと、
前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定する第3ステップと、
前記注視状態が維持されている視方向停留時間を求める第4ステップと、
前記注視状態に対応する注視度及び前記視方向停留時間を記録する第5ステップとを含むことを特徴とする作業状況記録方法。
A first step of collecting a video signal output from an imaging means attached to the body as image frame data;
A second step of calculating a correlation peak value and a correlation peak position of two image frame data collected in succession in a first period;
A third step of determining a gaze state according to the correlation peak value and the correlation peak position in the first period;
A fourth step for obtaining a viewing direction stop time in which the gaze state is maintained;
And a fifth step of recording a gaze degree corresponding to the gaze state and the viewing direction stop time.
前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求める第6ステップと、
該最大値に対応する画像フレームデータを決定し、注視状態が維持されている期間を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録する第7ステップとをさらに含むことを特徴とする請求項6に記載の作業状況記録方法。
A sixth step of obtaining a maximum value of the correlation peak value corresponding to a period during which the gaze state is maintained;
A seventh step of determining image frame data corresponding to the maximum value and recording the image frame data or information specifying the image frame data as image information representative of a period during which the gaze state is maintained; The work status recording method according to claim 6, further comprising:
前記身体に装着される3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第8ステップと、
連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算する第9ステップと、
前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、該姿勢を表す姿勢指標を記録する第10ステップとをさらに含むことを特徴とする請求項6又は7に記載の作業状況記録方法。
An eighth step of collecting acceleration vector data output from the three-axis acceleration sensor worn on the body at a predetermined sampling interval;
A ninth step of calculating an absolute value of each acceleration vector, an average value of these absolute values, and a standard deviation with respect to a predetermined number of the acceleration vector data continuously collected;
The posture of the body is determined according to the standard deviation, the number of times the absolute value exceeds the average value, and the total time for which the absolute value exceeds the average value, and a posture index representing the posture is recorded. The work status recording method according to claim 6, further comprising: a tenth step.
前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算する第11ステップと、
重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、該角度を身体の傾斜角度として、前記姿勢指標を決定する第12ステップとを含むことを特徴とする請求項8に記載の作業状況記録方法。
An eleventh step of calculating an average acceleration vector of the predetermined number of the acceleration vector data;
9. The work status recording method according to claim 8, further comprising a twelfth step of calculating an angle of the average acceleration vector with respect to a gravitational acceleration direction, and determining the posture index using the angle as a body inclination angle. .
前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、該作業行為を表す情報を、時刻情報と対応させて記録する第13ステップをさらに含むことを特徴とする請求項9に記載の作業状況記録方法。   The method further comprises a thirteenth step of determining a work action representing a work situation according to the gaze degree and the posture index, and recording information representing the work action in association with time information. 9. The work status recording method according to 9. 身体に装着される撮像手段と、第1データ採取手段と、処理手段とを備える作業状況記録装置に、
前記第1データ採取手段を用いて、前記撮像手段から出力される映像信号を画像フレームデータとして採取する第1機能と、
第1の期間において、連続して採取された2つの前記画像フレームデータの相関ピーク値及び相関ピーク位置を計算する第2機能と、
前記第1期間における前記相関ピーク値及び前記相関ピーク位置に応じて、注視状態を判定する第3機能と、
前記注視状態が維持されている視方向停留時間を求める第4機能と、
前記注視状態に対応する注視度及び前記視方向停留時間を記録する第5機能と実現させることを特徴とする作業状況記録プログラム。
In a work status recording device comprising an imaging means attached to the body, a first data collection means, and a processing means,
A first function of collecting a video signal output from the imaging unit as image frame data using the first data sampling unit;
A second function for calculating a correlation peak value and a correlation peak position of two image frame data collected in succession in the first period;
A third function for determining a gaze state according to the correlation peak value and the correlation peak position in the first period;
A fourth function for obtaining a viewing direction stop time in which the gaze state is maintained;
A work status recording program that realizes a fifth function that records a gaze degree corresponding to the gaze state and the viewing direction stop time.
前記作業状況記録装置に、
前記注視状態が維持されている期間に対応する前記相関ピーク値の最大値を求める第6機能と、
該最大値に対応する画像フレームデータを決定し、注視状態が維持されている期間を代表する画像情報として該画像フレームデータ、若しくは該画像フレームデータを特定する情報を記録する第7機能とをさらに実現させることを特徴とする請求項11に記載の作業状況記録プログラム。
In the work status recording device,
A sixth function for obtaining a maximum value of the correlation peak value corresponding to a period during which the gaze state is maintained;
A seventh function of determining image frame data corresponding to the maximum value and recording the image frame data or information specifying the image frame data as image information representative of a period during which the gaze state is maintained; The work status recording program according to claim 11, which is realized.
前記身体に装着される3軸加速度センサと、第2データ採取手段とをさらに備える前記
作業状況記録装置に、
前記第2データ採取手段を用いて、前記3軸加速度センサから出力される加速度ベクトルデータを所定のサンプリング間隔で採取する第8機能と、
連続して採取された所定数の前記加速度ベクトルデータに関して、各々の加速度ベクトルの絶対値、これら絶対値の平均値、及び標準偏差を計算する第9機能と、
前記標準偏差、前記絶対値が前記平均値を超える回数、及び前記絶対値が前記平均値を超えている時間の総和に応じて、前記身体の姿勢を判定し、該姿勢を表す姿勢指標を記録する第10機能とをさらに実現させることを特徴とする請求項11又は12に記載の作業状況記録プログラム。
In the work status recording apparatus further comprising a triaxial acceleration sensor worn on the body and a second data collection means,
An eighth function for collecting acceleration vector data output from the three-axis acceleration sensor at a predetermined sampling interval using the second data collection means;
A ninth function for calculating an absolute value of each acceleration vector, an average value of these absolute values, and a standard deviation with respect to a predetermined number of the acceleration vector data continuously collected;
The posture of the body is determined according to the standard deviation, the number of times the absolute value exceeds the average value, and the total time for which the absolute value exceeds the average value, and a posture index representing the posture is recorded. The work status recording program according to claim 11 or 12, further comprising realizing the tenth function.
前記作業状況記録装置に、
前記所定数の前記加速度ベクトルデータの平均加速度ベクトルを計算する第11機能と、
重力加速度方向に対する前記平均加速度ベクトルの角度を計算し、該角度を身体の傾斜角度として、前記姿勢指標を決定する第12機能とをさらに実現させることを特徴とする請求項13に記載の作業状況記録プログラム。
In the work status recording device,
An eleventh function for calculating an average acceleration vector of the predetermined number of the acceleration vector data;
The work situation according to claim 13, further comprising: a twelfth function that calculates an angle of the average acceleration vector with respect to a gravitational acceleration direction and determines the posture index by using the angle as a body inclination angle. Recording program.
前記作業状況記録装置に、
前記注視度及び前記姿勢指標に応じて、作業状況を表す作業行為を決定し、該作業行為を表す情報を、時刻情報と対応させて記録する第13機能さらに実現させることを特徴とする請求項14に記載の作業状況記録プログラム。
In the work status recording device,
The thirteenth function of determining a work action representing a work situation according to the gaze degree and the posture index and recording information representing the work action in association with time information is further realized. 14. A work status recording program according to 14.
JP2004344998A 2004-11-29 2004-11-29 Work status recording apparatus, recording method thereof, and recording program Expired - Fee Related JP4474529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004344998A JP4474529B2 (en) 2004-11-29 2004-11-29 Work status recording apparatus, recording method thereof, and recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004344998A JP4474529B2 (en) 2004-11-29 2004-11-29 Work status recording apparatus, recording method thereof, and recording program

Publications (2)

Publication Number Publication Date
JP2006157463A true JP2006157463A (en) 2006-06-15
JP4474529B2 JP4474529B2 (en) 2010-06-09

Family

ID=36635208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004344998A Expired - Fee Related JP4474529B2 (en) 2004-11-29 2004-11-29 Work status recording apparatus, recording method thereof, and recording program

Country Status (1)

Country Link
JP (1) JP4474529B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175206A (en) * 2004-11-29 2006-07-06 National Institute Of Advanced Industrial & Technology Apparatus, method and program for detecting physical condition
JP2009187527A (en) * 2008-01-12 2009-08-20 Kanto Auto Works Ltd Tracing system
JP2009294731A (en) * 2008-06-02 2009-12-17 Toshiba Corp Plant controller automatically extracting operation know-how
JP2010130085A (en) * 2008-11-25 2010-06-10 Mitsubishi Electric Building Techno Service Co Ltd Goggle-type work analysis apparatus and know-how tradition assistant apparatus using the same
JP2011184121A (en) * 2010-03-05 2011-09-22 Mitsubishi Electric Corp Work content estimation device and work content estimation method
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program
JP2014192861A (en) * 2013-03-28 2014-10-06 Osaka Gas Co Ltd Monitoring support system
JP2017118319A (en) * 2015-12-24 2017-06-29 株式会社日立システムズ Video retrieval system
JP2021166091A (en) * 2017-08-24 2021-10-14 キヤノンマーケティングジャパン株式会社 Image processing system, image processing method and computer program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095795A (en) 2014-11-17 2016-05-26 株式会社東芝 Recognition device, method, and program
JP6483556B2 (en) 2015-07-15 2019-03-13 株式会社東芝 Operation recognition device, operation recognition method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191411A (en) * 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd Scene discrimination method and representative image recording and display device
JPH11136637A (en) * 1997-10-24 1999-05-21 Matsushita Electric Ind Co Ltd Representative image generating device
JPH11250259A (en) * 1998-03-05 1999-09-17 Toshiba Corp Check data picture recording device
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2001352507A (en) * 2000-03-31 2001-12-21 Fuji Photo Film Co Ltd Work data collection method
JP2003244691A (en) * 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd Memory support system
JP2004240264A (en) * 2003-02-07 2004-08-26 Mitsubishi Electric Corp Bodily sensation type training system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191411A (en) * 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd Scene discrimination method and representative image recording and display device
JPH11136637A (en) * 1997-10-24 1999-05-21 Matsushita Electric Ind Co Ltd Representative image generating device
JPH11250259A (en) * 1998-03-05 1999-09-17 Toshiba Corp Check data picture recording device
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2001352507A (en) * 2000-03-31 2001-12-21 Fuji Photo Film Co Ltd Work data collection method
JP2003244691A (en) * 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd Memory support system
JP2004240264A (en) * 2003-02-07 2004-08-26 Mitsubishi Electric Corp Bodily sensation type training system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175206A (en) * 2004-11-29 2006-07-06 National Institute Of Advanced Industrial & Technology Apparatus, method and program for detecting physical condition
JP4547537B2 (en) * 2004-11-29 2010-09-22 独立行政法人産業技術総合研究所 BODY STATE DETECTION DEVICE, DETECTION METHOD AND DETECTION PROGRAM
JP2009187527A (en) * 2008-01-12 2009-08-20 Kanto Auto Works Ltd Tracing system
JP2009294731A (en) * 2008-06-02 2009-12-17 Toshiba Corp Plant controller automatically extracting operation know-how
JP2010130085A (en) * 2008-11-25 2010-06-10 Mitsubishi Electric Building Techno Service Co Ltd Goggle-type work analysis apparatus and know-how tradition assistant apparatus using the same
JP2011184121A (en) * 2010-03-05 2011-09-22 Mitsubishi Electric Corp Work content estimation device and work content estimation method
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program
JP2014192861A (en) * 2013-03-28 2014-10-06 Osaka Gas Co Ltd Monitoring support system
JP2017118319A (en) * 2015-12-24 2017-06-29 株式会社日立システムズ Video retrieval system
JP2021166091A (en) * 2017-08-24 2021-10-14 キヤノンマーケティングジャパン株式会社 Image processing system, image processing method and computer program
JP7279113B2 (en) 2017-08-24 2023-05-22 キヤノンマーケティングジャパン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP4474529B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
US9566004B1 (en) Apparatus, method and system for measuring repetitive motion activity
JP4474529B2 (en) Work status recording apparatus, recording method thereof, and recording program
US7339516B2 (en) Method to provide graphical representation of Sense Through The Wall (STTW) targets
KR101520113B1 (en) Unitary vision and neuro-processing testing center
KR101503761B1 (en) Information processing apparatus, information processing method, and recording medium, for displaying information of object
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
KR101455200B1 (en) Learning monitering device and method for monitering of learning
JP2007006427A (en) Video monitor
US20230044842A1 (en) Work analyzing device and work analyzing method
US20200279102A1 (en) Movement monitoring system
US20190095718A1 (en) Information processing apparatus
CN113569793A (en) Fall identification method and device
JP6157170B2 (en) Monitoring support system
WO2006040008A1 (en) Method of display control using portable equipment with an image sensor
JP7165108B2 (en) Work training system and work training support method
JP7319170B2 (en) Rainfall calculator
RU2016121160A (en) METHOD AND DEVICE FOR PRESENTING A CHOICE OPTION
JP5351704B2 (en) Image sickness tolerance evaluation apparatus and program
KR102281400B1 (en) Analysis support device in steel plant
WO2010137165A1 (en) Technique managing device, and technique managing method
CN113633257B (en) Vestibular function checking method, system, equipment and medium based on virtual reality
CN114639168A (en) Method and system for running posture recognition
Lee et al. Reliability and validity of a posture matching method using inertial measurement unit-based motion tracking system for construction jobs
JP6400258B1 (en) Information presenting apparatus, information presenting system, information presenting method, and information presenting program
JP2001352507A (en) Work data collection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees