JPH0759754A - Active state monitoring apparatus - Google Patents

Active state monitoring apparatus

Info

Publication number
JPH0759754A
JPH0759754A JP5212810A JP21281093A JPH0759754A JP H0759754 A JPH0759754 A JP H0759754A JP 5212810 A JP5212810 A JP 5212810A JP 21281093 A JP21281093 A JP 21281093A JP H0759754 A JPH0759754 A JP H0759754A
Authority
JP
Japan
Prior art keywords
worker
area
detected
data
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5212810A
Other languages
Japanese (ja)
Inventor
Hideto Fujita
日出人 藤田
Hiroaki Yoshida
博明 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP5212810A priority Critical patent/JPH0759754A/en
Publication of JPH0759754A publication Critical patent/JPH0759754A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide an active state monitoring apparatus which monitors the acting state of a worker by detecting infrared rays radiated from the body of the worker by specifying the worker accurately even when a plurality of men exist within a detection image area. CONSTITUTION:A part detection means 5 is provided to detect parts of a human body existing in an detection image area based on area information and or positional information in the area extracted by a processing of extracting an infrared image data detected by an infrared image detection means 2 using the upper limit and the lower limit of a skin temperature band as threshold. A worker detection means 8 is provided to specify part areas of a worker based on a high-frequency component of a luminance data of a visible image corresponding to part areas of the human body of the worker as detected by a part detection means 5 and a mean 3 to monitor the acting state of the worker based on coordinate path of parts of the worker specified by the worker detection means 8.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、人体から放射される赤
外線を検出して作業者の活動状態を監視する装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting infrared rays emitted from a human body to monitor the activity state of an operator.

【0002】[0002]

【従来の技術】近年、無人化する製造プラントなどの大
規模自動化システムにおける集中制御室の役割は極めて
重要となっている。そして、そのシステムの運行を管理
する作業者の疲労、覚醒による作業ミスが大事故に発展
する恐れがある。
2. Description of the Related Art In recent years, the role of a centralized control room in a large-scale automated system such as an unmanned manufacturing plant has become extremely important. Then, there is a possibility that a worker who manages the operation of the system may be fatigued and a work error due to awakening may cause a serious accident.

【0003】このため、作業者の活動状態を監視し、疲
労度、覚醒度などを検出することが重要な課題となって
おり、この監視方法として、本願出願人は人体から放射
される赤外線を検出して人体の部位抽出を行い、各部位
の活動状態を監視する方法を提案している。
Therefore, it is an important subject to monitor the activity state of the worker and detect the degree of fatigue, the degree of awakening, etc. As a monitoring method, the applicant of the present invention uses infrared rays emitted from the human body. We propose a method to detect the human body part and extract the part of the human body to monitor the activity status of each part.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来技術では監視すべき作業者が従事する場所を含む領域
の赤外画像を赤外カメラで撮らえ、その検出された赤外
画像に基づいて人体の部位抽出を行わせているため、検
出画像領域内に人体以外の赤外線放射物が存在する場合
には、人体の部位抽出のみを確実に行うことができない
恐れがあった。
However, in the above-mentioned prior art, an infrared camera captures an infrared image of a region including a place where a worker to be monitored is engaged, and the human body is detected based on the detected infrared image. Since the part extraction is performed, there is a possibility that only the part extraction of the human body cannot be surely performed when the infrared radiation substance other than the human body exists in the detected image area.

【0005】また、赤外カメラの他に、CCDカメラを
用いて赤外画像、及び可視画像に基づいて人体の部位抽
出を行わせた場合には、人体の部位抽出を確実に行うこ
とができるが、検出画像領域内に他の人間が居る場合に
は、作業者を特定できず誤検出することがあった。
In addition to the infrared camera, when the CCD camera is used to extract the human body part based on the infrared image and the visible image, the human body part can be surely extracted. However, when another person is present in the detected image area, the worker may not be specified and may be erroneously detected.

【0006】本発明は、斯かる点に鑑みてなされたもの
であって、検出画像領域内に複数の人間が存在している
場合においても、確実に作業者を特定し、その作業者の
人体から放射される赤外線を検出して人体の部位抽出を
行い、各部位の活動状態を監視して作業者の疲労度、覚
醒度などを検出できる活動状態監視装置を提供すること
を目的とする。
The present invention has been made in view of the above point, and even when there are a plurality of persons in the detected image area, the operator can be reliably identified and the human body of the operator can be identified. It is an object of the present invention to provide an activity state monitoring device capable of detecting infrared rays emitted from a human body to extract a part of a human body, monitoring the activity state of each part, and detecting the fatigue level, awakening level, etc. of an operator.

【0007】[0007]

【課題を解決するための手段】本発明は、作業者が従事
する場所に焦点が調整され、該作業者の可視画像を撮像
する撮像手段と、該撮像手段による検出画像領域と同一
領域の赤外画像を検出する赤外画像検出手段と、該赤外
画像検出手段により検出された赤外画像データを皮膚温
度帯域の上限、及び下限を閾値としてデータの抽出処理
を行い、抽出された各領域の面積情報、及び/または位
置情報に基づいて、前記検出画像領域に存在する人体の
各部位を検出する部位検出手段と、該部位検出手段によ
り検出された人体の各部位領域に対応する前記可視画像
の輝度データの高周波成分に基づいて、前記作業者の各
部位領域を特定する作業者検出手段と、該作業者検出手
段により特定された前記作業者の各部位の座標軌跡に基
づいて作業者の活動状態を監視する手段と、を備えてい
ることを特徴とする活動状態監視装置である。
According to the present invention, a focus is adjusted to a place where a worker is engaged, and an image pickup means for picking up a visible image of the worker, and a red image in the same area as an image area detected by the image pickup means. Infrared image detecting means for detecting an outside image, and infrared image data detected by the infrared image detecting means is subjected to data extraction processing with the upper limit and the lower limit of the skin temperature band as thresholds, and each extracted region Based on the area information and / or position information of the human body, the body part detecting means for detecting each body part existing in the detected image area, and the visible part corresponding to each body part area detected by the body part detecting means. A worker detection unit that specifies each part region of the worker based on the high-frequency component of the brightness data of the image, and a worker based on the coordinate locus of each part of the worker specified by the worker detection unit Live It is active monitoring device according to claim which comprises a means for monitoring the condition, the.

【0008】[0008]

【作用】本発明によれば、検出画像領域内に複数の人間
が存在している場合においても、確実に作業者を特定で
き、その作業者の人体から放射される赤外画像データに
基づいて、作業者の部位抽出、及び各抽出部位の活動状
態を監視することができる。
According to the present invention, even when a plurality of persons are present in the detected image area, the operator can be identified with certainty, and based on the infrared image data radiated from the human body of the operator. It is possible to monitor the site extraction of the worker and the activity status of each extracted site.

【0009】[0009]

【実施例】以下、本発明をその実施例を示す図面に基づ
いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings showing the embodiments thereof.

【0010】図1は、本発明の一実施例を示す活動状態
監視装置の概略ブロック図である。同図において、1は
監視すべき作業者が従事している場所の可視画像を撮像
する撮像手段であり、RGB信号からなる映像データを
出力するCCDカメラにより構成され、CCDカメラ1
の焦点が作業者が従事する場所に合うように調整されて
いる。
FIG. 1 is a schematic block diagram of an activity monitoring apparatus showing an embodiment of the present invention. In the figure, reference numeral 1 is an image pickup means for picking up a visible image of a place where a worker to be monitored is engaged, and is constituted by a CCD camera for outputting video data consisting of RGB signals.
The focus of the is adjusted to the place where the worker is engaged.

【0011】2はCCDカメラ1による検出画像領域と
同一領域の赤外画像を検出し、赤外画像データとして出
力する赤外画像検出手段であり、赤外カメラにより構成
されている。3はCCDカメラ1、及び赤外カメラ2の
駆動を制御し、検出された映像データ、及び赤外画像デ
ータが供給される主制御部であり、CPU(マイクロコ
ンピュータ)により構成されている。尚、本実施例では
CPU3にCCDカメラ1、及び赤外カメラ2からの映
像データ、及び赤外画像データを0.1秒毎に取り込んで
いる。
Reference numeral 2 denotes an infrared image detecting means for detecting an infrared image in the same area as the image area detected by the CCD camera 1 and outputting it as infrared image data, which is composed of an infrared camera. Reference numeral 3 denotes a main control unit that controls the driving of the CCD camera 1 and the infrared camera 2, and is supplied with the detected video data and infrared image data, and is composed of a CPU (microcomputer). In the present embodiment, the CPU 3 takes in the video data from the CCD camera 1 and the infrared camera 2 and the infrared image data every 0.1 seconds.

【0012】4はCPU3に接続され、CCDカメラ
1、及び赤外カメラ2からの映像データ、及び赤外画像
データに基づいて、後述するように、人体の部位抽出
(本実施例では、顔領域、右手領域、左手領域を抽出し
ている。)、及び活動状態の監視を行うプログラムを格
納してあるROM、5はCCDカメラ1、及び赤外カメ
ラ2からの映像データ、及び赤外画像データに基づい
て、検出画像領域に存在する各人の部位抽出を行い、抽
出部位の種類を判別する部位検出手段である。具体的に
は、この部位検出手段5において、CCDカメラ1から
の映像データと、予めRAM6に記憶された検出画像領
域内に人間が存在しない場合の映像データとの差から、
検出画像領域に存在する各人の映像データの抽出処理を
行い、その抽出された映像データ領域に対応する赤外画
像データを皮膚温度帯域の上限値、及び下限値(本実施
例では皮膚温度帯域の上限値を38℃に、下限値を33
℃とした。)に対応する輝度値を閾値としてデータの抽
出処理を行い、人体の部位抽出を行っている。これによ
り、検出画像領域内に存在する各人の皮膚露出部位が抽
出されることになる。そして、部位検出手段5では、そ
の各人の抽出部位群の各部位の面積情報、及び位置情報
に基づいて抽出部位の種類判別を行っている。
Reference numeral 4 is connected to the CPU 3 and, based on the image data from the CCD camera 1 and the infrared camera 2 and the infrared image data, extracts a part of the human body (in this embodiment, a face area in the present embodiment). , And the right-hand area and the left-hand area are extracted.), And a ROM storing a program for monitoring the activity state, 5 is image data from the CCD camera 1 and the infrared camera 2, and infrared image data. Based on the above, it is a part detecting means for extracting the part of each person existing in the detected image area and discriminating the kind of the extracted part. Specifically, in the part detecting means 5, from the difference between the image data from the CCD camera 1 and the image data when a person does not exist in the detected image area stored in the RAM 6 in advance,
The image data of each person existing in the detected image area is extracted, and the infrared image data corresponding to the extracted image data area is set to the upper limit value and the lower limit value of the skin temperature band (in the present embodiment, the skin temperature band). Upper limit of 38 ℃, lower limit of 33
℃ was made. ) Is used as a threshold value to perform data extraction processing to extract a human body part. As a result, the exposed skin site of each person existing in the detected image area is extracted. Then, the part detecting means 5 determines the type of the extracted part based on the area information and the position information of each part of the extracted part group of each person.

【0013】図2に、この際の抽出部位の概略図を示
す。図中の点描領域は抽出部位を示し、×印は各抽出部
位の重心を示している。そして、検出画像領域内に存在
する個々の人間に対応する抽出部位の種類の判別は、各
抽出部位の面積情報、及び位置情報に基づいて行ってお
り、例えば各人に対する部位抽出結果が図2の場合に
は、面積の一番大きい抽出部位領域Aを顔部と、その他
の抽出部位領域B,Cを手部と判別し、手部の位置関係
から領域Bは右手、領域Cは左手と判別している。
FIG. 2 shows a schematic view of the extraction site in this case. The stippled area in the figure indicates the extraction site, and the X mark indicates the center of gravity of each extraction site. Then, the type of the extraction site corresponding to each person existing in the detected image region is determined based on the area information and the position information of each extraction site, and for example, the site extraction result for each person is shown in FIG. In this case, the extracted part region A having the largest area is determined to be the face part, and the other extracted part regions B and C are determined to be the hand parts. From the positional relationship of the hand parts, the region B is the right hand and the region C is the left hand. It is determined.

【0014】7は部位検出手段5により抽出された人体
の各部位における映像データに基づいて、その輝度デー
タを算出し、その輝度データに周波数解析を施して高周
波成分を検出する高周波検出手段であり、各部位におけ
る輝度データの内、200kHz以上の高周波成分のレベルを
検出している。
Reference numeral 7 is a high frequency detecting means for calculating the luminance data based on the image data of each portion of the human body extracted by the portion detecting means 5 and subjecting the luminance data to frequency analysis to detect a high frequency component. , The level of the high frequency component of 200 kHz or more is detected in the brightness data of each part.

【0015】8は高周波検出手段7の検出データに基づ
いて、検出画像領域に存在する作業者を特定し、その人
体の部位を検出する作業者検出手段である。具体的に
は、高周波検出手段7の検出データに基づいて、検出画
像領域に存在する各人の抽出部位群の高周波成分の積算
を行い、その積算された高周波成分データの値が最も大
きい抽出部位群を作業者の人体の部位であると規定して
いる。これは、予め作業者が従事する場所に、CCDカ
メラ1の焦点が合うように設定されているため、そのC
CDカメラ1から得られる輝度データの高周波成分が大
きくなることを利用している。
Reference numeral 8 denotes a worker detecting means for identifying a worker existing in the detected image area based on the detection data of the high frequency detecting means 7 and detecting the part of the human body. Specifically, based on the detection data of the high frequency detecting means 7, the high frequency components of the extracted region group of each person existing in the detected image area are integrated, and the extracted region having the largest value of the integrated high frequency component data is extracted. The group is defined as the part of the human body of the worker. This is set in advance so that the CCD camera 1 is focused on the place where the worker is engaged.
The fact that the high frequency component of the brightness data obtained from the CD camera 1 becomes large is used.

【0016】即ち、図3に示すように、例えば検出画像
領域内に作業者aの他に、人間bが存在する場合、CC
Dカメラ1の焦点は作業者aが従事する場所に合うよう
に設定されているため、CCDカメラ1から得られる抽
出部位群31〜33の輝度データの高周波成分が、抽出
部位群34〜36の輝度データの高周波成分に比べて大
きくなり、抽出部位群31〜33を作業者aの人体の抽
出部位であると判断する。尚、図中の点描領域は抽出部
位を示し、×印は各抽出部位の重心を示している。
That is, as shown in FIG. 3, when a person b exists in addition to the worker a in the detected image area, CC
Since the focus of the D camera 1 is set so as to match the place where the worker a is engaged, the high frequency components of the brightness data of the extraction site groups 31 to 33 obtained from the CCD camera 1 are the extraction site groups 34 to 36. It becomes larger than the high-frequency component of the brightness data, and the extracted part groups 31 to 33 are determined to be the extracted parts of the human body of the worker a. Incidentally, the stippled area in the drawing indicates the extraction site, and the x mark indicates the center of gravity of each extraction site.

【0017】9は作業者検出手段8により特定された作
業者領域の抽出部位群の赤外画像データ、重心座標デー
タ、及び測定時刻データを格納する、512個のフレー
ムメモリを有する赤外画像情報記憶部である。従って、
赤外画像情報記憶部9には、分解能0.1秒単位で5
1.2秒間の作業者領域の抽出部位群の赤外画像デー
タ、重心座標データ、及び測定時刻データが格納される
ことになる。
Reference numeral 9 denotes infrared image information having 512 frame memories for storing infrared image data, barycentric coordinate data, and measurement time data of the extracted region group of the worker region specified by the worker detecting means 8. It is a storage unit. Therefore,
The infrared image information storage unit 9 has a resolution of 5 seconds in units of 0.1 seconds.
Infrared image data, barycentric coordinate data, and measurement time data of the extracted region group of the worker area for 1.2 seconds are stored.

【0018】10は赤外画像情報記憶部9に格納された重
心座標データを高速フーリエ変換して各抽出部位の周波
数スペクトルを算出する周波数成分算出手段であり、フ
ァストフーリエトランスレータ(以下、FFT回路と略
記する。)により構成されている。11は本装置の動作指
示を画面上から入力可能すると共に、監視結果を表示す
るモニターである。
Reference numeral 10 denotes a frequency component calculation means for calculating the frequency spectrum of each extracted portion by performing a fast Fourier transform on the barycentric coordinate data stored in the infrared image information storage unit 9, and a fast Fourier translator (hereinafter referred to as an FFT circuit). Abbreviated.). Reference numeral 11 denotes a monitor that can input operation instructions of this device on the screen and displays the monitoring result.

【0019】尚、RAM6には、上述した検出画像領域
内に人間が存在しない場合の映像データの他に、ROM
4に格納されたプログラムに基づき算出された、正常作
業時の各抽出部位の重心座標の存在確率分布データ、周
波数成分データ、及び移動速度データを格納させてい
る。
The RAM 6 has a ROM in addition to the video data when a person does not exist in the detected image area described above.
The existence probability distribution data of the barycentric coordinates of each extracted portion during normal work, the frequency component data, and the moving speed data, which are calculated based on the program stored in 4, are stored.

【0020】ここで、CPU3はモニター11から入力さ
れた入力信号に基づきCCDカメラ1、赤外カメラ2、
部位検出手段5、高周波検出手段7、作業者検出手段
8、赤外画像情報記憶部9、及びFFT回路10などを制
御し、検出画像領域内に存在する人体の部位抽出、抽出
部位の種類の判別、作業者の人体の抽出部位群の特定、
及び活動状態の監視を行っている。そして、作業者の活
動状態の監視は、作業者の各抽出部位の座標軌跡に基づ
いて行っており、具体的には後述するように各抽出部位
の重心座標の存在確率、重心座標軌跡から算出した周波
数成分、及び重心の移動速度に基づいて行っている。
Here, the CPU 3 receives the CCD camera 1, the infrared camera 2, and the infrared camera 2 based on the input signal input from the monitor 11.
By controlling the part detection unit 5, the high frequency detection unit 7, the worker detection unit 8, the infrared image information storage unit 9, the FFT circuit 10 and the like, the extraction of the part of the human body existing in the detected image area and the selection of the type of the extracted part Discrimination, identification of the extracted body parts of the human body of the worker,
And monitoring the activity status. Then, the activity state of the worker is monitored based on the coordinate locus of each of the extracted parts of the worker. Specifically, as will be described later, it is calculated from the existence probability of the barycentric coordinates of each extracted part and the barycentric coordinate track. It is performed based on the frequency component and the moving speed of the center of gravity.

【0021】次に、本発明の活動状態監視装置の動作に
ついて図4、及び図5のフローチャートを参照して説明
する。
Next, the operation of the activity monitoring apparatus of the present invention will be described with reference to the flow charts of FIGS. 4 and 5.

【0022】先ず、監視すべき検出画像領域内に人間が
存在しない場合の初期状態検出か否かを判断し(S10
1)、初期状態検出時にはCCDカメラ1を駆動させ、
その映像データを初期値データとしてRAM6に記憶さ
せ(S103)、ステップS101に戻る。
First, it is judged whether or not the initial state is detected when no human is present in the detected image area to be monitored (S10).
1), when detecting the initial state, drive the CCD camera 1,
The video data is stored in the RAM 6 as initial value data (S103), and the process returns to step S101.

【0023】また、ステップS101において初期状態
検出でない、つまり、活動状態の検出動作の場合には、
CCDカメラ1、及び赤外カメラ2を駆動させ、映像デ
ータ、及び赤外画像データを読出す(S105)。
If the initial state is not detected in step S101, that is, if the active state is detected,
The CCD camera 1 and the infrared camera 2 are driven to read the video data and the infrared image data (S105).

【0024】そして、部位検出手段5において検出画像
領域内に存在する各人の部位抽出処理を行い、その抽出
部位の種類を判別している。具体的には、先ずRAM6
に記憶されている初期値データと、ステップS105に
おいて読出された映像データとから、検出画像領域内に
存在する各人の映像データ領域の抽出処理を行う(S1
07)。そして、ステップS107において抽出された
各人の映像データ領域に対応する赤外画像データを、皮
膚の温度帯域に相当する輝度値の範囲で閾値処理を施し
て部位抽出を行い(S109)、各人の抽出部位群につ
いて部位毎にナンバーを割り振る(以下、ラベリングと
略記する)(S111)。尚、本実施例では皮膚温度帯
域を33〜38℃に設定したが、環境、衣服などの条件
により最適値を決定するようにしてもよい。そして、ラ
ベリングされた領域を面積の大きい順からソートし、順
に再度ラベルナンバーを割り振り(S113)、次のス
テップS115では、ラベルの面積情報、位置情報に基
づいて人体の顔部、右手、及び左手領域を判別する。具
体的には、各人に対する抽出部位群の内、面積の一番大
きいラベル1を顔部と判断し、ラベル2、及び3うち右
側にある方を右手、他方を左手と仮定し、所定時間の追
跡処理後、右手、及び左手を判断する。
Then, the region detecting means 5 performs a region extracting process for each person existing in the detected image area to determine the type of the extracted region. Specifically, first, the RAM 6
The image data area of each person existing in the detected image area is extracted from the initial value data stored in step S105 and the image data read in step S105 (S1).
07). Then, the infrared image data corresponding to the video data area of each person extracted in step S107 is subjected to threshold value processing in the range of the brightness value corresponding to the temperature band of the skin to extract the site (S109). A number is assigned to each of the extracted region groups (hereinafter, abbreviated as labeling) (S111). Although the skin temperature band is set to 33 to 38 ° C. in the present embodiment, the optimum value may be determined depending on the conditions such as environment and clothes. Then, the labeled regions are sorted in descending order of area, and label numbers are allocated again in order (S113). In the next step S115, the face part of the human body, the right hand, and the left hand are based on the label area information and the position information. Determine the area. Specifically, the label 1 having the largest area in the extracted region group for each person is determined to be the face portion, and the right side of the labels 2 and 3 is assumed to be the right hand and the other is the left hand, and the predetermined time After the tracking process of 1., the right hand and the left hand are judged.

【0025】次に、以上のステップS107〜S115
の処理により判別された各人に対する顔部、右手、及び
左手領域の映像データを高周波検出手段7に供給して、
その高周波成分のレベルを検出し(S117)、その検
出データを作業者検出手段8に供給して、作業者の抽出
部位群を検出する(S119)。
Next, the above steps S107 to S115.
The image data of the face portion, the right hand, and the left hand area for each person determined by the processing of 1 is supplied to the high frequency detecting means 7,
The level of the high frequency component is detected (S117), and the detection data is supplied to the worker detecting means 8 to detect the extracted region group of the worker (S119).

【0026】そして、次にステップS119で検出され
た作業者の顔部、右手、及び左手の各部位の重心を算出
し(S121)、各抽出部位の赤外画像データ、重心座
標データ、及び測定時刻データを赤外画像情報記憶部9
に入力し格納する(S123)。そして、512組の作
業者の各抽出部位に対する赤外画像データ、重心座標デ
ータ、及び測定時刻データが赤外画像情報記憶部9に格
納されたか否かを判断し(S125)、格納後に次のス
テップに進む。尚、本実施例では、分解能0.1秒単位
で51.2秒間の赤外画像データなどを赤外画像情報記
憶部9に格納させているが、作業内容によってこの値は
適宜変更する必要がある。
Then, the center of gravity of each part of the worker's face, right hand, and left hand detected in step S119 is calculated (S121), and infrared image data, barycentric coordinate data, and measurement of each extracted part are calculated. The time data is stored in the infrared image information storage unit 9
And stores it (S123). Then, it is determined whether or not the infrared image data, the barycentric coordinate data, and the measurement time data for each extracted portion of 512 sets of workers are stored in the infrared image information storage unit 9 (S125). Go to step. In this embodiment, infrared image data for 51.2 seconds with a resolution of 0.1 second is stored in the infrared image information storage unit 9, but this value needs to be changed appropriately depending on the work content. is there.

【0027】次に、赤外画像情報記憶部9に記憶された
作業者の各抽出部位に対する512組の重心座標デー
タ、及び測定時刻データを読出し(S127)、これら
のデータに基づき、各抽出部位毎に所定領域内における
重心の存在確率分布を算出し(S129)、次のステッ
プS131に進む。例えば、左手で水平移動作業を行っ
ている場合における重心の存在確率分布の算出結果を図
6に示す。図中の数字は、その領域内における重心の存
在確率値を表している。
Next, 512 sets of barycentric coordinate data and measurement time data for each extracted part of the operator stored in the infrared image information storage section 9 are read (S127), and based on these data, each extracted part is extracted. The existence probability distribution of the center of gravity in the predetermined area is calculated for each (S129), and the process proceeds to the next step S131. For example, FIG. 6 shows the calculation result of the existence probability distribution of the center of gravity in the case where the horizontal movement work is performed with the left hand. The numbers in the figure represent the probability of existence of the center of gravity within that region.

【0028】ステップS131では、ステップS127
のデータをFFT回路10に入力し、FFT回路10にて算
出された所定領域内における作業者の各抽出部位の周波
数スペクトルを読込み(S133)、各抽出部位の基本
周波数、及び高調波パターンなど、特徴的な周波数成分
を抽出する(S135)。
In step S131, step S127
Is input to the FFT circuit 10, the frequency spectrum of each extracted part of the operator in the predetermined region calculated by the FFT circuit 10 is read (S133), the fundamental frequency of each extracted part, the harmonic pattern, etc. A characteristic frequency component is extracted (S135).

【0029】そして、次のステップS137では、ステ
ップS127のデータに基づき、作業者の各抽出部位毎
の重心の移動速度を算出し、次のステップS139に進
む。
Then, in the next step S137, the moving speed of the center of gravity of each of the extracted parts of the worker is calculated based on the data of step S127, and the process proceeds to the next step S139.

【0030】ステップS139では、基準となる正常時
の作業状態入力、つまり基準設定時か否かを判断し、基
準設定の場合にはステップS141に進み、ステップS
129、S135、及びS137で算出された作業者の
各抽出部位の重心の存在確率分布データ、周波数成分デ
ータ、及び移動速度データをRAM6に格納し、基準設
定動作を終了する。
In step S139, it is judged whether or not the normal working state is set as a reference, that is, whether the reference is set or not.
The existence probability distribution data of the center of gravity of each extracted part of the worker calculated in 129, S135, and S137, the frequency component data, and the moving speed data are stored in the RAM 6, and the reference setting operation is ended.

【0031】また、ステップS139で基準設定時でな
いと判断された場合には、ステップS143に進み、ス
テップS129、S135、及びS137で算出された
作業者の各抽出部位の重心の存在確率分布データ、周波
数成分データ、及び移動速度データと、RAM6に格納
されている記憶データと比較し(S143)、その比較
データに基づいて動作内容の変化を数値化し、その値を
モニター11に表示させ(S145)、活動状態の動作監
視を終了する。ここで、作業者の各抽出部位の重心の存
在確率分布データの比較は、正常動作に対する突発的な
動作を検出し、周波数成分データの比較は、周期的動作
の変化や抽出部位の軌跡変化を検出している。また、重
心の移動速度データの比較は、動作の俊敏さ、緩慢さの
検出を行っている。
If it is determined in step S139 that the standard is not set, the flow advances to step S143, and the existence probability distribution data of the center of gravity of each extracted part of the operator calculated in steps S129, S135, and S137, The frequency component data and the moving speed data are compared with the stored data stored in the RAM 6 (S143), the change in the operation content is digitized based on the comparison data, and the value is displayed on the monitor 11 (S145). , End active activity monitoring. Here, the comparison of the existence probability distribution data of the center of gravity of each extracted part of the worker detects a sudden motion with respect to the normal motion, and the comparison of the frequency component data shows a change in the periodic motion or a change in the locus of the extracted part. It is detecting. In addition, the movement speed data of the center of gravity is compared to detect the agility and slowness of the movement.

【0032】そして、ステップS145では、これらの
比較データを用いて作業者の疲労度、覚醒度を5段階に
分けて数値化している。レベル1は正常状態を、レベル
2は軽微な疲労が見られるが作業に支障が無い状態、レ
ベル3は所定時間内に休憩を要する状態、レベル4は疲
労有りのため作業続行は危険、即座に休憩を要する状
態、レベル5は重度の疲労有りのため作業続行は不可
能、作業者の交替が必要な状態を表している。
Then, in step S145, the fatigue level and the awakening level of the worker are numerically divided into five stages using these comparison data. Level 1 is a normal state, Level 2 is a state where slight fatigue is seen but there is no problem in work, Level 3 is a state where a break is required within a predetermined time, Level 4 is fatigue and it is dangerous to continue work, immediately A state requiring a break, level 5 indicates a state in which work cannot be continued due to severe fatigue, and the worker needs to be replaced.

【0033】尚、上記実施例では、作業者の各抽出部位
の重心の存在確率分布データ、周波数成分データ、及び
移動速度データに基づいて、総合的に人体の活動状態監
視を行う場合について説明したが、個々の比較データを
基に人体の活動状態監視を行わせてもよい。
In the above embodiment, the case where the activity state of the human body is comprehensively monitored based on the existence probability distribution data of the center of gravity of each extracted portion of the worker, the frequency component data, and the moving speed data has been described. However, the activity state of the human body may be monitored based on the individual comparison data.

【0034】[0034]

【発明の効果】以上述べた通り本発明によれば、検出画
像領域内に複数の人間が存在している場合においても、
確実に作業者を特定でき、その作業者の人体から放射さ
れる赤外画像データに基づいて、作業者の部位抽出、及
び各抽出部位の活動状態を監視することができる。
As described above, according to the present invention, even when a plurality of people exist in the detected image area,
The worker can be identified with certainty, and based on the infrared image data radiated from the human body of the worker, site extraction of the worker and the activity state of each extracted site can be monitored.

【0035】従って、作業者の疲労度、覚醒度などの検
出が可能となり、作業者の疲労、覚醒などによる作業ミ
スの発生を未然に防止することができる。
Therefore, it is possible to detect the degree of fatigue of the worker, the degree of awakening, etc., and it is possible to prevent the occurrence of work mistakes due to the fatigue, awakening, etc. of the operator.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す活動状態監視装置の概
略ブロック図である。
FIG. 1 is a schematic block diagram of an activity state monitoring device showing an embodiment of the present invention.

【図2】本発明により人体の部位抽出を行った場合にお
ける抽出部位の概略図である。
FIG. 2 is a schematic diagram of an extracted part when the part of the human body is extracted according to the present invention.

【図3】複数の人間が存在する場合のCCDカメラによ
る検出画像領域の画面図である。
FIG. 3 is a screen view of a detection image area by a CCD camera when a plurality of people are present.

【図4】本発明の活動状態解析動作を説明するためのフ
ローチャートである。
FIG. 4 is a flowchart for explaining an activity state analysis operation of the present invention.

【図5】本発明の活動状態解析動作を説明するためのフ
ローチャートである。
FIG. 5 is a flowchart for explaining an activity state analysis operation of the present invention.

【図6】左手で水平作業を行わせた場合の重心の存在確
率分布を示す。
FIG. 6 shows the existence probability distribution of the center of gravity when horizontal work is performed with the left hand.

【符号の説明】[Explanation of symbols]

1 CCDカメラ(撮像手段) 2 赤外カメラ(赤外画像情報記憶部) 3 CPU(主制御部) 5 部位検出手段 7 高周波検出手段 8 作業者検出手段 10 FFT回路(周波数成分算出手段) 1 CCD camera (imaging unit) 2 infrared camera (infrared image information storage unit) 3 CPU (main control unit) 5 site detection unit 7 high frequency detection unit 8 worker detection unit 10 FFT circuit (frequency component calculation unit)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】作業者が従事する場所に焦点が調整され、
該作業者の可視画像を撮像する撮像手段と、 該撮像手段による検出画像領域と同一領域の赤外画像を
検出する赤外画像検出手段と、 該赤外画像検出手段により検出された赤外画像データを
皮膚温度帯域の上限、及び下限を閾値としてデータの抽
出処理を行い、抽出された各領域の面積情報、及び/ま
たは位置情報に基づいて、前記検出画像領域に存在する
人体の各部位を検出する部位検出手段と、 該部位検出手段により検出された人体の各部位領域に対
応する前記可視画像の輝度データの高周波成分に基づい
て、前記作業者の各部位領域を特定する作業者検出手段
と、 該作業者検出手段により特定された前記作業者の各部位
の座標軌跡に基づいて作業者の活動状態を監視する手段
と、を備えていることを特徴とする活動状態監視装置。
1. The focus is adjusted to the place where the worker is engaged,
Imaging means for picking up a visible image of the worker, infrared image detecting means for detecting an infrared image in the same area as the image area detected by the imaging means, and infrared image detected by the infrared image detecting means Data is extracted using the upper and lower limits of the skin temperature band as thresholds, and based on the area information and / or position information of each extracted region, each part of the human body present in the detected image region is detected. Part detection means for detecting, and worker detection means for specifying each part area of the worker based on the high frequency component of the brightness data of the visible image corresponding to each part area of the human body detected by the part detection means And a means for monitoring the activity status of the worker based on the coordinate trajectory of each part of the worker identified by the worker detection means.
【請求項2】前記監視手段は、前記作業者の各部位の重
心の存在確率、周波数成分、及び移動速度に基づいて作
業者の活動状態を監視することを特徴とする請求項1記
載の活動状態監視装置。
2. The activity according to claim 1, wherein the monitoring means monitors the activity state of the worker based on the existence probability of the center of gravity of each part of the worker, the frequency component, and the moving speed. Condition monitoring device.
JP5212810A 1993-08-27 1993-08-27 Active state monitoring apparatus Pending JPH0759754A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5212810A JPH0759754A (en) 1993-08-27 1993-08-27 Active state monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5212810A JPH0759754A (en) 1993-08-27 1993-08-27 Active state monitoring apparatus

Publications (1)

Publication Number Publication Date
JPH0759754A true JPH0759754A (en) 1995-03-07

Family

ID=16628746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5212810A Pending JPH0759754A (en) 1993-08-27 1993-08-27 Active state monitoring apparatus

Country Status (1)

Country Link
JP (1) JPH0759754A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280484B2 (en) 2007-12-18 2012-10-02 The Invention Science Fund I, Llc System, devices, and methods for detecting occlusions in a biological subject
US8317776B2 (en) 2007-12-18 2012-11-27 The Invention Science Fund I, Llc Circulatory monitoring systems and methods
US8409132B2 (en) 2007-12-18 2013-04-02 The Invention Science Fund I, Llc Treatment indications informed by a priori implant information
JP2013524919A (en) * 2010-04-21 2013-06-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Respiratory motion detector
US9672471B2 (en) 2007-12-18 2017-06-06 Gearbox Llc Systems, devices, and methods for detecting occlusions in a biological subject including spectral learning
KR102312308B1 (en) * 2020-04-06 2021-10-14 (주)앱닥터 Project mediation system, server and method thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280484B2 (en) 2007-12-18 2012-10-02 The Invention Science Fund I, Llc System, devices, and methods for detecting occlusions in a biological subject
US8317776B2 (en) 2007-12-18 2012-11-27 The Invention Science Fund I, Llc Circulatory monitoring systems and methods
US8403881B2 (en) 2007-12-18 2013-03-26 The Invention Science Fund I, Llc Circulatory monitoring systems and methods
US8409132B2 (en) 2007-12-18 2013-04-02 The Invention Science Fund I, Llc Treatment indications informed by a priori implant information
US9672471B2 (en) 2007-12-18 2017-06-06 Gearbox Llc Systems, devices, and methods for detecting occlusions in a biological subject including spectral learning
US9717896B2 (en) 2007-12-18 2017-08-01 Gearbox, Llc Treatment indications informed by a priori implant information
JP2013524919A (en) * 2010-04-21 2013-06-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Respiratory motion detector
KR102312308B1 (en) * 2020-04-06 2021-10-14 (주)앱닥터 Project mediation system, server and method thereof

Similar Documents

Publication Publication Date Title
CN109822398B (en) Numerical control machine tool broken cutter detection system and method based on deep learning
CN110738135B (en) Method and system for judging and guiding worker operation step standard visual recognition
CN112766050B (en) Dressing and operation checking method, computer device and storage medium
US8218814B2 (en) Image data processing apparatus and method for object detection and judging suspicious objects
CN110321780B (en) Abnormal falling behavior detection method based on space-time motion characteristics
WO2021114766A1 (en) Method and system for analyzing behavior pattern of person on the basis of depth data
CN111507261B (en) Visual target positioning-based process operation quality monitoring method
CN109598193A (en) A kind of flame image recognition methods based on artificial intelligence
CN107368786B (en) Machine vision-based passenger passing handrail detection method
CN110579782A (en) Visual positioning and tracking system and method for power operating personnel
JPH0759754A (en) Active state monitoring apparatus
CN111325133A (en) Image processing system based on artificial intelligence recognition
JPH07296299A (en) Image processor and warning device against doze at the wheel using the same
EP0554080B1 (en) Transient event rejection for acquisition and tracking
CN116884082A (en) Patient safety monitoring system and method for radiotherapy room
CN111274872A (en) Template matching-based video monitoring dynamic irregular multi-supervision-area distinguishing method
CN115171039A (en) Personal safety wearing identification method and system
CN111881733B (en) Method and system for judging and guiding worker operation step standard visual identification
JP3005358B2 (en) Human body activity analyzer
CN109815921A (en) The prediction technique and device of the class of activity in hydrogenation stations
JP2667973B2 (en) Mobile monitoring device
JP3667886B2 (en) Application state detection device using visual sensor
Feng et al. Clock drawing test evaluation via object detection for automatic cognitive impairment diagnosis
WO2003005315A1 (en) Vision based method and apparatus for detecting an event requiring assistance or documentation
CN110533014B (en) Operation detection method and device for intelligent equipment