JP2019191736A - Determination device, determination method and program - Google Patents
Determination device, determination method and program Download PDFInfo
- Publication number
- JP2019191736A JP2019191736A JP2018081308A JP2018081308A JP2019191736A JP 2019191736 A JP2019191736 A JP 2019191736A JP 2018081308 A JP2018081308 A JP 2018081308A JP 2018081308 A JP2018081308 A JP 2018081308A JP 2019191736 A JP2019191736 A JP 2019191736A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- person
- region
- determination
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、判定装置、判定方法及びプログラムに関する。 The present invention relates to a determination device, a determination method, and a program.
従来、様々な場面において、画像中の人物の手部分を抽出し、その手が左右どちらであるかを判断する手法、及びその結果に基づいて様々な処理を行う手法が提案されている。特許文献1には、映像中の手の指の配置に基づいて左右どちらの手であるかを判断し、その結果に基づいて車載装置の操作を制御する技術が開示されている。特許文献2には、人物が画像中央にいると仮定した上で背景画像と撮像画像の差分から操作者の肘位置を推定し、その位置を基に手の左右を判断する技術が開示されている。特許文献3には、左右の手のテンプレート画像を用意し、撮像画像中でのテンプレートマッチングにより左右どちらの手であるかを判断する技術が開示されている。
Conventionally, in various scenes, a method for extracting a hand portion of a person in an image and determining whether the hand is left or right, and a method for performing various processes based on the result have been proposed.
しかしながら、従来技術においては、状況によっては正しく左右の手の判断を正確に行うことができない場合があるという問題があった。 However, in the prior art, there is a problem that the right and left hands cannot be correctly determined in some situations.
本発明はこのような問題点に鑑みなされたもので、左右の手の判定を正確に行うことを目的とする。 The present invention has been made in view of such problems, and an object thereof is to accurately determine the left and right hands.
そこで、本発明は、判定装置であって、撮影画像において、人物領域を抽出する人物抽出手段と、前記人物領域に基づいて、手領域を抽出する手抽出手段と、前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定手段と、前記人物の向きに基づいて、前記手領域の左右を判定する左右判定手段とを有することを特徴とする。 Therefore, the present invention is a determination apparatus, which is a person extraction unit that extracts a person region in a captured image, a hand extraction unit that extracts a hand region based on the person region, and the person other than the hand region. An orientation specifying means for specifying the orientation of a person based on a positional relationship between the area and the hand area; and a left / right determination means for determining left and right of the hand area based on the orientation of the person. To do.
本発明によれば、左右の手の判定を正確に行うことができる。 According to the present invention, it is possible to accurately determine the left and right hands.
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態に係る撮像システムの全体図である。撮像システムは、サーバ装置100と、撮像装置110とを有している。サーバ装置100は、撮像装置110によって取得された画像(映像)を対象に作業者の手領域を抽出し、左右の手の判定を行う判定装置の一例である。本実施形態においては、図1に示すように作業者Pが物体Qの組み立て等の作業を行っている状況を撮像装置110が撮影するものとする。撮像装置110は、作業者Pの上部に設定されているものとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is an overall view of an imaging system according to the first embodiment. The imaging system includes a
図2は、サーバ装置100のハードウェア構成図である。CPU201は、RAM206やROM207に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU201は、サーバ装置100全体の動作制御を行うと共に、サーバ装置100が行うものとして後述する各処理を実行若しくは制御する。入力装置202は、ボタン群などのユーザインターフェースであり、ユーザが操作することで各種の入力をサーバ装置100に対して行うことができる。出力装置203は、液晶画面やスピーカなどにより構成されており、CPU201による処理結果を表示したり音声出力したりすることができる。なお、入力装置202によるユーザインターフェース機能と出力装置203による表示機能とを組み合わせてタッチパネル画面を構成しても構わない。
FIG. 2 is a hardware configuration diagram of the
通信装置204は、サーバ装置100の外部からのデータの入出力を受け付けるためのUSBポート、LANポートなどのインターフェースにより構成されている。映像データを取得するための撮像装置110や、映像データを記録したメディア、本装置により計測された作業時間を記録するためのメディア等が通信装置204に接続され、処理対象データの入出力が行われる。
The
記憶装置205は、ハードディスクドライブ装置やフラッシュメモリなどにより構成されている。記憶装置205には、OS(オペレーティングシステム)や、サーバ装置100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。以降の説明において、処理に用いる映像データや計測された作業時間データの登録先は記憶装置205となる。記憶装置205に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM206にロードされ、CPU201による処理対象となる。なお、後述するサーバ装置100の機能や処理は、CPU201がROM207又は記憶装置205に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
The
RAM206は、記憶装置205からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM206は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM206は、各種のエリアを適宜提供することができる。ROM207には、サーバ装置100の設定データや起動プログラムなど、書き換え不要なコンピュータプログラムやデータが保存されている。CPU201、入力装置202、出力装置203、通信装置204、記憶装置205、RAM206、ROM207は何れもバス(BUS)208に接続されている。
The
図3は、サーバ装置100の機能構成図である。人物抽出部301は、映像内に存在する人物の抽出を行う。手抽出部302は、人物抽出部301で抽出された人物領域から手領域を1つ乃至2つ抽出する。手領域の抽出には、距離情報とともに色情報も利用される。左右判定部303は、手抽出部302で抽出された手領域がそれぞれ左右いずれの手の領域であるかを判定する。
FIG. 3 is a functional configuration diagram of the
図4は、サーバ装置100による判定処理を示すフローチャートである。まず、S401において、CPU201は、撮像装置110によって取得された動画像のフレーム画像を、通信装置204を通して取得する。CPU201は、ここで、カラー画像と距離画像を取得する。なお、撮像装置110による撮影は、記憶装置205に記憶された撮影パラメータに従って行われる。この動画像は、ストリーミング形式で逐次処理される。また、他の例としては、CPU201は、取得した動画像を記憶装置205に記録し、一定時間毎に処理を行ってもよい。
FIG. 4 is a flowchart illustrating the determination process performed by the
次に、S402において、CPU201は、S401で取得したフレーム画像が最終フレームか否かを判定する。CPU201は、最終フレームの場合には(S402でYES)、これ以上処理する対象が存在しないため、判定処理を終了する。CPU201は、最終フレームでない場合には(S402でNO)、処理をS403へ進める。
Next, in S402, the
S403において、人物抽出部301は、フレーム画像中から人物領域を抽出する。人物抽出部301は、S401で取得したカラー画像及び距離画像の双方のフレーム画像を用いて処理を行う。具体的には、人物抽出部301は、まず、予め用意しておいた人物の存在しない背景画像とフレーム画像との差分を取り、大まかに人物領域を取る。次に、人物抽出部301は、色情報や抽出された領域のサイズ情報を参照し、サイズが極端に小さい等明らかに人物ではない領域を除いた領域を人物として抽出する。
In step S403, the
次に、S404において、手抽出部302は、S403で抽出された人物領域を対象に手領域の抽出を行う。具体的には、手抽出部302は、撮像範囲内に人物よりも高いものはないと仮定し、S403で抽出した人物領域中で一番高い、つまり距離値が一番小さい画素とその周辺の領域を頭部と推定する。次に、手抽出部302は、頭部と推定された領域近傍を削除し、残った領域と頭部領域との平面距離を計算する。図1に示す撮影環境では、作業中に頭部から平面距離で一番離れているのは手領域であると考えられるので、手抽出部302は、残った領域のうち平面距離が一番目と二番目に離れている領域を手領域であると推測し、抽出する。
Next, in S <b> 404, the
次に、S405において、左右判定部303は、S404で手領域を2つ抽出したか否かを判定する。作業中に、周囲のものや作業者自体の陰になって片手または両手ともに画像中に現れないことがある。このような場合には手の左右を判定することが困難であるため、このステップで処理を分ける。左右判定部303は、手領域が2つ抽出された場合には(S405でYES)、処理をS406へ進める。左右判定部303は、手領域が1つのみ抽出された場合には(S405でNO、S413でYES)、処理をS414へ進める。左右判定部303は、手領域が抽出されなかった場合には(S405でNO、S413でNO)、判定処理を終了する。
Next, in S405, the left /
S406において、左右判定部303は、前フレームで既に手の左右が判定できていたか否かを判定する。フレーム単位で処理をしていれば、フレーム間で手の位置が大きく変化する可能性は低い。したがって、新たに左右の判定を行うよりも、以前のフレームの情報をそのまま反映した方が、判定し直すよりも判定精度が高く、また計算コストも低くなると考えられる。左右判定部303は、判定できている場合には(S406でYES)、処理をS407へ進める。左右判定部303は、判定できていない場合には(S406でNO)、処理をS409へ進める。S407において、左右判定部303は、前フレームの左右それぞれの手の位置の近傍に現れた現フレームの手領域に、前フレームの左右判定情報を反映させる。左右判定部303は、その後処理をS408へ進める。S408において、CPU201は、処理対象を次のフレームに変更し、その後処理をS401へ進める。なお、S407の処理は、一連の撮影画像に含まれる第1の撮影画像における左右の手の判定結果に基づいて、第2の撮影画像の左右の手を推定する推定処理の一例である。
In step S <b> 406, the left /
一方、S409において、左右判定部303は、まず頭部領域を抽出する。本処理は、頭部抽出処理の一例である。そして、左右判定部303は、頭部と手の間の頭手間距離を求める。次に、S410において、左右判定部303は、頭手間距離と閾値を比較する。ここで、頭手間距離は、ユーザ操作に応じて予め設定されているものとする。左右判定部303は、頭手間距離が閾値よりも大きい場合には(S410でYES)、処理をS411へ進める。左右判定部303は、頭手間距離が閾値以下の場合には(S410でNO)、処理をS408へ進める。S411において、左右判定部303は、手の方向を前方向として人物の方向を特定する。次に、S412において、左右判定部303は、前方向を基準として左の手領域側を左手、右の手領域側を右手と判定する。左右判定部303は、その後処理をS408進める。
On the other hand, in S409, the left /
図5は、S409〜S411の処理の説明図である。フレーム画像500は、作業者が前方向に手を伸ばし作業を行っている様子の撮影図である。一方、フレーム画像510は、作業者が背伸びをしている様子の撮影図である。左右判定部303は、フレーム画像500において、作業者の頭部501と作業者の右手502と左手503のバウンディングボックス504を求め、バウンディングボックス504の位置を手の位置として特定する。そして、手の位置と頭の位置の間の頭手間距離505を算出する。左右判定部303は、フレーム画像510についても同様の処理により作業者の頭部511とバウンディングボックス512の間の頭手間距離513を算出する。
FIG. 5 is an explanatory diagram of the processing of S409 to S411. The
人間は通常の作業をしている場合、体の前方の方が後方よりも腕を動かす範囲が広い。このことを利用し、本実施形態のサーバ装置100においては、上述のように頭手間距離の閾値を設定し、頭手間距離が閾値よりも長い場合に、手の方向を前方向として特定することとした。すなわち、左右判定部303は、頭手間距離が閾値よりも大きい場合には、手の方向を前方向として特定する。なお、他の例としては、左右判定部303は、頭手間距離が閾値以下の場合には、手の方向と逆の方向を前方向と推定してもよい。なお、S409〜S411の処理は、手領域以外の人物領域としての頭部領域と手領域の間の位置関係に基づいて、人物の向きを特定する向き特定処理の一例である。
When humans are doing normal work, the front of the body has a wider range of movement of the arm than the back. By using this, in the
図4に戻り、S414において、左右判定部303は、前フレームで既に手の左右が判定できていたか否かを判定する。本処理は、S406の処理と同様である。左右判定部303は、判定できている場合には(S414でYES)、処理をS415へ進める。左右判定部303は、判定できていない場合には(S414でNO)、処理をS408へ進める。S415において、左右判定部303は、前フレームの左右それぞれの手の位置の近傍に現れた現フレームの手領域に、前フレームの左右判定情報を反映させる。本処理は、S407の処理と同様である。
Returning to FIG. 4, in S414, the left /
以上のように、判定処理において、作業者の頭部と手領域の位置関係を利用して作業者の向いている方向を推定することができる。これにより、作業者の手領域の左右判定を行うことができる。図6に示すように、作業者Pが作業台600において物体601の作業を行うだけでなく、映像中の他の場所610,620に移動して作業を行うことがある。本実施形態のサーバ装置100は、このように作業場所を移動することで、作業者Pの位置や向きが変化する場合においても、正確に左右の手を判定することができる。さらに、作業者Pが作業台600の前に位置しつつ後ろを向いたような場合でも、作業者Pの向きを判定した上で左右の手を判定するため、正確に左右の手を判定することができる。
As described above, in the determination process, the direction in which the worker is facing can be estimated using the positional relationship between the worker's head and the hand region. Thereby, it is possible to determine the left and right of the hand area of the worker. As shown in FIG. 6, the worker P may not only work on the
第1の実施形態の第1の変形例としては、サーバ装置100は、方向の判定結果だけでなく、尤度を求め、この尤度に基づいて、左右の判定結果についても尤度を求めてもよい。本処理は、尤度特定処理の一例である。
As a first modification of the first embodiment, the
また、第2の変形例としては、サーバ装置100は、頭手間距離に応じた重みを算出し、重みに従って左右の判定結果の尤度を求めてもよい。図7に示すグラフは、頭手間距離と重みの関係を示している。なお、図9に示すグラフは、2次関数を模したものであるが、頭手間距離が長くなる程重みが大きくなるような関係であればよく、図9のグラフの関係に限定されるものではない。他の例としては、例えば1次関数やステップ関数等で表されるような関係であってもよい。
As a second modification, the
また、第3の変形例としては、S410において頭手間距離と比較される閾値は、サーバ装置100が、人物領域の大きさに基づいて決定してもよい。例えば、予め作業者の腕の長さと頭部の大きさを測り、サーバ装置100に登録しておく。そして、サーバ装置100は、画像に映っている頭部の大きさから画像上で腕が到達する範囲を算出し、算出した範囲に基づいて閾値を決定する。さらに、サーバ装置100は、複数のフレームの推定の累積値を用いてもよい。これにより、1フレームだけで推定することに起因したミスを防ぐことができる。本処理は、閾値決定処理の一例である。
As a third modified example, the threshold value to be compared with the head-to-hand distance in S410 may be determined by the
第4の変形例としては、サーバ装置100は、例えば誤検知が起こりやすい特定の作業を行うタイミング等、特定のタイミングにおいてのみ、左右の手の検出を行うこととしてもよい。
As a fourth modified example, the
(第2の実施形態)
次に、第2の実施形態に係る撮像システムについて、第1の実施形態に係る撮像システムと異なる点を主に説明する。第2の実施形態に係るサーバ装置100は、頭手間距離に替えて、手領域の存在する位置の時間的な統計値に基づいて、左右の手の判定を行う。サーバ装置100の左右判定部303は、図8に示すようにフレーム画像800において、作業者801の中央の位置を中心に、作業者801の周囲の領域を4つの領域A,B、C、Dに分割する。なお、左右判定部303は、作業者801を基準として領域を分割すればよく、その数は、実施形態に限定されるものではない。
(Second Embodiment)
Next, the imaging system according to the second embodiment will be described mainly with respect to differences from the imaging system according to the first embodiment. The
図9は、第2の実施形態に係るサーバ装置100による判定処理を示すフローチャートである。S901〜S904の処理は、それぞれ図4を参照しつつ説明したS401〜S404の処理と同様である。S904の処理の後、S905において、左右判定部303は、手領域が分割により得られた4つの領域811〜814のいずれの領域に属するかを特定する。次に、S906において、左右判定部303は、一定フレーム数について、属する領域を特定する処理を行ったか否かを判定する。左右判定部303は、一定フレーム数の処理が完了した場合には(S906でYES)、処理をS907へ進める。左右判定部303は、一定フレーム数の処理が完了していない場合には(S906でNO)、処理をS910へ進める。S910において、CPU201は、処理対象を次のフレームに変更し、その後処理をS901へ進める。
FIG. 9 is a flowchart illustrating the determination process performed by the
S907において、左右判定部303は、一定フレーム数についての、属する領域の集計を行い、各領域における存在割合を算出する。次に、S908において、左右判定部303は、存在割合が高い2つの領域を人物の前の方向として特定する。ここで、S907の処理は、手が領域に存在する時間を計測する計測処理の一例であり、S908の処理は、計測結果に基づいて、人物の向きを特定する向き特定処理の一例である。次に、S909において、左右判定部303は、前方向を基準として左側の手領域を左手、右側の手領域を右手と判定する。本処理は、S412の処理と同様である。CPU201は、S909の処理の後処理をS910へ進める。図10は、存在割合の一例を示す図である。図10に示す集計結果においては、領域C、Dの方向が前領域として特定される。
In step S907, the left /
人間は通常の作業をしている場合、体の前方で何かしらの作業を行う時間が長いと考えられる。本実施形態のサーバ装置100は、このことを利用して集計情報から被写体人物の向きを推定する。また、一定時間が経過するまで左右判定を行わないので、処理開始初期など各領域の存在時間に差がないと考えられるときに推定に失敗する可能性が高いためである。なお、第2の実施形態に係る撮像システムのこれ以外の構成及び処理は、第1の実施形態に係る撮像システムの構成及び処理を同様である。
When humans are doing normal work, it is considered that it takes a long time to do some work in front of the body. The
以上のように、第2の実施形態の撮像システムでは、動画像から、手領域の存在する領域の時間的な割合を集計し、集計結果から左右の手の判定を行うことができる。 As described above, in the imaging system according to the second embodiment, it is possible to add up temporal ratios of regions where hand regions exist from a moving image, and to determine left and right hands from the result of counting.
第2の実施形態の第1の変形例としては、サーバ装置100は、さらに、存在割合に基づいて、尤度を求めてもよい。
As a first modification of the second embodiment, the
また、第2の変形例としては、サーバ装置100は、何かしらの理由で作業が中断、停止するなどして動きがない、もしくは作業と関係ない動きをしている際には、その情報を手動もしくは外部センサ等から入力し、その間は集計を中断してもよい。
As a second modification, when the
(第3の実施形態)
次に、第3の実施形態に係る撮像システムについて、第1の実施形態に係る撮像システムと異なる点を主に説明する。第3の実施形態に係るサーバ装置100は、作業において使用される物体と手の関係を利用して、左右の手の判定を行う。
(Third embodiment)
Next, the imaging system according to the third embodiment will be described mainly with respect to differences from the imaging system according to the first embodiment. The
図11は、第3の実施形態に係るサーバ装置100の機能構成図である。サーバ装置100は、第1の実施形態に係るサーバ装置100の機能構成に加えて、物体特定部1101と、接触判定部1102とを有している。物体特定部1101は、フレーム画像において、予め定められた物体で、作業に用いられる物体の位置を特定する。以下、この物体を特定物体と称する。特定物体としては、例えばドライバ等が挙げられる。特定物体の位置を特定するための方法としては、例えばテンプレートマッチングが挙げられる。また、他の例としては、局所特徴量や機械学習を用いた手法が挙げられる。また、他の例としては、特定物体にマーカ等識別できるような情報を添付しておき、その情報を利用してもよい。接触判定部1102は、フレーム画像に基づいて、特定物体と手領域との接触を判定する。
FIG. 11 is a functional configuration diagram of the
図12は、第3の実施形態に係るサーバ装置100による判定処理を示すフローチャートである。S1201〜S1204の処理は、それぞれ図4を参照しつつ説明したS401〜S404の処理と同様である。S1204の処理の後、S1205において、物体特定部1101は、フレーム画像において、特定物体の位置を特定する。本処理は、物体領域を抽出する物体抽出処理の一例である。次に、S1206において、接触判定部1102は、手が特定物体に接触しているか否かを判定する。図13に示すように、作業者Pが特定物体としてのドライバ1300を手に取った場合には、接触していると判定される。接触判定部1102は、具体的には、手領域と特定物体の領域とが重複又は隣接している場合に、両者が接触していると判定する。
FIG. 12 is a flowchart illustrating the determination process performed by the
接触判定部1102は、接触している場合には(S1206でYES)、処理をS1207へ進める。接触判定部1102は、接触していない場合には(S1206でNO)、処理をS1209へ進める。S1209において、CPU201は、処理対象を次のフレームに変更し、その後処理をS901へ進める。
If the
S1207において、左右判定部303は、接触が特定された方向を人物の前方向として特定する。本処理は、物体領域側を人物の前方向として特定する向き特定処理の一例である。次に、S1208において、左右判定部303は、前方向を基準として左側の手領域を左手、右側の手領域を右手と判定する。本処理は、S412の処理と同様である。CPU201は、S1208の処理の後処理をS1209へ進める。
In step S1207, the left /
人間は通常の作業をしている場合、作業に使う道具を取得する際にはその道具の方を向く。少なくとも、背後にあるものに対して振り返らずに手を伸ばす可能性は非常に低い。本実施形態のサーバ装置100は、このことを利用して特定物体の接触が特定された方向を被写体人物の向きと推定する。なお、第3の実施形態に係る撮像システムのこれ以外の構成及び処理は、他の実施形態に係る撮像システムの構成及び処理と同様である。
When a human is doing normal work, he or she faces the tool when acquiring the tool to use for work. At least, it's very unlikely to reach out without looking back at what's behind it. The
以上のように、第3の実施形態の撮像システムでは、動画像から特定物体を抽出し、特定物体と手の接触が特定された領域に基づいて、左右の手の判定を行うことができる。 As described above, in the imaging system according to the third embodiment, a specific object can be extracted from a moving image, and left and right hands can be determined based on a region in which contact between the specific object and the hand is specified.
第3の実施形態の第1の変形例としては、サーバ装置100は、特定物体を複数用意しておき、複数の特定物体に対する判定結果に基づいて、左右の手の判定を行ってもよい。1回の推定だけでは正しい推定結果を得られないこともある。例えば、作業者のほぼ真横に置いてある物体を対象とすると、間違った判定結果になる可能性が高い。これに対し、本例によれば、より正確に判定を行うことができる。
As a first modification of the third embodiment, the
第2の変形例としては、サーバ装置100は、接触機会毎に何回判定したかを集計し、判定成功割合から、左右の手の判定結果の尤度を求めてもよい。
As a second modified example, the
(第4の実施形態)
次に、第4の実施形態に係る撮像システムについて、他の実施形態に係る撮像システムと異なる点を主に説明する。本実施形態のサーバ装置100は、第1〜第3の実施形態において説明した左右の手の判定結果から、最終的な判定結果を求める。サーバ装置100はさらに、各手法の推定結果に重みづけを行って最終的な推定結果を求めるものとする。サーバ装置100は、例えば、図14の表1400に示すように、尤度として出力されたエリア毎の右手かどうかの推定結果に、予め設定した重みを乗じて合計し、最終的な結果とすることができる。
(Fourth embodiment)
Next, an imaging system according to the fourth embodiment will be described mainly with respect to differences from the imaging system according to other embodiments. The
なお、サーバ装置100は、ユーザ操作に応じて各手法の重みを設定するものとする。他の例としては、サーバ装置100は、例えばこれまでの推定成功率を基に自動的に重みを算出してもよい。また、各手法の推定結果は、表1400のように尤度としてもよいし、2値での出力でもよい。さらには、手法毎に尤度と2値が混ざっていてもよい。第4の実施形態に係る撮像システムの構成及び処理は、他の実施形態に係る撮像システムの構成及び処理と同様である。
In addition, the
以上のように、第4の実施形態の撮像システムでは、複数の手法による判定結果を統合することで、左右の手をより正確に判定することができる。 As described above, in the imaging system according to the fourth embodiment, the left and right hands can be more accurately determined by integrating the determination results obtained by a plurality of methods.
(第5の実施形態)
次に、第5の実施形態に係る撮像システムについて、他の実施形態に係る撮像システムと異なる点を主に説明する。本実施形態のサーバ装置100は、他の実施形態において説明した手法で左右の手を判定し、判定結果を用いて、作業者が決められた作業(特定の作業)を行っているかどうかを判定するものである。
(Fifth embodiment)
Next, an imaging system according to the fifth embodiment will be described mainly regarding differences from the imaging system according to other embodiments. The
図15は、作業判定処理の説明図である。サーバ装置100は、作業者Pがエリア1501に接触したかどうかで決められた作業を行ったことを検出する。例えば作業者が決められた部品をエリア1501の近傍の部位1502に取り付ける際に、作業者の手がエリア1501に触れる。これを利用し、作業を行ったか否かを検出する。しかし、別の作業を行う際にエリア1501を触れてしまう可能性もある。例えば、図15に示すように、ドライバ1503を取るという、想定された特定の作業とは異なる作業により、エリア1501を触れてしまう、ということがあり得る。
FIG. 15 is an explanatory diagram of the work determination process. The
そこで、サーバ装置100は、エリア1501に触れるべき手が左右どちらであるかを予め設定しておく。そして、サーバ装置100は、接触判定の際に左右判定結果を利用し、特定のエリア1501に接触したのが左右のいずれの手であるかを判定することで、より正確に作業判定を行うことができる。本処理は、接触判定処理の一例である。
Therefore, the
サーバ装置100に、例えばエリア1501で作業したと判定すべきなのは右手が触れたとき、と設定されているとする。この場合には、図15に示すように、左手がエリア1501に触れた場合には、作業を行ったと判定されることがない。このように、正確に判定を行うことができる。
For example, it is assumed that the
サーバ装置100は、このように、左右判定の結果を用いることで、正解とする作業シーケンスの粒度を細かく設定することもできる。例えば手領域が接触したかを利用して複数の作業を検出するため複数のエリアを設定する場合を考える。この場合、領域の左右が区別できないと、先述のように右手で触れるべきエリアを左手が触れて誤検出されないよう、エリアの設定位置や正解シーケンスに制限がかかる可能性がある。しかし、手領域の左右の区別ができるのであれば、正解シーケンスに左右どちらの手で触れたときに検出すべきかを設定することができるので、より細かいシーケンスを作ることができる。結果として、より多くの作業をより精度よく検出することができるようになる。
Thus, the
また、サーバ装置100は、予め作業者の利き手を登録しておき、その情報に応じて正解シーケンスの変更を行うことも可能である。例えば、ドライバなどの道具を扱うのは利き手であることが想定される。そこで、サーバ装置100は、利き手の情報に基づいて、一方の手を決定し、決定した方の手を検出対象とする。本処理は、左右決定処理の一例である。そして、サーバ装置100は、右利き用に作成された正解シーケンスで道具を扱う作業は右手で接触した時に検出し、左利き用に作成された正解シーケンスで道具を扱う作業は左手で接触した時に検出する。
The
また、処理を開始してしばらくの間は、左右の判定を行うのに十分な情報が得られず、判定を実施できないことがありうる。その場合には、サーバ装置100は、ある手領域が右である、左である両方の想定をして作業検知を仮にしておく。そして左右の推定結果尤度が閾値を超えた時点で、サーバ装置100は、その情報を時系列の逆方向に伝播させ、正しい作業検知結果のみを残すことによって、手の左右を判定できなかったタイミングについても処理を行うことが可能になる。同様に、サーバ装置100は、手の左右の推定尤度が閾値未満だった場合には、閾値以上となった時点の結果を利用して再評価することも可能である。
In addition, for a while after starting the process, there is a possibility that sufficient information cannot be obtained to perform the left / right determination, and the determination cannot be performed. In that case, the
このように、本実施形態によれば、作業者が作業をしている動画像から、作業者の手領域の抽出及びその領域の左右の推定結果を利用することにより、作業の検出精度を高めることができる。これにより、より細かい作業、多様な作業を検出することができる。 As described above, according to the present embodiment, the detection accuracy of the work is improved by using the extraction of the worker's hand region and the left and right estimation results of the region from the moving image of the worker. be able to. Thereby, a finer work and various work can be detected.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 サーバ装置
110 撮像装置
301 人物抽出部
302 手抽出部
303 左右判定部
DESCRIPTION OF
Claims (14)
前記人物領域に基づいて、手領域を抽出する手抽出手段と、
前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定手段と、
前記人物の向きに基づいて、前記手領域の左右を判定する左右判定手段と
を有することを特徴とする判定装置。 A person extracting means for extracting a person area in the photographed image;
Hand extraction means for extracting a hand region based on the person region;
From the positional relationship between the person area other than the hand area and the hand area, direction specifying means for specifying the direction of the person,
A determination apparatus comprising: a left / right determination unit configured to determine the right / left of the hand region based on the orientation of the person.
前記向き特定手段は、前記頭部領域と前記手領域との位置関係に基づいて、人物の向きを特定することを特徴とする請求項1に記載の判定装置。 Further comprising a head extraction means for extracting a head region based on the person region;
The determination apparatus according to claim 1, wherein the direction specifying unit specifies a direction of a person based on a positional relationship between the head region and the hand region.
前記向き特定手段は、前記計測手段による計測結果に基づいて、人物の向きを特定することを特徴とする請求項1に記載の判定装置。 It further has a measuring means for measuring the time in which the hand region exists in each region divided with reference to the center of the person region,
The determination apparatus according to claim 1, wherein the direction specifying unit specifies a direction of a person based on a measurement result by the measuring unit.
前記向き特定手段は、前記手領域と物体領域とが重なった場合に、前記物体領域側を人物の前方向と特定することを特徴とする請求項1に記載の判定装置。 Further comprising object extracting means for extracting an object region based on the photographed image,
The determination apparatus according to claim 1, wherein the orientation specifying unit specifies the object region side as the front direction of the person when the hand region and the object region overlap each other.
前記人物領域に基づいて、手領域を抽出する手抽出ステップと、
前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定ステップと、
前記人物の向きに基づいて、前記手領域の左右を判定する左右判定ステップと
を含むことを特徴とする判定方法。 A person extraction step of extracting a person area in the photographed image;
A hand extraction step of extracting a hand region based on the person region;
A direction specifying step for specifying the direction of the person from the positional relationship between the person area other than the hand area and the hand area;
And a left / right determination step of determining left / right of the hand area based on the orientation of the person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018081308A JP2019191736A (en) | 2018-04-20 | 2018-04-20 | Determination device, determination method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018081308A JP2019191736A (en) | 2018-04-20 | 2018-04-20 | Determination device, determination method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019191736A true JP2019191736A (en) | 2019-10-31 |
Family
ID=68390320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018081308A Pending JP2019191736A (en) | 2018-04-20 | 2018-04-20 | Determination device, determination method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019191736A (en) |
-
2018
- 2018-04-20 JP JP2018081308A patent/JP2019191736A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
KR101603017B1 (en) | Gesture recognition device and gesture recognition device control method | |
JP6159179B2 (en) | Image processing apparatus and image processing method | |
JP6201379B2 (en) | Position calculation system, position calculation program, and position calculation method | |
US10692291B2 (en) | Apparatus, method, and medium for generating a 3D model of a finger using captured image | |
WO2022073427A1 (en) | Visual positioning method and apparatus for object grabbing point, and storage medium and electronic device | |
WO2010126071A1 (en) | Object position inference device, object position inference method, and program | |
WO2014050432A1 (en) | Information processing system, information processing method and program | |
JP6210234B2 (en) | Image processing system, image processing method, and program | |
CN109298786B (en) | Method and device for evaluating marking accuracy | |
JP6502511B2 (en) | Calculation device, control method of calculation device, and calculation program | |
JP2017129567A5 (en) | ||
CN112115894B (en) | Training method and device of hand key point detection model and electronic equipment | |
JPWO2009142098A1 (en) | Image processing apparatus, camera, image processing method and program | |
JP2021012684A (en) | Detection of finger press from live video stream | |
JP6828708B2 (en) | Control device, surveillance system, and surveillance camera control method | |
JP6950644B2 (en) | Attention target estimation device and attention target estimation method | |
KR101308184B1 (en) | Augmented reality apparatus and method of windows form | |
JP6991045B2 (en) | Image processing device, control method of image processing device | |
JP2020021421A (en) | Data dividing device, data dividing method, and program | |
JP6558831B2 (en) | Object tracking apparatus, method and program | |
JP5448952B2 (en) | Same person determination device, same person determination method, and same person determination program | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019191736A (en) | Determination device, determination method and program | |
JP2017016356A5 (en) |