JP2019191736A - Determination device, determination method and program - Google Patents

Determination device, determination method and program Download PDF

Info

Publication number
JP2019191736A
JP2019191736A JP2018081308A JP2018081308A JP2019191736A JP 2019191736 A JP2019191736 A JP 2019191736A JP 2018081308 A JP2018081308 A JP 2018081308A JP 2018081308 A JP2018081308 A JP 2018081308A JP 2019191736 A JP2019191736 A JP 2019191736A
Authority
JP
Japan
Prior art keywords
hand
person
region
determination
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018081308A
Other languages
Japanese (ja)
Inventor
邦洋 長谷川
Kunihiro Hasegawa
邦洋 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018081308A priority Critical patent/JP2019191736A/en
Publication of JP2019191736A publication Critical patent/JP2019191736A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To accurately distinguish between a left hand and a right hand.SOLUTION: A determination device includes: person extraction means which extracts a region of a person in a captured image; hand extraction means which extracts regions of his or her hands on the basis of the region of the person; orientation specifying means which specifies his or her orientation in accordance with a physical relation between regions other than the regions of his or her hands and the regions of his or her hands; and left/right hand determination means which distinguishes between the region of his or her left hand and the region of his or her right hand on the basis of his or her orientation.SELECTED DRAWING: Figure 4

Description

本発明は、判定装置、判定方法及びプログラムに関する。   The present invention relates to a determination device, a determination method, and a program.

従来、様々な場面において、画像中の人物の手部分を抽出し、その手が左右どちらであるかを判断する手法、及びその結果に基づいて様々な処理を行う手法が提案されている。特許文献1には、映像中の手の指の配置に基づいて左右どちらの手であるかを判断し、その結果に基づいて車載装置の操作を制御する技術が開示されている。特許文献2には、人物が画像中央にいると仮定した上で背景画像と撮像画像の差分から操作者の肘位置を推定し、その位置を基に手の左右を判断する技術が開示されている。特許文献3には、左右の手のテンプレート画像を用意し、撮像画像中でのテンプレートマッチングにより左右どちらの手であるかを判断する技術が開示されている。   Conventionally, in various scenes, a method for extracting a hand portion of a person in an image and determining whether the hand is left or right, and a method for performing various processes based on the result have been proposed. Patent Document 1 discloses a technique for determining which hand is left or right based on the arrangement of fingers of a hand in an image and controlling the operation of the in-vehicle device based on the result. Patent Document 2 discloses a technique for estimating the operator's elbow position from the difference between the background image and the captured image and determining the right and left of the hand based on the position assuming that the person is in the center of the image. Yes. Patent Document 3 discloses a technique for preparing left and right hand template images and determining which hand is left or right by template matching in a captured image.

特開2008−221960号公報JP 2008-221960 A 特開2006−11965号公報JP 2006-11965 A 国際公開2011/158511号International Publication 2011/158511

しかしながら、従来技術においては、状況によっては正しく左右の手の判断を正確に行うことができない場合があるという問題があった。   However, in the prior art, there is a problem that the right and left hands cannot be correctly determined in some situations.

本発明はこのような問題点に鑑みなされたもので、左右の手の判定を正確に行うことを目的とする。   The present invention has been made in view of such problems, and an object thereof is to accurately determine the left and right hands.

そこで、本発明は、判定装置であって、撮影画像において、人物領域を抽出する人物抽出手段と、前記人物領域に基づいて、手領域を抽出する手抽出手段と、前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定手段と、前記人物の向きに基づいて、前記手領域の左右を判定する左右判定手段とを有することを特徴とする。   Therefore, the present invention is a determination apparatus, which is a person extraction unit that extracts a person region in a captured image, a hand extraction unit that extracts a hand region based on the person region, and the person other than the hand region. An orientation specifying means for specifying the orientation of a person based on a positional relationship between the area and the hand area; and a left / right determination means for determining left and right of the hand area based on the orientation of the person. To do.

本発明によれば、左右の手の判定を正確に行うことができる。   According to the present invention, it is possible to accurately determine the left and right hands.

第1の実施形態に係る撮像システムの全体図である。1 is an overall view of an imaging system according to a first embodiment. サーバ装置のハードウェア構成図である。It is a hardware block diagram of a server apparatus. サーバ装置の機能構成図である。It is a functional block diagram of a server apparatus. 判定処理を示すフローチャートである。It is a flowchart which shows a determination process. S409〜S411の処理の説明図である。It is explanatory drawing of the process of S409-S411. 作業の様子を示す図である。It is a figure which shows the mode of work. 頭手間距離と重みの関係を示すグラフを示す図である。It is a figure which shows the graph which shows the relationship between head-to-hand distance and weight. 分割処理の説明図である。It is explanatory drawing of a division | segmentation process. 判定処理を示すフローチャートである。It is a flowchart which shows a determination process. 存在割合の一例を示す図である。It is a figure which shows an example of a presence rate. サーバ装置の機能構成図である。It is a functional block diagram of a server apparatus. 判定処理を示すフローチャートである。It is a flowchart which shows a determination process. 作業の様子を示す図である。It is a figure which shows the mode of work. 尤度と重みを示す図である。It is a figure which shows likelihood and weight. 作業判定処理の説明図である。It is explanatory drawing of work determination processing.

以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態に係る撮像システムの全体図である。撮像システムは、サーバ装置100と、撮像装置110とを有している。サーバ装置100は、撮像装置110によって取得された画像(映像)を対象に作業者の手領域を抽出し、左右の手の判定を行う判定装置の一例である。本実施形態においては、図1に示すように作業者Pが物体Qの組み立て等の作業を行っている状況を撮像装置110が撮影するものとする。撮像装置110は、作業者Pの上部に設定されているものとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is an overall view of an imaging system according to the first embodiment. The imaging system includes a server device 100 and an imaging device 110. The server device 100 is an example of a determination device that extracts a worker's hand region from the image (video) acquired by the imaging device 110 and determines the left and right hands. In the present embodiment, it is assumed that the imaging device 110 captures a situation where the worker P is performing an operation such as assembling the object Q as shown in FIG. It is assumed that the imaging device 110 is set above the worker P.

図2は、サーバ装置100のハードウェア構成図である。CPU201は、RAM206やROM207に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU201は、サーバ装置100全体の動作制御を行うと共に、サーバ装置100が行うものとして後述する各処理を実行若しくは制御する。入力装置202は、ボタン群などのユーザインターフェースであり、ユーザが操作することで各種の入力をサーバ装置100に対して行うことができる。出力装置203は、液晶画面やスピーカなどにより構成されており、CPU201による処理結果を表示したり音声出力したりすることができる。なお、入力装置202によるユーザインターフェース機能と出力装置203による表示機能とを組み合わせてタッチパネル画面を構成しても構わない。   FIG. 2 is a hardware configuration diagram of the server apparatus 100. The CPU 201 executes processing using computer programs and data stored in the RAM 206 and ROM 207. As a result, the CPU 201 controls the operation of the entire server apparatus 100 and executes or controls each process described later as what the server apparatus 100 performs. The input device 202 is a user interface such as a button group, and various inputs can be made to the server device 100 by a user operation. The output device 203 is configured by a liquid crystal screen, a speaker, and the like, and can display a processing result by the CPU 201 and output sound. The touch panel screen may be configured by combining the user interface function by the input device 202 and the display function by the output device 203.

通信装置204は、サーバ装置100の外部からのデータの入出力を受け付けるためのUSBポート、LANポートなどのインターフェースにより構成されている。映像データを取得するための撮像装置110や、映像データを記録したメディア、本装置により計測された作業時間を記録するためのメディア等が通信装置204に接続され、処理対象データの入出力が行われる。   The communication device 204 includes an interface such as a USB port and a LAN port for receiving input / output of data from the outside of the server device 100. An imaging device 110 for acquiring video data, a medium for recording video data, a medium for recording work time measured by this apparatus, and the like are connected to the communication device 204, and input / output of processing target data is performed. Is called.

記憶装置205は、ハードディスクドライブ装置やフラッシュメモリなどにより構成されている。記憶装置205には、OS(オペレーティングシステム)や、サーバ装置100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。以降の説明において、処理に用いる映像データや計測された作業時間データの登録先は記憶装置205となる。記憶装置205に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM206にロードされ、CPU201による処理対象となる。なお、後述するサーバ装置100の機能や処理は、CPU201がROM207又は記憶装置205に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。   The storage device 205 is configured by a hard disk drive device, a flash memory, or the like. The storage device 205 stores an OS (operating system) and computer programs and data for causing the CPU 201 to execute or control each process described below as performed by the server device 100. In the following description, the registration destination of the video data used for processing and the measured work time data is the storage device 205. Computer programs and data stored in the storage device 205 are appropriately loaded into the RAM 206 under the control of the CPU 201 and are processed by the CPU 201. Note that the functions and processes of the server apparatus 100 described later are realized by the CPU 201 reading a program stored in the ROM 207 or the storage device 205 and executing the program.

RAM206は、記憶装置205からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM206は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM206は、各種のエリアを適宜提供することができる。ROM207には、サーバ装置100の設定データや起動プログラムなど、書き換え不要なコンピュータプログラムやデータが保存されている。CPU201、入力装置202、出力装置203、通信装置204、記憶装置205、RAM206、ROM207は何れもバス(BUS)208に接続されている。   The RAM 206 has an area for storing computer programs and data loaded from the storage device 205. Further, the RAM 206 has a work area used when the CPU 201 executes various processes. As described above, the RAM 206 can provide various areas as appropriate. The ROM 207 stores computer programs and data that do not need to be rewritten, such as setting data and startup programs for the server device 100. The CPU 201, the input device 202, the output device 203, the communication device 204, the storage device 205, the RAM 206, and the ROM 207 are all connected to a bus (BUS) 208.

図3は、サーバ装置100の機能構成図である。人物抽出部301は、映像内に存在する人物の抽出を行う。手抽出部302は、人物抽出部301で抽出された人物領域から手領域を1つ乃至2つ抽出する。手領域の抽出には、距離情報とともに色情報も利用される。左右判定部303は、手抽出部302で抽出された手領域がそれぞれ左右いずれの手の領域であるかを判定する。   FIG. 3 is a functional configuration diagram of the server apparatus 100. The person extraction unit 301 extracts a person existing in the video. The hand extraction unit 302 extracts one or two hand regions from the person region extracted by the person extraction unit 301. For the extraction of the hand area, color information is used together with distance information. The left / right determination unit 303 determines whether the hand region extracted by the hand extraction unit 302 is the left or right hand region.

図4は、サーバ装置100による判定処理を示すフローチャートである。まず、S401において、CPU201は、撮像装置110によって取得された動画像のフレーム画像を、通信装置204を通して取得する。CPU201は、ここで、カラー画像と距離画像を取得する。なお、撮像装置110による撮影は、記憶装置205に記憶された撮影パラメータに従って行われる。この動画像は、ストリーミング形式で逐次処理される。また、他の例としては、CPU201は、取得した動画像を記憶装置205に記録し、一定時間毎に処理を行ってもよい。   FIG. 4 is a flowchart illustrating the determination process performed by the server apparatus 100. First, in step S <b> 401, the CPU 201 acquires a frame image of a moving image acquired by the imaging device 110 through the communication device 204. Here, the CPU 201 acquires a color image and a distance image. Note that shooting by the imaging device 110 is performed according to shooting parameters stored in the storage device 205. This moving image is sequentially processed in a streaming format. As another example, the CPU 201 may record the acquired moving image in the storage device 205 and perform processing at regular intervals.

次に、S402において、CPU201は、S401で取得したフレーム画像が最終フレームか否かを判定する。CPU201は、最終フレームの場合には(S402でYES)、これ以上処理する対象が存在しないため、判定処理を終了する。CPU201は、最終フレームでない場合には(S402でNO)、処理をS403へ進める。   Next, in S402, the CPU 201 determines whether or not the frame image acquired in S401 is the last frame. In the case of the last frame (YES in S402), the CPU 201 ends the determination process because there is no further processing target. If it is not the last frame (NO in S402), the CPU 201 advances the process to S403.

S403において、人物抽出部301は、フレーム画像中から人物領域を抽出する。人物抽出部301は、S401で取得したカラー画像及び距離画像の双方のフレーム画像を用いて処理を行う。具体的には、人物抽出部301は、まず、予め用意しておいた人物の存在しない背景画像とフレーム画像との差分を取り、大まかに人物領域を取る。次に、人物抽出部301は、色情報や抽出された領域のサイズ情報を参照し、サイズが極端に小さい等明らかに人物ではない領域を除いた領域を人物として抽出する。   In step S403, the person extraction unit 301 extracts a person area from the frame image. The person extraction unit 301 performs processing using both the color image and the distance image acquired in S401. Specifically, the person extraction unit 301 first takes a difference between a background image without a person prepared in advance and a frame image, and roughly takes a person area. Next, the person extraction unit 301 refers to the color information and the size information of the extracted area, and extracts an area excluding an area that is clearly not a person, such as an extremely small size, as a person.

次に、S404において、手抽出部302は、S403で抽出された人物領域を対象に手領域の抽出を行う。具体的には、手抽出部302は、撮像範囲内に人物よりも高いものはないと仮定し、S403で抽出した人物領域中で一番高い、つまり距離値が一番小さい画素とその周辺の領域を頭部と推定する。次に、手抽出部302は、頭部と推定された領域近傍を削除し、残った領域と頭部領域との平面距離を計算する。図1に示す撮影環境では、作業中に頭部から平面距離で一番離れているのは手領域であると考えられるので、手抽出部302は、残った領域のうち平面距離が一番目と二番目に離れている領域を手領域であると推測し、抽出する。   Next, in S <b> 404, the hand extraction unit 302 extracts a hand region for the person region extracted in S <b> 403. Specifically, the hand extraction unit 302 assumes that there is no image in the imaging range that is higher than the person, and the highest pixel in the person region extracted in S403, that is, the pixel having the smallest distance value and the surrounding area. Estimate the region as the head. Next, the hand extraction unit 302 deletes the vicinity of the region estimated as the head, and calculates the planar distance between the remaining region and the head region. In the shooting environment shown in FIG. 1, it is considered that the hand area is the farthest plane distance from the head during work, so the hand extraction unit 302 has the first plane distance among the remaining areas. The second most distant region is estimated as a hand region and extracted.

次に、S405において、左右判定部303は、S404で手領域を2つ抽出したか否かを判定する。作業中に、周囲のものや作業者自体の陰になって片手または両手ともに画像中に現れないことがある。このような場合には手の左右を判定することが困難であるため、このステップで処理を分ける。左右判定部303は、手領域が2つ抽出された場合には(S405でYES)、処理をS406へ進める。左右判定部303は、手領域が1つのみ抽出された場合には(S405でNO、S413でYES)、処理をS414へ進める。左右判定部303は、手領域が抽出されなかった場合には(S405でNO、S413でNO)、判定処理を終了する。   Next, in S405, the left / right determination unit 303 determines whether two hand regions have been extracted in S404. During work, one hand or both hands may not appear in the image behind the surroundings or the worker itself. In such a case, since it is difficult to determine the left and right of the hand, the processing is divided at this step. If two hand areas are extracted (YES in S405), the left / right determination unit 303 advances the process to S406. If only one hand region is extracted (NO in S405, YES in S413), the left / right determination unit 303 advances the process to S414. If the hand region is not extracted (NO in S405, NO in S413), the left / right determination unit 303 ends the determination process.

S406において、左右判定部303は、前フレームで既に手の左右が判定できていたか否かを判定する。フレーム単位で処理をしていれば、フレーム間で手の位置が大きく変化する可能性は低い。したがって、新たに左右の判定を行うよりも、以前のフレームの情報をそのまま反映した方が、判定し直すよりも判定精度が高く、また計算コストも低くなると考えられる。左右判定部303は、判定できている場合には(S406でYES)、処理をS407へ進める。左右判定部303は、判定できていない場合には(S406でNO)、処理をS409へ進める。S407において、左右判定部303は、前フレームの左右それぞれの手の位置の近傍に現れた現フレームの手領域に、前フレームの左右判定情報を反映させる。左右判定部303は、その後処理をS408へ進める。S408において、CPU201は、処理対象を次のフレームに変更し、その後処理をS401へ進める。なお、S407の処理は、一連の撮影画像に含まれる第1の撮影画像における左右の手の判定結果に基づいて、第2の撮影画像の左右の手を推定する推定処理の一例である。   In step S <b> 406, the left / right determination unit 303 determines whether left / right of the hand has already been determined in the previous frame. If processing is performed in units of frames, it is unlikely that the position of the hand will change greatly between frames. Therefore, it is considered that the determination accuracy is higher and the calculation cost is lower when the previous frame information is reflected as it is than when the left and right determinations are newly made. If the left / right determination unit 303 has determined (YES in S406), the process proceeds to S407. If the left / right determination unit 303 cannot determine (NO in S406), the process proceeds to S409. In S407, the left / right determination unit 303 reflects the left / right determination information of the previous frame in the hand area of the current frame that appears in the vicinity of the positions of the left and right hands of the previous frame. The left / right determination unit 303 then advances the process to S408. In step S408, the CPU 201 changes the processing target to the next frame, and then advances the processing to step S401. The process of S407 is an example of an estimation process for estimating the left and right hands of the second captured image based on the determination result of the left and right hands in the first captured image included in the series of captured images.

一方、S409において、左右判定部303は、まず頭部領域を抽出する。本処理は、頭部抽出処理の一例である。そして、左右判定部303は、頭部と手の間の頭手間距離を求める。次に、S410において、左右判定部303は、頭手間距離と閾値を比較する。ここで、頭手間距離は、ユーザ操作に応じて予め設定されているものとする。左右判定部303は、頭手間距離が閾値よりも大きい場合には(S410でYES)、処理をS411へ進める。左右判定部303は、頭手間距離が閾値以下の場合には(S410でNO)、処理をS408へ進める。S411において、左右判定部303は、手の方向を前方向として人物の方向を特定する。次に、S412において、左右判定部303は、前方向を基準として左の手領域側を左手、右の手領域側を右手と判定する。左右判定部303は、その後処理をS408進める。   On the other hand, in S409, the left / right determination unit 303 first extracts a head region. This process is an example of a head extraction process. Then, the left / right determination unit 303 obtains a head-to-hand distance between the head and the hand. Next, in S410, the left / right determination unit 303 compares the inter-hand distance with a threshold value. Here, the head-to-hand distance is set in advance according to the user operation. If the head-to-hand distance is greater than the threshold (YES in S410), the left / right determination unit 303 advances the process to S411. If the head-to-hand distance is equal to or smaller than the threshold (NO in S410), the left / right determination unit 303 advances the process to S408. In step S <b> 411, the left / right determination unit 303 identifies the direction of the person with the hand direction as the forward direction. Next, in S412, the left / right determination unit 303 determines that the left hand region side is the left hand and the right hand region side is the right hand with reference to the front direction. The left / right determination unit 303 then advances the process to S408.

図5は、S409〜S411の処理の説明図である。フレーム画像500は、作業者が前方向に手を伸ばし作業を行っている様子の撮影図である。一方、フレーム画像510は、作業者が背伸びをしている様子の撮影図である。左右判定部303は、フレーム画像500において、作業者の頭部501と作業者の右手502と左手503のバウンディングボックス504を求め、バウンディングボックス504の位置を手の位置として特定する。そして、手の位置と頭の位置の間の頭手間距離505を算出する。左右判定部303は、フレーム画像510についても同様の処理により作業者の頭部511とバウンディングボックス512の間の頭手間距離513を算出する。   FIG. 5 is an explanatory diagram of the processing of S409 to S411. The frame image 500 is a photographed image showing a worker performing a work reaching out forward. On the other hand, the frame image 510 is a photographed image of the worker stretching out. The left / right determination unit 303 obtains the bounding box 504 of the worker's head 501, the worker's right hand 502 and the left hand 503 in the frame image 500, and specifies the position of the bounding box 504 as the hand position. Then, a head-to-hand distance 505 between the hand position and the head position is calculated. The left / right determination unit 303 calculates the inter-hand distance 513 between the operator's head 511 and the bounding box 512 by the same process for the frame image 510.

人間は通常の作業をしている場合、体の前方の方が後方よりも腕を動かす範囲が広い。このことを利用し、本実施形態のサーバ装置100においては、上述のように頭手間距離の閾値を設定し、頭手間距離が閾値よりも長い場合に、手の方向を前方向として特定することとした。すなわち、左右判定部303は、頭手間距離が閾値よりも大きい場合には、手の方向を前方向として特定する。なお、他の例としては、左右判定部303は、頭手間距離が閾値以下の場合には、手の方向と逆の方向を前方向と推定してもよい。なお、S409〜S411の処理は、手領域以外の人物領域としての頭部領域と手領域の間の位置関係に基づいて、人物の向きを特定する向き特定処理の一例である。   When humans are doing normal work, the front of the body has a wider range of movement of the arm than the back. By using this, in the server device 100 of the present embodiment, the threshold value of the head-to-hand distance is set as described above, and when the head-to-hand distance is longer than the threshold value, the hand direction is specified as the forward direction. It was. That is, the left / right determination unit 303 specifies the direction of the hand as the front direction when the head-to-hand distance is greater than the threshold value. As another example, the left / right determination unit 303 may estimate the direction opposite to the hand direction as the forward direction when the head-to-hand distance is equal to or less than the threshold. Note that the processes of S409 to S411 are an example of a direction specifying process for specifying the direction of a person based on the positional relationship between the head area as a person area other than the hand area and the hand area.

図4に戻り、S414において、左右判定部303は、前フレームで既に手の左右が判定できていたか否かを判定する。本処理は、S406の処理と同様である。左右判定部303は、判定できている場合には(S414でYES)、処理をS415へ進める。左右判定部303は、判定できていない場合には(S414でNO)、処理をS408へ進める。S415において、左右判定部303は、前フレームの左右それぞれの手の位置の近傍に現れた現フレームの手領域に、前フレームの左右判定情報を反映させる。本処理は、S407の処理と同様である。   Returning to FIG. 4, in S414, the left / right determination unit 303 determines whether the left / right of the hand has already been determined in the previous frame. This process is the same as the process of S406. If the left / right determination unit 303 has determined (YES in S414), the process proceeds to S415. If the left / right determination unit 303 cannot determine (NO in S414), the process proceeds to S408. In step S415, the left / right determination unit 303 reflects the left / right determination information of the previous frame in the hand area of the current frame that appears in the vicinity of the positions of the left and right hands of the previous frame. This process is the same as the process of S407.

以上のように、判定処理において、作業者の頭部と手領域の位置関係を利用して作業者の向いている方向を推定することができる。これにより、作業者の手領域の左右判定を行うことができる。図6に示すように、作業者Pが作業台600において物体601の作業を行うだけでなく、映像中の他の場所610,620に移動して作業を行うことがある。本実施形態のサーバ装置100は、このように作業場所を移動することで、作業者Pの位置や向きが変化する場合においても、正確に左右の手を判定することができる。さらに、作業者Pが作業台600の前に位置しつつ後ろを向いたような場合でも、作業者Pの向きを判定した上で左右の手を判定するため、正確に左右の手を判定することができる。   As described above, in the determination process, the direction in which the worker is facing can be estimated using the positional relationship between the worker's head and the hand region. Thereby, it is possible to determine the left and right of the hand area of the worker. As shown in FIG. 6, the worker P may not only work on the object 601 on the work table 600 but also move to other places 610 and 620 in the video. By moving the work place in this way, the server device 100 according to the present embodiment can accurately determine the left and right hands even when the position and orientation of the worker P change. Further, even when the worker P is facing the back while being positioned in front of the work table 600, the left and right hands are determined after determining the orientation of the worker P, so the left and right hands are accurately determined. be able to.

第1の実施形態の第1の変形例としては、サーバ装置100は、方向の判定結果だけでなく、尤度を求め、この尤度に基づいて、左右の判定結果についても尤度を求めてもよい。本処理は、尤度特定処理の一例である。   As a first modification of the first embodiment, the server device 100 obtains not only the direction determination result but also the likelihood, and based on this likelihood, obtains the likelihood also for the left and right determination results. Also good. This process is an example of the likelihood specifying process.

また、第2の変形例としては、サーバ装置100は、頭手間距離に応じた重みを算出し、重みに従って左右の判定結果の尤度を求めてもよい。図7に示すグラフは、頭手間距離と重みの関係を示している。なお、図9に示すグラフは、2次関数を模したものであるが、頭手間距離が長くなる程重みが大きくなるような関係であればよく、図9のグラフの関係に限定されるものではない。他の例としては、例えば1次関数やステップ関数等で表されるような関係であってもよい。   As a second modification, the server device 100 may calculate a weight according to the head-to-hand distance, and obtain the likelihood of the left and right determination results according to the weight. The graph shown in FIG. 7 shows the relationship between the head-to-hand distance and the weight. Note that the graph shown in FIG. 9 is a model of a quadratic function, but it is sufficient that the weight increases as the head-to-hand distance increases, and is limited to the relationship in the graph of FIG. is not. As another example, a relationship represented by, for example, a linear function or a step function may be used.

また、第3の変形例としては、S410において頭手間距離と比較される閾値は、サーバ装置100が、人物領域の大きさに基づいて決定してもよい。例えば、予め作業者の腕の長さと頭部の大きさを測り、サーバ装置100に登録しておく。そして、サーバ装置100は、画像に映っている頭部の大きさから画像上で腕が到達する範囲を算出し、算出した範囲に基づいて閾値を決定する。さらに、サーバ装置100は、複数のフレームの推定の累積値を用いてもよい。これにより、1フレームだけで推定することに起因したミスを防ぐことができる。本処理は、閾値決定処理の一例である。   As a third modified example, the threshold value to be compared with the head-to-hand distance in S410 may be determined by the server device 100 based on the size of the person area. For example, the length of the operator's arm and the size of the head are measured in advance and registered in the server apparatus 100. Then, the server apparatus 100 calculates a range where the arm reaches on the image from the size of the head shown in the image, and determines a threshold based on the calculated range. Furthermore, the server apparatus 100 may use an accumulated value of estimation of a plurality of frames. Thereby, it is possible to prevent a mistake caused by estimation using only one frame. This process is an example of a threshold determination process.

第4の変形例としては、サーバ装置100は、例えば誤検知が起こりやすい特定の作業を行うタイミング等、特定のタイミングにおいてのみ、左右の手の検出を行うこととしてもよい。   As a fourth modified example, the server apparatus 100 may detect the left and right hands only at a specific timing, such as a timing at which a specific operation that is likely to cause a false detection is performed.

(第2の実施形態)
次に、第2の実施形態に係る撮像システムについて、第1の実施形態に係る撮像システムと異なる点を主に説明する。第2の実施形態に係るサーバ装置100は、頭手間距離に替えて、手領域の存在する位置の時間的な統計値に基づいて、左右の手の判定を行う。サーバ装置100の左右判定部303は、図8に示すようにフレーム画像800において、作業者801の中央の位置を中心に、作業者801の周囲の領域を4つの領域A,B、C、Dに分割する。なお、左右判定部303は、作業者801を基準として領域を分割すればよく、その数は、実施形態に限定されるものではない。
(Second Embodiment)
Next, the imaging system according to the second embodiment will be described mainly with respect to differences from the imaging system according to the first embodiment. The server device 100 according to the second embodiment performs left / right hand determination based on temporal statistics of the position where the hand region exists instead of the head-to-hand distance. As shown in FIG. 8, the left / right determination unit 303 of the server device 100 has four areas A, B, C, and D in the area around the worker 801 centered on the center position of the worker 801 in the frame image 800. Divide into Note that the left / right determination unit 303 may divide the area with the worker 801 as a reference, and the number is not limited to the embodiment.

図9は、第2の実施形態に係るサーバ装置100による判定処理を示すフローチャートである。S901〜S904の処理は、それぞれ図4を参照しつつ説明したS401〜S404の処理と同様である。S904の処理の後、S905において、左右判定部303は、手領域が分割により得られた4つの領域811〜814のいずれの領域に属するかを特定する。次に、S906において、左右判定部303は、一定フレーム数について、属する領域を特定する処理を行ったか否かを判定する。左右判定部303は、一定フレーム数の処理が完了した場合には(S906でYES)、処理をS907へ進める。左右判定部303は、一定フレーム数の処理が完了していない場合には(S906でNO)、処理をS910へ進める。S910において、CPU201は、処理対象を次のフレームに変更し、その後処理をS901へ進める。   FIG. 9 is a flowchart illustrating the determination process performed by the server apparatus 100 according to the second embodiment. The processing of S901 to S904 is the same as the processing of S401 to S404 described with reference to FIG. After the process of S904, in S905, the left / right determination unit 303 identifies which of the four areas 811 to 814 the hand area belongs to by division. In step S <b> 906, the left / right determination unit 303 determines whether a process for specifying an area to which the frame belongs is performed for a certain number of frames. The left / right determination unit 303 advances the process to S907 when the process for a certain number of frames is completed (YES in S906). The left / right determination unit 303 advances the process to S910 when the process for a certain number of frames has not been completed (NO in S906). In step S910, the CPU 201 changes the processing target to the next frame, and then advances the processing to step S901.

S907において、左右判定部303は、一定フレーム数についての、属する領域の集計を行い、各領域における存在割合を算出する。次に、S908において、左右判定部303は、存在割合が高い2つの領域を人物の前の方向として特定する。ここで、S907の処理は、手が領域に存在する時間を計測する計測処理の一例であり、S908の処理は、計測結果に基づいて、人物の向きを特定する向き特定処理の一例である。次に、S909において、左右判定部303は、前方向を基準として左側の手領域を左手、右側の手領域を右手と判定する。本処理は、S412の処理と同様である。CPU201は、S909の処理の後処理をS910へ進める。図10は、存在割合の一例を示す図である。図10に示す集計結果においては、領域C、Dの方向が前領域として特定される。   In step S907, the left / right determination unit 303 performs totalization of regions to which a certain number of frames belong, and calculates the existence ratio in each region. Next, in S908, the left / right determination unit 303 identifies two regions having a high presence ratio as directions in front of the person. Here, the process of S907 is an example of a measurement process for measuring the time during which the hand is present in the region, and the process of S908 is an example of a direction specifying process for specifying the orientation of a person based on the measurement result. Next, in S909, the left / right determination unit 303 determines that the left hand region is the left hand and the right hand region is the right hand with reference to the front direction. This process is the same as the process of S412. CPU201 advances post-processing of processing of S909 to S910. FIG. 10 is a diagram illustrating an example of the existence ratio. In the counting result shown in FIG. 10, the directions of regions C and D are specified as the previous region.

人間は通常の作業をしている場合、体の前方で何かしらの作業を行う時間が長いと考えられる。本実施形態のサーバ装置100は、このことを利用して集計情報から被写体人物の向きを推定する。また、一定時間が経過するまで左右判定を行わないので、処理開始初期など各領域の存在時間に差がないと考えられるときに推定に失敗する可能性が高いためである。なお、第2の実施形態に係る撮像システムのこれ以外の構成及び処理は、第1の実施形態に係る撮像システムの構成及び処理を同様である。   When humans are doing normal work, it is considered that it takes a long time to do some work in front of the body. The server apparatus 100 according to the present embodiment uses this fact to estimate the orientation of the subject person from the total information. In addition, since the left / right determination is not performed until a certain time has elapsed, there is a high possibility that the estimation will fail when it is considered that there is no difference in the existence time of each region, such as at the beginning of processing. The other configurations and processes of the imaging system according to the second embodiment are the same as the configurations and processes of the imaging system according to the first embodiment.

以上のように、第2の実施形態の撮像システムでは、動画像から、手領域の存在する領域の時間的な割合を集計し、集計結果から左右の手の判定を行うことができる。   As described above, in the imaging system according to the second embodiment, it is possible to add up temporal ratios of regions where hand regions exist from a moving image, and to determine left and right hands from the result of counting.

第2の実施形態の第1の変形例としては、サーバ装置100は、さらに、存在割合に基づいて、尤度を求めてもよい。   As a first modification of the second embodiment, the server device 100 may further determine the likelihood based on the existence ratio.

また、第2の変形例としては、サーバ装置100は、何かしらの理由で作業が中断、停止するなどして動きがない、もしくは作業と関係ない動きをしている際には、その情報を手動もしくは外部センサ等から入力し、その間は集計を中断してもよい。   As a second modification, when the server apparatus 100 does not move due to some reason, the operation is interrupted or stopped, or the movement is not related to the operation, the information is manually stored. Alternatively, it may be input from an external sensor or the like, and aggregation may be interrupted during that time.

(第3の実施形態)
次に、第3の実施形態に係る撮像システムについて、第1の実施形態に係る撮像システムと異なる点を主に説明する。第3の実施形態に係るサーバ装置100は、作業において使用される物体と手の関係を利用して、左右の手の判定を行う。
(Third embodiment)
Next, the imaging system according to the third embodiment will be described mainly with respect to differences from the imaging system according to the first embodiment. The server device 100 according to the third embodiment performs left / right hand determination using the relationship between an object and a hand used in the work.

図11は、第3の実施形態に係るサーバ装置100の機能構成図である。サーバ装置100は、第1の実施形態に係るサーバ装置100の機能構成に加えて、物体特定部1101と、接触判定部1102とを有している。物体特定部1101は、フレーム画像において、予め定められた物体で、作業に用いられる物体の位置を特定する。以下、この物体を特定物体と称する。特定物体としては、例えばドライバ等が挙げられる。特定物体の位置を特定するための方法としては、例えばテンプレートマッチングが挙げられる。また、他の例としては、局所特徴量や機械学習を用いた手法が挙げられる。また、他の例としては、特定物体にマーカ等識別できるような情報を添付しておき、その情報を利用してもよい。接触判定部1102は、フレーム画像に基づいて、特定物体と手領域との接触を判定する。   FIG. 11 is a functional configuration diagram of the server apparatus 100 according to the third embodiment. The server device 100 includes an object specifying unit 1101 and a contact determination unit 1102 in addition to the functional configuration of the server device 100 according to the first embodiment. The object specifying unit 1101 specifies the position of an object used for work with a predetermined object in the frame image. Hereinafter, this object is referred to as a specific object. An example of the specific object is a driver. An example of a method for specifying the position of a specific object is template matching. Other examples include techniques using local feature quantities and machine learning. As another example, information that can identify a marker or the like may be attached to a specific object, and the information may be used. The contact determination unit 1102 determines contact between the specific object and the hand region based on the frame image.

図12は、第3の実施形態に係るサーバ装置100による判定処理を示すフローチャートである。S1201〜S1204の処理は、それぞれ図4を参照しつつ説明したS401〜S404の処理と同様である。S1204の処理の後、S1205において、物体特定部1101は、フレーム画像において、特定物体の位置を特定する。本処理は、物体領域を抽出する物体抽出処理の一例である。次に、S1206において、接触判定部1102は、手が特定物体に接触しているか否かを判定する。図13に示すように、作業者Pが特定物体としてのドライバ1300を手に取った場合には、接触していると判定される。接触判定部1102は、具体的には、手領域と特定物体の領域とが重複又は隣接している場合に、両者が接触していると判定する。   FIG. 12 is a flowchart illustrating the determination process performed by the server apparatus 100 according to the third embodiment. The processing of S1201 to S1204 is the same as the processing of S401 to S404 described with reference to FIG. After the process of S1204, in S1205, the object specifying unit 1101 specifies the position of the specific object in the frame image. This process is an example of an object extraction process for extracting an object region. In step S1206, the contact determination unit 1102 determines whether the hand is in contact with the specific object. As illustrated in FIG. 13, when the operator P picks up the driver 1300 as the specific object, it is determined that the person P is in contact. Specifically, the contact determination unit 1102 determines that both are in contact when the hand region and the specific object region overlap or are adjacent to each other.

接触判定部1102は、接触している場合には(S1206でYES)、処理をS1207へ進める。接触判定部1102は、接触していない場合には(S1206でNO)、処理をS1209へ進める。S1209において、CPU201は、処理対象を次のフレームに変更し、その後処理をS901へ進める。   If the contact determination unit 1102 is in contact (YES in S1206), the process proceeds to S1207. If the contact determination unit 1102 is not in contact (NO in S1206), the process proceeds to S1209. In step S1209, the CPU 201 changes the processing target to the next frame, and then advances the processing to step S901.

S1207において、左右判定部303は、接触が特定された方向を人物の前方向として特定する。本処理は、物体領域側を人物の前方向として特定する向き特定処理の一例である。次に、S1208において、左右判定部303は、前方向を基準として左側の手領域を左手、右側の手領域を右手と判定する。本処理は、S412の処理と同様である。CPU201は、S1208の処理の後処理をS1209へ進める。   In step S1207, the left / right determination unit 303 specifies the direction in which the contact is specified as the front direction of the person. This process is an example of a direction specifying process that specifies the object region side as the forward direction of the person. Next, in S1208, the left / right determination unit 303 determines that the left hand region is the left hand and the right hand region is the right hand with reference to the front direction. This process is the same as the process of S412. The CPU 201 advances the post-processing of S1208 to S1209.

人間は通常の作業をしている場合、作業に使う道具を取得する際にはその道具の方を向く。少なくとも、背後にあるものに対して振り返らずに手を伸ばす可能性は非常に低い。本実施形態のサーバ装置100は、このことを利用して特定物体の接触が特定された方向を被写体人物の向きと推定する。なお、第3の実施形態に係る撮像システムのこれ以外の構成及び処理は、他の実施形態に係る撮像システムの構成及び処理と同様である。   When a human is doing normal work, he or she faces the tool when acquiring the tool to use for work. At least, it's very unlikely to reach out without looking back at what's behind it. The server apparatus 100 according to the present embodiment uses this fact to estimate the direction in which the contact of the specific object is specified as the direction of the subject person. The other configurations and processes of the imaging system according to the third embodiment are the same as the configurations and processes of the imaging system according to the other embodiments.

以上のように、第3の実施形態の撮像システムでは、動画像から特定物体を抽出し、特定物体と手の接触が特定された領域に基づいて、左右の手の判定を行うことができる。   As described above, in the imaging system according to the third embodiment, a specific object can be extracted from a moving image, and left and right hands can be determined based on a region in which contact between the specific object and the hand is specified.

第3の実施形態の第1の変形例としては、サーバ装置100は、特定物体を複数用意しておき、複数の特定物体に対する判定結果に基づいて、左右の手の判定を行ってもよい。1回の推定だけでは正しい推定結果を得られないこともある。例えば、作業者のほぼ真横に置いてある物体を対象とすると、間違った判定結果になる可能性が高い。これに対し、本例によれば、より正確に判定を行うことができる。   As a first modification of the third embodiment, the server device 100 may prepare a plurality of specific objects and perform left and right hand determinations based on determination results for the plurality of specific objects. A correct estimation result may not be obtained with only one estimation. For example, if an object placed almost beside the worker is targeted, there is a high possibility that an erroneous determination result is obtained. On the other hand, according to this example, the determination can be performed more accurately.

第2の変形例としては、サーバ装置100は、接触機会毎に何回判定したかを集計し、判定成功割合から、左右の手の判定結果の尤度を求めてもよい。   As a second modified example, the server device 100 may count how many times each contact opportunity has been determined, and obtain the likelihood of the determination result of the left and right hands from the determination success rate.

(第4の実施形態)
次に、第4の実施形態に係る撮像システムについて、他の実施形態に係る撮像システムと異なる点を主に説明する。本実施形態のサーバ装置100は、第1〜第3の実施形態において説明した左右の手の判定結果から、最終的な判定結果を求める。サーバ装置100はさらに、各手法の推定結果に重みづけを行って最終的な推定結果を求めるものとする。サーバ装置100は、例えば、図14の表1400に示すように、尤度として出力されたエリア毎の右手かどうかの推定結果に、予め設定した重みを乗じて合計し、最終的な結果とすることができる。
(Fourth embodiment)
Next, an imaging system according to the fourth embodiment will be described mainly with respect to differences from the imaging system according to other embodiments. The server apparatus 100 of this embodiment calculates | requires a final determination result from the determination result of the right and left hand demonstrated in the 1st-3rd embodiment. The server apparatus 100 further weights the estimation results of each method to obtain a final estimation result. For example, as shown in a table 1400 of FIG. 14, the server apparatus 100 multiplies the estimation result of whether or not the right hand is output for each area by a weight set in advance and obtains a final result. be able to.

なお、サーバ装置100は、ユーザ操作に応じて各手法の重みを設定するものとする。他の例としては、サーバ装置100は、例えばこれまでの推定成功率を基に自動的に重みを算出してもよい。また、各手法の推定結果は、表1400のように尤度としてもよいし、2値での出力でもよい。さらには、手法毎に尤度と2値が混ざっていてもよい。第4の実施形態に係る撮像システムの構成及び処理は、他の実施形態に係る撮像システムの構成及び処理と同様である。   In addition, the server apparatus 100 shall set the weight of each method according to user operation. As another example, the server apparatus 100 may automatically calculate the weight based on the estimated success rate so far, for example. In addition, the estimation result of each method may be a likelihood as shown in Table 1400, or may be a binary output. Furthermore, the likelihood and the binary value may be mixed for each method. The configuration and processing of the imaging system according to the fourth embodiment are the same as the configuration and processing of the imaging system according to other embodiments.

以上のように、第4の実施形態の撮像システムでは、複数の手法による判定結果を統合することで、左右の手をより正確に判定することができる。   As described above, in the imaging system according to the fourth embodiment, the left and right hands can be more accurately determined by integrating the determination results obtained by a plurality of methods.

(第5の実施形態)
次に、第5の実施形態に係る撮像システムについて、他の実施形態に係る撮像システムと異なる点を主に説明する。本実施形態のサーバ装置100は、他の実施形態において説明した手法で左右の手を判定し、判定結果を用いて、作業者が決められた作業(特定の作業)を行っているかどうかを判定するものである。
(Fifth embodiment)
Next, an imaging system according to the fifth embodiment will be described mainly regarding differences from the imaging system according to other embodiments. The server apparatus 100 according to the present embodiment determines the left and right hands by the method described in the other embodiments, and determines whether the worker is performing a predetermined work (specific work) using the determination result. To do.

図15は、作業判定処理の説明図である。サーバ装置100は、作業者Pがエリア1501に接触したかどうかで決められた作業を行ったことを検出する。例えば作業者が決められた部品をエリア1501の近傍の部位1502に取り付ける際に、作業者の手がエリア1501に触れる。これを利用し、作業を行ったか否かを検出する。しかし、別の作業を行う際にエリア1501を触れてしまう可能性もある。例えば、図15に示すように、ドライバ1503を取るという、想定された特定の作業とは異なる作業により、エリア1501を触れてしまう、ということがあり得る。   FIG. 15 is an explanatory diagram of the work determination process. The server device 100 detects that the worker P has performed work determined by whether or not the worker P has touched the area 1501. For example, the operator's hand touches the area 1501 when a part determined by the operator is attached to a part 1502 near the area 1501. Using this, it is detected whether or not work has been performed. However, there is a possibility of touching the area 1501 when performing another work. For example, as shown in FIG. 15, the area 1501 may be touched by an operation different from the assumed specific operation of taking a driver 1503.

そこで、サーバ装置100は、エリア1501に触れるべき手が左右どちらであるかを予め設定しておく。そして、サーバ装置100は、接触判定の際に左右判定結果を利用し、特定のエリア1501に接触したのが左右のいずれの手であるかを判定することで、より正確に作業判定を行うことができる。本処理は、接触判定処理の一例である。   Therefore, the server apparatus 100 sets in advance whether the hand to touch the area 1501 is left or right. Then, the server device 100 uses the left / right determination result at the time of the contact determination, and determines which of the left and right hands is in contact with the specific area 1501 to perform the work determination more accurately. Can do. This process is an example of a contact determination process.

サーバ装置100に、例えばエリア1501で作業したと判定すべきなのは右手が触れたとき、と設定されているとする。この場合には、図15に示すように、左手がエリア1501に触れた場合には、作業を行ったと判定されることがない。このように、正確に判定を行うことができる。   For example, it is assumed that the server apparatus 100 is determined to have worked in the area 1501, for example, when the right hand touches it. In this case, as shown in FIG. 15, when the left hand touches the area 1501, it is not determined that the work has been performed. In this way, accurate determination can be made.

サーバ装置100は、このように、左右判定の結果を用いることで、正解とする作業シーケンスの粒度を細かく設定することもできる。例えば手領域が接触したかを利用して複数の作業を検出するため複数のエリアを設定する場合を考える。この場合、領域の左右が区別できないと、先述のように右手で触れるべきエリアを左手が触れて誤検出されないよう、エリアの設定位置や正解シーケンスに制限がかかる可能性がある。しかし、手領域の左右の区別ができるのであれば、正解シーケンスに左右どちらの手で触れたときに検出すべきかを設定することができるので、より細かいシーケンスを作ることができる。結果として、より多くの作業をより精度よく検出することができるようになる。   Thus, the server apparatus 100 can also set the granularity of the work sequence to be correct by using the result of the left / right determination. For example, consider a case where a plurality of areas are set in order to detect a plurality of operations using whether or not the hand region has touched. In this case, if the left and right of the area cannot be distinguished, the area setting position and the correct answer sequence may be restricted so that the left hand touches the area that should be touched with the right hand as described above, and is not erroneously detected. However, if the left and right of the hand region can be distinguished, it is possible to set whether to detect when the right sequence is touched with the right or left hand, so that a finer sequence can be created. As a result, more work can be detected more accurately.

また、サーバ装置100は、予め作業者の利き手を登録しておき、その情報に応じて正解シーケンスの変更を行うことも可能である。例えば、ドライバなどの道具を扱うのは利き手であることが想定される。そこで、サーバ装置100は、利き手の情報に基づいて、一方の手を決定し、決定した方の手を検出対象とする。本処理は、左右決定処理の一例である。そして、サーバ装置100は、右利き用に作成された正解シーケンスで道具を扱う作業は右手で接触した時に検出し、左利き用に作成された正解シーケンスで道具を扱う作業は左手で接触した時に検出する。   The server apparatus 100 can also register the dominant hand of the worker in advance and change the correct answer sequence according to the information. For example, it is assumed that a dominant hand handles a tool such as a driver. Therefore, the server apparatus 100 determines one hand based on the dominant hand information, and sets the determined hand as a detection target. This process is an example of a left / right determination process. The server device 100 detects when the right hand is used to handle the tool in the right sequence created for right-handed use, and detects when the left hand is used to handle the tool in the correct answer sequence created for left-handed use. To do.

また、処理を開始してしばらくの間は、左右の判定を行うのに十分な情報が得られず、判定を実施できないことがありうる。その場合には、サーバ装置100は、ある手領域が右である、左である両方の想定をして作業検知を仮にしておく。そして左右の推定結果尤度が閾値を超えた時点で、サーバ装置100は、その情報を時系列の逆方向に伝播させ、正しい作業検知結果のみを残すことによって、手の左右を判定できなかったタイミングについても処理を行うことが可能になる。同様に、サーバ装置100は、手の左右の推定尤度が閾値未満だった場合には、閾値以上となった時点の結果を利用して再評価することも可能である。   In addition, for a while after starting the process, there is a possibility that sufficient information cannot be obtained to perform the left / right determination, and the determination cannot be performed. In that case, the server apparatus 100 temporarily assumes work detection by assuming both a right hand region and a left hand region. When the left and right estimation result likelihood exceeds the threshold, the server device 100 cannot determine the left and right of the hand by propagating the information in the reverse direction of the time series and leaving only the correct work detection result. Processing can also be performed for timing. Similarly, when the estimated likelihood of the left and right hands is less than the threshold value, the server apparatus 100 can re-evaluate using the result at the time when the hand likelihood becomes equal to or greater than the threshold value.

このように、本実施形態によれば、作業者が作業をしている動画像から、作業者の手領域の抽出及びその領域の左右の推定結果を利用することにより、作業の検出精度を高めることができる。これにより、より細かい作業、多様な作業を検出することができる。   As described above, according to the present embodiment, the detection accuracy of the work is improved by using the extraction of the worker's hand region and the left and right estimation results of the region from the moving image of the worker. be able to. Thereby, a finer work and various work can be detected.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 サーバ装置
110 撮像装置
301 人物抽出部
302 手抽出部
303 左右判定部
DESCRIPTION OF SYMBOLS 100 Server apparatus 110 Imaging device 301 Person extraction part 302 Hand extraction part 303 Left-right determination part

Claims (14)

撮影画像において、人物領域を抽出する人物抽出手段と、
前記人物領域に基づいて、手領域を抽出する手抽出手段と、
前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定手段と、
前記人物の向きに基づいて、前記手領域の左右を判定する左右判定手段と
を有することを特徴とする判定装置。
A person extracting means for extracting a person area in the photographed image;
Hand extraction means for extracting a hand region based on the person region;
From the positional relationship between the person area other than the hand area and the hand area, direction specifying means for specifying the direction of the person,
A determination apparatus comprising: a left / right determination unit configured to determine the right / left of the hand region based on the orientation of the person.
前記人物領域に基づいて、頭部領域を抽出する頭部抽出手段をさらに有し、
前記向き特定手段は、前記頭部領域と前記手領域との位置関係に基づいて、人物の向きを特定することを特徴とする請求項1に記載の判定装置。
Further comprising a head extraction means for extracting a head region based on the person region;
The determination apparatus according to claim 1, wherein the direction specifying unit specifies a direction of a person based on a positional relationship between the head region and the hand region.
前記向き特定手段は、前記頭部領域と前記手領域との距離に基づいて、人物の向きを特定することを特徴とする請求項2に記載の判定装置。   The determination apparatus according to claim 2, wherein the direction specifying unit specifies a direction of a person based on a distance between the head region and the hand region. 前記向き特定手段は、前記頭部領域と前記手領域との距離が閾値以上の場合に、前記手領域側を人物の前方向と特定することを特徴とする請求項3に記載の判定装置。   The determination apparatus according to claim 3, wherein the orientation specifying unit specifies the hand region side as a forward direction of a person when a distance between the head region and the hand region is equal to or greater than a threshold value. 前記人物領域の大きさに基づいて、前記閾値を決定する閾値決定手段をさらに有することを特徴とする請求項4に記載の判定装置。   The determination apparatus according to claim 4, further comprising a threshold value determination unit that determines the threshold value based on a size of the person area. 前記人物領域の中央を基準として分割された各領域における前記手領域の存在する時間を計測する計測手段をさらに有し、
前記向き特定手段は、前記計測手段による計測結果に基づいて、人物の向きを特定することを特徴とする請求項1に記載の判定装置。
It further has a measuring means for measuring the time in which the hand region exists in each region divided with reference to the center of the person region,
The determination apparatus according to claim 1, wherein the direction specifying unit specifies a direction of a person based on a measurement result by the measuring unit.
撮影画像に基づいて、物体領域を抽出する物体抽出手段をさらに有し、
前記向き特定手段は、前記手領域と物体領域とが重なった場合に、前記物体領域側を人物の前方向と特定することを特徴とする請求項1に記載の判定装置。
Further comprising object extracting means for extracting an object region based on the photographed image,
The determination apparatus according to claim 1, wherein the orientation specifying unit specifies the object region side as the front direction of the person when the hand region and the object region overlap each other.
前記左右判定手段による判定結果の尤度を特定する尤度特定手段をさらに有することを特徴とする請求項1乃至7の何れか1項に記載の判定装置。   The determination apparatus according to claim 1, further comprising likelihood specifying means for specifying a likelihood of a determination result obtained by the left / right determination means. 一連の撮影画像に含まれる第1の撮影画像において、前記左右判定手段による判定結果が得られている場合に、前記判定結果に基づいて、一連の撮影画像に含まれる第2の撮影画像における手領域の左右を推定する推定手段をさらに有することを特徴とする請求項1乃至8の何れか1項に記載の判定装置。   In the first captured image included in the series of captured images, when the determination result by the left / right determination unit is obtained, the hand in the second captured image included in the sequence of captured images is based on the determination result. The determination apparatus according to claim 1, further comprising an estimation unit that estimates the left and right of the region. 前記左右判定手段による判定結果に基づいて、特定の作業を行っているか否かを判定する作業判定手段をさらに有することを特徴とする請求項1乃至9の何れか1項に記載の判定装置。   The determination apparatus according to claim 1, further comprising a work determination unit that determines whether or not a specific work is being performed based on a determination result by the left / right determination unit. 前記作業判定手段は、左右のうち予め定められた一方の手領域が特定の位置に接触した場合に、特定の作業を行っていると判定することを特徴とする請求項10に記載の判定装置。   The determination apparatus according to claim 10, wherein the work determination unit determines that a specific work is being performed when one of the left and right predetermined hand regions contacts a specific position. . 被写体人物の利き手の情報に基づいて、前記一方の手領域を決定する左右決定手段をさらに有することを特徴とする請求項11に記載の判定装置。   The determination apparatus according to claim 11, further comprising a left / right determination unit that determines the one hand region based on information on a dominant hand of a subject person. 撮影画像において、人物領域を抽出する人物抽出ステップと、
前記人物領域に基づいて、手領域を抽出する手抽出ステップと、
前記手領域以外の前記人物領域と、前記手領域と、の位置関係から、人物の向きを特定する向き特定ステップと、
前記人物の向きに基づいて、前記手領域の左右を判定する左右判定ステップと
を含むことを特徴とする判定方法。
A person extraction step of extracting a person area in the photographed image;
A hand extraction step of extracting a hand region based on the person region;
A direction specifying step for specifying the direction of the person from the positional relationship between the person area other than the hand area and the hand area;
And a left / right determination step of determining left / right of the hand area based on the orientation of the person.
コンピュータを、請求項1乃至12の何れか1項に記載の判定装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the determination apparatus of any one of Claims 1 thru | or 12.
JP2018081308A 2018-04-20 2018-04-20 Determination device, determination method and program Pending JP2019191736A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018081308A JP2019191736A (en) 2018-04-20 2018-04-20 Determination device, determination method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081308A JP2019191736A (en) 2018-04-20 2018-04-20 Determination device, determination method and program

Publications (1)

Publication Number Publication Date
JP2019191736A true JP2019191736A (en) 2019-10-31

Family

ID=68390320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081308A Pending JP2019191736A (en) 2018-04-20 2018-04-20 Determination device, determination method and program

Country Status (1)

Country Link
JP (1) JP2019191736A (en)

Similar Documents

Publication Publication Date Title
JP6700752B2 (en) Position detecting device, position detecting method and program
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP6159179B2 (en) Image processing apparatus and image processing method
JP6201379B2 (en) Position calculation system, position calculation program, and position calculation method
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
WO2022073427A1 (en) Visual positioning method and apparatus for object grabbing point, and storage medium and electronic device
WO2010126071A1 (en) Object position inference device, object position inference method, and program
WO2014050432A1 (en) Information processing system, information processing method and program
JP6210234B2 (en) Image processing system, image processing method, and program
CN109298786B (en) Method and device for evaluating marking accuracy
JP6502511B2 (en) Calculation device, control method of calculation device, and calculation program
JP2017129567A5 (en)
CN112115894B (en) Training method and device of hand key point detection model and electronic equipment
JPWO2009142098A1 (en) Image processing apparatus, camera, image processing method and program
JP2021012684A (en) Detection of finger press from live video stream
JP6828708B2 (en) Control device, surveillance system, and surveillance camera control method
JP6950644B2 (en) Attention target estimation device and attention target estimation method
KR101308184B1 (en) Augmented reality apparatus and method of windows form
JP6991045B2 (en) Image processing device, control method of image processing device
JP2020021421A (en) Data dividing device, data dividing method, and program
JP6558831B2 (en) Object tracking apparatus, method and program
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
JP6659095B2 (en) Image processing apparatus, image processing method, and program
JP2019191736A (en) Determination device, determination method and program
JP2017016356A5 (en)