JP7470069B2 - Pointing object detection device, pointing object detection method, and pointing object detection system - Google Patents
Pointing object detection device, pointing object detection method, and pointing object detection system Download PDFInfo
- Publication number
- JP7470069B2 JP7470069B2 JP2021023229A JP2021023229A JP7470069B2 JP 7470069 B2 JP7470069 B2 JP 7470069B2 JP 2021023229 A JP2021023229 A JP 2021023229A JP 2021023229 A JP2021023229 A JP 2021023229A JP 7470069 B2 JP7470069 B2 JP 7470069B2
- Authority
- JP
- Japan
- Prior art keywords
- pointing
- user
- hand
- object detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 140
- 238000000034 method Methods 0.000 claims description 70
- 230000009471 action Effects 0.000 claims description 40
- 230000007613 environmental effect Effects 0.000 claims description 39
- 230000005856 abnormality Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 12
- 238000000513 principal component analysis Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 28
- 238000010801 machine learning Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 6
- 238000003672 processing method Methods 0.000 description 5
- 238000007619 statistical method Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000003857 wrist joint Anatomy 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000282577 Pan troglodytes Species 0.000 description 1
- 241000282405 Pongo abelii Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本開示は、指示物体検出装置、指示物体検出方法及び指示物体検出システムに関する。 This disclosure relates to a pointing object detection device, a pointing object detection method, and a pointing object detection system.
近年、マン・マシンインターフェイスの実用化を目指し、様々な人間の動きを認識する研究が行われている。人間の動きを認識することで、ユーザの意思を自然な形態でコンピューターに伝えることが可能となる。 In recent years, research has been conducted into recognizing various human movements, with the aim of putting man-machine interfaces into practical use. By recognizing human movements, it becomes possible to convey the user's intentions to the computer in a natural way.
ユーザの意思をコンピューターに伝える有効なコミュニケーション手段の1つとして、指差し動作を検出する手法が注目されている。指差し動作は、人間にとって自然かつ直感的であり、特殊な器具の装着も不要なため、人であるユーザに負担を与えない上、低コストである。
指差し動作を検出する手法によれば、例えば家事、福祉、産業等の様々な場面でマン・マシンインターフェイスを実現し、人を支援するサービスが可能となる。
Techniques for detecting pointing gestures have been attracting attention as an effective means of communication for conveying a user's intentions to a computer. Pointing gestures are natural and intuitive for humans, and do not require the wearing of any special equipment, so they do not burden the human user and are low-cost.
Techniques for detecting pointing gestures can be used to realize man-machine interfaces in a variety of situations, such as housework, welfare, and industry, enabling services to support people.
指差し動作を検出する手法の1つとしては、例えばH. Asano, T. Nagayasu, T. Orimo, K. Terabayashi, M. Ohta and K. Umeda, "Recognition of finger-pointing direction using color clustering and image segmentation," The SICE Annual Conference 2013, Nagoya, Japan, 2013, pp. 2029-2034.(非特許文献1)がある。
非特許文献1には、複数のカメラを使用して指差し方向を認識する正確な方法が提案されている。この手法において、入力画像は、形状分析の前にカラークラスタリングによってセグメント化される。そして、操作領域の狭さや事前定義された肌の色など、以前の方法のいくつかの制限が解除されている。この結果、8方向の指さし認識は、平均90%の再現率と93%の精度で実現される旨が記載されている。
One method for detecting a pointing gesture is described in, for example, H. Asano, T. Nagayasu, T. Orimo, K. Terabayashi, M. Ohta and K. Umeda, "Recognition of finger-pointing direction using color clustering and image segmentation," The SICE Annual Conference 2013, Nagoya, Japan, 2013, pp. 2029-2034. (Non-Patent Document 1).
Non-Patent
非特許文献1には、人間の手を示す画像において、幅が狭い領域を指として抽出した後、当該指に属する画素に対して最小二乗法を適用することで、指差し方向を判定する。
しかし、非特許文献1に記載の方法では、画像における指の抽出は、手の各部位の相対的な幅に基づいて行われるため、画角、ノイズ、オブジェクト検出の誤り等によって手の各部位の幅が判定できない場合や、洋服の袖等によって手が部分的に隠され、手の部位の見かけの幅が正確でない場合には、指差し方向を判定する精度が限定されてしまう。
In
However, in the method described in
そこで、本開示は、手の画像における画素の曲率と、手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することを目的とする。 The present disclosure aims to provide a highly robust pointing object detection method that can detect a pointing object with high accuracy even in an image in which the pixels of the hand are not clearly visible due to the angle of view, noise, etc., by determining the pointing direction based on the curvature of the pixels in the hand image and the distance from the center of the hand, and detecting the pointing object that is the target of the pointing action based on the determined pointing direction.
上記の課題を解決するために、代表的な本開示の指示物体検出装置の一つは、ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する画像入力部と、前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、前記手によるジェスチャーを判定するジェスチャー判定部と、前記手による前記ジェスチャーが指差し動作と判定された場合、前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部とを含む。 In order to solve the above problem, one representative pointed object detection device of the present disclosure includes an image input unit that acquires an input video including a user's hand and at least one pointed object candidate, an object detection unit that analyzes the input video and detects the hand and the pointed object candidate, a gesture determination unit that determines a gesture made by the hand, a pointing direction determination unit that, if the gesture made by the hand is determined to be a pointing motion, identifies a centroid of the hand, and identifies an area that satisfies a first distance criterion from the centroid and a predetermined curvature criterion as the fingertip of the index finger used in the pointing motion, and determines the pointing direction of the pointing motion based on the distribution of pixels belonging to the identified fingertip, and a pointed object identification unit that identifies an object pointed to by the pointing motion in the input video from among the pointed object candidates based on the pointing direction.
本開示によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能であり、頑強性が高い指示物体検出手段を提供することができる。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
According to the present disclosure, by determining the pointing direction based on the curvature of the pixels in the hand image and the distance from the center of the hand, and detecting the pointing object that is the target of the pointing action based on the determined pointing direction, it is possible to provide a highly robust pointing object detection means that enables highly accurate pointing object detection even in cases where the pixels of the hand are not clearly visible due to the angle of view, noise, etc.
Other objects, configurations and effects will become apparent from the following description of the preferred embodiment of the invention.
本開示の実施例に係る指示物体検出手段は、例えば家事、福祉、産業等の様々な場面でマン・マシンインターフェイスを実現し、直接的に人を支援するために用いられてもよいが、説明の便宜上、本開示の実施例に係る指示物体検出手段を産業に応用した場合の例を中心に説明する。 The pointed object detection means according to the embodiments of the present disclosure may be used to realize a man-machine interface and directly assist people in various situations, such as housework, welfare, and industry, but for the sake of convenience, the following description focuses on examples in which the pointed object detection means according to the embodiments of the present disclosure is applied to industry.
工場等では、作業員が機械や装置を点検したり、修理したりする過程において、機械や装置の解体や組み立てを行う場合がある。この場合、作業員が特定の部品の点検を失念したり、機械の解体又は組み立ての順序を誤ることが起こりえる。そこで、本開示の実施例に係る物体検出手段を用いることにより、作業員が指差す部品を検出することで、作業員の動作を記録したり、順序が誤った動作を検知したりすることが可能となり、作業の正確性及び効率を向上させることができる。 In factories, etc., workers may disassemble or assemble machines or equipment while inspecting or repairing them. In such cases, the worker may forget to inspect a particular part or may disassemble or assemble the machine in the wrong order. Therefore, by using the object detection means according to the embodiment of the present disclosure to detect the part the worker is pointing at, it becomes possible to record the worker's actions and detect actions that are out of order, thereby improving the accuracy and efficiency of work.
一例として、作業員は、例えば特定の部品(例えば、機械や装置を構成する部品の一つ)を取り扱う前に、当該部品を指差しすることにすれば、この指差し動作を示す入力映像がカメラ等の撮影装置によって取得される。その後、取得した入力映像を、後述する指示物体検出装置の各機能部によって処理することで、入力映像における画素の曲率や手の中心からの距離に基づいて指先が示す指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することができる。その後、作業員の動作の順番を示すユーザ物体シーケンス情報を記録し、このユーザ物体シーケンス情報を、例えば事前に用意され、正しい動作の順番を示す指定物体シーケンス情報と比較することで、機械の取り扱い手順における異常(誤り等)を検出することができる。 As an example, if a worker points at a specific part (e.g., one of the parts that make up a machine or device) before handling it, an input image showing this pointing action is captured by an imaging device such as a camera. The captured input image is then processed by each functional unit of the pointing object detection device described below, and the pointing direction indicated by the fingertip is determined based on the curvature of the pixels in the input image and the distance from the center of the hand, and the pointing object that is the target of the pointing action can be detected based on the determined pointing direction. User object sequence information indicating the order of the worker's actions is then recorded, and this user object sequence information can be compared with specified object sequence information that is prepared in advance and indicates the correct order of actions, to detect abnormalities (such as errors) in the machine handling procedures.
このように、本開示によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度に指示物体検出が可能であり、頑強性が高い指示物体検出手段を提供することができる。 In this way, according to the present disclosure, by determining the pointing direction based on the curvature of the pixels in the hand image and the distance from the center of the hand, and detecting the pointed object that is the target of the pointing action based on the determined pointing direction, it is possible to provide a highly robust pointed object detection means that can detect the pointed object with high accuracy even in cases where the hand pixels are not clearly visible in the image due to the angle of view, noise, etc.
以下、図面を参照して、本発明の実施例について説明する。なお、この実施例により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。 Below, an embodiment of the present invention will be described with reference to the drawings. Note that the present invention is not limited to this embodiment. In addition, in the description of the drawings, the same parts are denoted by the same reference numerals.
まず、図1を参照して、本開示の実施例を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施例の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
First, referring to FIG. 1, a
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施例では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施例では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施例では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、指示物体検出アプリケーション350を格納していてもよい。ある実施例では、指示物体検出アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
In some embodiments,
ある実施例では、指示物体検出アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施例では、指示物体検出アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施例では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
In some embodiments, the pointing
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
The
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
For example,
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
The I/O interface unit provides the ability to communicate with various storage or I/O devices. For example, the
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施例では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
The storage interface 314 may be attached to one or more disk drives or direct access storage devices 322 (usually magnetic disk drive storage devices, but may also be an array of disk drives or other storage devices configured to appear as a single disk drive). In some embodiments, the
ある実施例では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施例では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
In some embodiments,
次に図2を参照して、本開示の実施例1に係る指示物体検出システムの構成について説明する。 Next, the configuration of the pointing object detection system according to the first embodiment of the present disclosure will be described with reference to FIG.
図2は、本開示の実施例1に係る指示物体検出システム200の構成を示す図である。図2に示すように、本開示の実施例1に係る指示物体検出システム200は、指示物体検出装置210及びユーザ端末250を含む。指示物体検出装置210及びユーザ端末250は、例えばLANやインターネット等の通信ネットワーク234を介して接続されてもよい。
FIG. 2 is a diagram showing a configuration of a pointed
指示物体検出装置210は、ユーザ235によって行われる指差し動作を示す入力映像を解析することで、当該指差し動作の指示方向を判定し、判定した指示方向に基づいて指差し動作の対象となる指示物体240を検出するための装置である。指示物体検出装置210は、例えばデスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のコンピューティングデバイスによって実施されてもよい。
また、図2に示すように、指示物体検出装置210は、オブジェクト検出部212、画像加工部214、ジェスチャー判定部218、指示方向判定部220、指示物体特定部222、画像入力部224、プロセッサ226及び記憶部228を含む。
Pointing object detection device 210 is a device for analyzing an input video showing a pointing action performed by
As shown in FIG. 2 , the pointed object detection device 210 includes an
画像入力部224は、ユーザ235の手と、少なくとも1つの指示物体候補とを示す入力映像を取得するための機能部である。画像入力部224は、例えばRGBカメラなどの撮影部であってもよいし、画像信号を受信する機能部であってもよい。
指示物体検出の精度を向上する観点から、画像入力部224が撮像部の場合には、この撮像部は、ユーザ235の手や、ユーザ235の作業の対象となる物体が容易に撮影可能な位置に配置されることが望ましい。
以下の説明では、画像入力部224が撮影部を意味するものとして説明するが、画像入力部224は、画像信号を受信する機能部であってもよい。
なお、図2では、画像入力部224が指示物体検出装置210に含まれている構成の場合を一例として示しているが、本開示はこれに限定されず、画像入力部224は、指示物体検出装置210とは独立した、別途の装置であってもよい。この場合、画像入力部224は、取得した入力映像を通信ネットワーク234を介して指示物体検出装置210に送信してもよい。
The
From the standpoint of improving the accuracy of pointing object detection, when the
In the following description, the
2 shows an example of a configuration in which
オブジェクト検出部212は、画像入力部224によって取得された入力映像を解析し、ユーザ235の手と指示物体候補とを検出するための機能部である。オブジェクト検出部212は、入力映像に写る全てのオブジェクトを検出し、検出したオブジェクトのクラスを示すラベルを生成してもよい。本開示の実施例に係るオブジェクト検出部212の手段は特に限定されず、例えばHaar-Like特徴に基づくViola Jones物体検出フレームワーク、スケール不変特徴量変換 (SIFT)、Hog特徴量等の機械学習アプローチや、領域提案(R-CNN、Fast R-CNN、Faster R-CNN、cascade R-CNN)、Single Shot MultiBox Detector(SSD)、You Only Look Once(YOLO)、Single-Shot Refinement Neural Network for Object Detection (RefineDet)、Retina-Net、Deformable convolutional networks等の深層学習によるアプローチ等、任意のオブジェクト検出手法を含んでもよい。
The
画像加工部214は、オブジェクト検出部212によって各オブジェクトが検出された入力映像を解析することで、ユーザ235の手のみを示す手画像を入力映像から抽出する。例えば、画像加工部214は、ユーザ235の手を示す画像を入力映像から切り出して(クロッピング)もよく、ユーザ235の手の肌の色に基づいた画像分割(skin-color based image segmentation)を用いてもよく、segnet、ICNET、FPN等の深層学習によるアプローチを用いてもよい。
画像加工部214による処理の結果、ユーザ235の手に属する画素の輝度値が1以上となり、ユーザ235の手に属さない画素の輝度値が0となるバイナリー画像が得られる(図5~図9参照)。
The
As a result of processing by the
ジェスチャー判定部218は、画像加工部214によって抽出された手画像において、ユーザ235の手が示すジェスチャーを判定する機能部である。ジェスチャー判定部218は、例えば、ユーザ235の手のキーポイント(指、間接、手首、手の甲等)を特定し、特定した手のキーポイントの分布に基づいて、手が示すジェスチャーが指差し動作か否かを判定してもよい。ここでの指差し動作とは、対象のものに対して指を向けることを意味する。また、この指差し動作は、人差し指や中指等、任意の指で行われてもよい。ここでは、指差し動作に用いられているユーザ235の指を「指し指」という。
ここでのジェスチャー判定部218は、ユーザ235の手が示すジェスチャーを判定するために、例えば3Dモデルベースアルゴリズム、骨格ベースアルゴリズム、筋電計ベースモデル等、任意の既存の手段を用いてもよい。
The
The
指示方向判定部220は、指差し動作の指示方向を判定するための機能部である。ここでの「指示方向」とは、ユーザ235の指し指が指示する方向である。より具体的には、指示方向判定部220は、ユーザ235の手のセントロイドを特定し、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定し、特定した指先に属する画素の分布に基づいて、指差し動作の指示方向を判定してもよい。
本開示においては「セントロイド」とは一般的な質量中心を意味するが、画像上の幾何中心であってもよいし、幾何中心に代えて物理的な重心を用いてもよい。
なお、指示方向判定部220を用いて指示方向を判定する処理の詳細については後述する。
The pointing
In this disclosure, "centroid" generally refers to the center of mass, but may be the geometric center on an image, or a physical center of gravity may be used instead of the geometric center.
The process of determining the pointing direction using the pointing
指示物体特定部222は、指示方向判定部220によって判定された指示方向に基づいて、入力映像において指差し動作によって指示される指示物体240を、指示物体候補の中から特定する。ここでは、指示物体特定部222は、判定された指示方向に加えて、オブジェクト検出部212によって検出されたオブジェクトのラベルを用いてもよい。
The pointing
プロセッサ226は、指示物体検出装置210の各機能部の機能を実現するための命令を実行するための演算装置であり、例えば図1に示すプロセッサ302と実質的に同様であるため、ここではその説明を省略する。
The
記憶部228は、指示物体検出装置210の機能部に用いられる各種データを格納するためのストレージ部である。ここでの記憶部228は、例えばハードディスクドライブやソリッドステートドライブ等のローカルストレージであってもよく、クラウドのような分散型ストレージサービスであってもよい。
The
ユーザ235は、指示物体検出装置210の解析の対象となる指差し動作を行うユーザである。ユーザ235は、例えば工場で作業する作業員であってもよく、患者の介護を行う介護士等、任意のタスクを行うユーザであってもよい。また、本開示では、説明の便宜上、ユーザ235が人間の場合を一例として説明するが、本開示はこれに限定されず、ユーザ235は例えばチンパンジーやオランウータン等のサルであってもよく、指差し動作を行う手があれば、任意の生命体や人造物等であってもよい。
The
指示物体240は、ユーザ235による指差し動作の対象となる物体である。指示物体240は、例えば点検の対象となる機械や装置を構成する部品、ハンマーやドライバー等の工具、テーブルの上に配置されているフォークやナイフ等、ユーザ235のタスクによって任意のオブジェクトであってもよい。
The
ユーザ端末250は、例えばユーザ235が利用する端末装置である。ユーザ端末250は、例えばユーザ235に関するユーザ情報、ユーザ235の環境に関する環境情報等、指示物体検出を支援する任意の情報の入力を受け付けてもよい。また、ある実施例では、指示物体の取り扱い手順において異常が発生したと判定した場合、当該異常を示す異常通知がユーザ端末250に送信されてもよい。このように、ユーザ端末250のユーザ235は、検出された異常を解決する行動を取ることができる。
The
以上説明したように構成した指示物体検出システム200によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することができる。
With the pointed
次に、図3を参照して、本開示の実施例1に係る指示物体検出方法について説明する。 Next, the pointing object detection method according to the first embodiment of the present disclosure will be described with reference to FIG.
図3は、本開示の実施例1に係る指示物体検出方法360の流れを示すフローチャートである。図3に示す指示物体検出方法360は、指差し動作を示す入力映像を解析することで、当該指差し動作の指示方向を判定し、判定した指示方向に基づいて指差し動作の対象となる指示物体240を検出するための方法であり、指示物体検出装置(例えば、図2に示す指示物体検出装置210)によって実施される。
Fig. 3 is a flowchart showing the flow of a pointing
まず、ステップS362では、撮影部(例えば、図2に示す画像入力部224)は、ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像363を取得する。この入力映像363は、例えば静止画像であってもよく、多数の画像フレームから構成される動画であってもよい。本開示に係るある態様では、ユーザは、上述したユーザ端末(例えば図2に示すユーザ端末250)を介して、作業を開始する旨の指示を入力した後、撮影部はユーザの作業の撮影を開始し、入力映像363を取得してもよい。
撮影部によって取得される入力映像363は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
First, in step S362, the image capture unit (e.g.,
The
次に、ステップS364では、オブジェクト検出部(例えば、図2に示すオブジェクト検出部212)は、撮影部によって取得された入力映像363を解析し、ユーザの手と指示物体候補とを検出する。ここでの指示物体候補とは、入力映像363に含まれており、指差し動作の対象となる物体である可能性がある物体である。
上述したように、オブジェクト検出部212は、入力映像363に含まれる全てのオブジェクトを検出し、検出したオブジェクトのクラスを示すラベル365を生成してもよい。これらのラベル365は、例えば上述した記憶部に格納されてもよい。
Next, in step S364, an object detection unit (for example, object
As described above, the
ステップS364でのオブジェクト検出部による処理の結果、手として認識されたオブジェクトが入力映像363に存在すると判定された(つまり、ラベル365のうち、「手」とのラベルに該当するオブジェクトが検出された)場合、本処理はステップS366へ進む。一方、ステップS364でのオブジェクト検出部による処理の結果、手として認識されたオブジェクトが入力映像363に存在しないと判定された場合、本処理はステップS362へ戻り、撮影部が入力映像363の取得を継続する。
If the result of the processing by the object detection unit in step S364 is that it is determined that the object recognized as a hand is present in the input video 363 (i.e., an object corresponding to the label "hand" among the
次に、ステップS366では、画像加工部(例えば、図2に示す画像加工部214)は、入力映像363の中から、ユーザの手のみを示す手画像を抽出する。例えば、画像加工部は、ユーザの手を示す画像を入力映像から切り出して(クロッピング)もよく、ユーザの手の肌の色に基づいた画像分割(skin-color based image segmentation)を用いてもよく、segnet、ICNET、FPN等の深層学習によるアプローチを用いてもよい。画像加工部による処理の結果、ユーザの手に属する画素の輝度値が1以上となり、ユーザの手に属さない画素の輝度値が0となる手画像が得られる。
Next, in step S366, the image processing unit (for example, the
次に、ステップS368では、ジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)は、ステップS366で抽出された手画像を解析することで、手が示すジェスチャーを判定する。ジェスチャー判定部は、例えば、ユーザの手のキーポイント(指、間接、手首、手の甲等)を特定し、特定した手のキーポイントの分布に基づいて、手が示すジェスチャーが指差し動作か否かを判定してもよい。
Next, in step S368, a gesture determination unit (e.g.,
ステップS368でのジェスチャー判定部の処理の結果、手が示すジェスチャーが指差し動作であると判定された場合、本処理はステップS370へ進む。一方、ステップS368でのジェスチャー判定部の処理の結果、手が示すジェスチャーが指差し動作でないと判定された場合、本処理はステップS362へ戻り、撮影部が入力映像363の取得を継続する。
If the result of the processing by the gesture determination unit in step S368 indicates that the gesture indicated by the hand is a pointing motion, the process proceeds to step S370. On the other hand, if the result of the processing by the gesture determination unit in step S368 indicates that the gesture indicated by the hand is not a pointing motion, the process returns to step S362, and the image capture unit continues acquiring the
次に、ステップS370では、指示方向判定部(例えば、図2に示す指示方向判定部220)は、指差し動作の指示方向を判定する。より具体的には、指示方向判定部は、ユーザの手のセントロイドを特定し、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定し、特定した指先に属する画素の分布に基づいて、指差し動作の指示方向を判定する。
なお、指示方向判定部を用いて指示方向を判定する処理の詳細については後述する。
Next, in step S370, a pointing direction determination unit (for example, the pointing
The process of determining the pointing direction using the pointing direction determination unit will be described later in detail.
次に、ステップS372では、指示物体特定部(例えば、図2に示す指示物体特定部222)は、ステップS372で指示方向判定部によって判定された指示方向と、ステップS364で判定されたラベル365とに基づいて、入力映像363において指差し動作によって指示される指示物体240を、指示物体候補の中から特定する。ここで特定した指示物体の情報は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
Next, in step S372, a pointing object identification unit (e.g., pointing
以上説明した指示物体検出方法360によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することができる。
According to the pointing
次に、図4を参照して、本開示の実施例1に係る指示方向判定処理について説明する。 Next, referring to FIG. 4, the pointing direction determination process according to the first embodiment of the present disclosure will be described.
図4は、本開示の実施例1に係る指示方向判定処理400の流れを示す図である。図4に示す指示方向判定処理400は、指差し動作の指示方向を判定するための処理であり、指示方向判定部(例えば図2に示す指示方向判定部220)によって実行される。
なお、図4に示す指示方向判定処理400は、図3に示す指示物体検出方法360におけるステップS370に実質的に対応する。また、図4に示す指示方向判定処理400は、指差し動作の指示方向を判定するための大まかな処理であり、指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
4 is a diagram showing a flow of a pointing
The pointing
まず、ステップS410では、指示方向判定部は、入力映像から抽出された手画像における指差し動作に用いられている指し指の指先を特定する。より具体的には、まず、指示方向判定部は、手画像における手のセントロイドを特定する。実施例1におけるセントロイドは、既存の画像処理手法や統計的手法に基づいて求められてもよい。手のセントロイドを特定した後、指示方向判定部は、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定する。
この第1の距離基準は、ある領域が指先として認定されるために、当該領域のセントロイドからの必要な距離の下限を指定してもよい。
同様に、この曲率基準は、ある領域が指先として認定されるために、必要な曲率の下限を指定してもよい。
このように、上述した距離基準及び曲率基準を用いることで、手のセントロイド(つまり、手の中心部)から所定の距離以上に離れており、所定の曲率以上を持つ領域を指し指の指先として特定できる。
なお、ここでの第1の距離基準及び曲率基準は、ユーザによって指定されてもよく、過去に収集されたテスト用画像に基づいて適切な値を設定するように学習された機械学習手段によって指定されてもよい。
First, in step S410, the pointing direction determination unit identifies the tip of the index finger used in the pointing motion in the hand image extracted from the input video. More specifically, the pointing direction determination unit first identifies the centroid of the hand in the hand image. The centroid in the first embodiment may be obtained based on an existing image processing method or statistical method. After identifying the centroid of the hand, the pointing direction determination unit identifies an area that satisfies a first distance criterion from the centroid and also satisfies a predetermined curvature criterion as the tip of the index finger.
This first distance criterion may specify a lower limit on the distance a region must be from the centroid for it to qualify as a fingertip.
Similarly, the curvature criterion may specify a lower limit for the curvature required for a region to qualify as a fingertip.
In this way, by using the distance and curvature criteria described above, an area that is a predetermined distance or more away from the centroid of the hand (i.e., the center of the hand) and has a predetermined curvature or more can be identified as the tip of the index finger.
It should be noted that the first distance and curvature criteria here may be specified by a user or may be specified by a machine learning means trained to set appropriate values based on previously collected test images.
次に、ステップS420では、指示方向判定部は、ステップS410で特定した指し指の指先に属する画素の分布を判定する。ここでは、「画素の分布」とは、指先に属する画素と、他の画素との空間的関係を意味する。一例として、指示方向判定部は、ステップS410で特定した指し指の指先に属する画素と、セントロイドに属する画素との相対的な位置関係を特定してもよい。 Next, in step S420, the pointing direction determination unit determines the distribution of pixels belonging to the tip of the index finger identified in step S410. Here, "pixel distribution" means the spatial relationship between the pixels belonging to the fingertip and other pixels. As an example, the pointing direction determination unit may identify the relative positional relationship between the pixels belonging to the tip of the index finger identified in step S410 and the pixels belonging to the centroid.
次に、ステップS430では、指示方向判定部は、ステップS420で特定した画素の分布に基づいて指差し動作の指示方向を判定する。例えば、ある実施例では、指示方向判定部は、指し指の指先に属する画素と、セントロイドに属する画素とを通過する架空線の方向を指示方向としてもよい。ステップS430で判定した指示方向は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
なお、上述したように、画素の分布に基づいて指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
Next, in step S430, the pointing direction determination unit determines the pointing direction of the pointing motion based on the distribution of pixels identified in step S420. For example, in one embodiment, the pointing direction determination unit may determine the direction of an imaginary line passing through pixels belonging to the fingertip of the index finger and pixels belonging to the centroid as the pointing direction. The pointing direction determined in step S430 may be stored in the storage unit described above (for example, the
As described above, the details of the process of determining the direction of the pointing action based on the distribution of pixels will be described with reference to specific examples of the pointing direction determining means shown in FIGS.
以上説明した指示方向判定処理400によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出手段を提供することができる。
According to the pointing
次に、図5~図9を参照して、指差し動作の指示方向を判定する処理の具体例について説明する。 Next, a specific example of the process for determining the direction of a pointing gesture will be described with reference to Figures 5 to 9.
図5は、本開示の実施例1に係る第1の指示方向判定手段500の一例を示す図である。図5に示すように、手画像505には、ユーザの手502が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手502が指差し動作となっていることが判定されている。
Fig. 5 is a diagram showing an example of the first pointing direction determination means 500 according to the first embodiment of the present disclosure. As shown in Fig. 5, a user's
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手502のセントロイド510を特定する。このセントロイド510とは、手502の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手502のセントロイド510を特定した後、指示方向判定部は、このセントロイド510から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指504の指先512として特定する。
First, as described above, the pointing direction determination unit (for example, the pointing
次に、指示方向判定部は、特定した指先512と、セントロイド510との距離dに基づいて、指先512を中心とする対象領域511を判定する。一例として、対象領域511は、距離d/3を半径とする円形領域であってもよい。
なお、対象領域511の半径はハイパーパラメータであり、ユーザに設定されてもよく、既存のハイパーパラメータ最適化方法に基づいて最適化されてもよい。
Next, the pointing direction determination unit determines a
It should be noted that the radius of the
次に、指示方向判定部は、対象領域511において、所定の輝度基準を満たす画素を、指差し動作に用いられる手502の指し指504に属する指画素として特定する。例えば、手画像505は、手502に属する画素の輝度値が1以上となり、手502に属さない画素の輝度値が0となるバイナリー画像の場合、この輝度基準は「1」であってもよい。
このように、輝度基準を「1」として設定することで、対象領域511における明るい画素(つまり、対象領域511において、指し指504に属する画素)を特定することができる。
なお、以上では、対象領域及び画素の輝度値に基づいて指画素を特定する場合を一例として説明したが、本開示はこれに限定されず、例えばクラスタリングや回帰(recursion)等、任意の手法を用いてもよい。
Next, the pointing direction determination unit specifies pixels in the
In this way, by setting the brightness standard as "1", it is possible to identify bright pixels in the target region 511 (that is, pixels in the
Note that, although the above describes an example in which finger pixels are identified based on the target region and pixel luminance values, the present disclosure is not limited to this, and any method such as clustering or recursion may be used.
次に、指示方向判定部は、特定した指画素の平均画素座標514(mean pixel coordinate)を計算する。この平均画素座標514は、例えば任意の既存の画像処理手段によって計算されてもよい。
平均画素座標514を計算した後、指示方向判定部は、計算した平均画素座標514と、指先512とを通る架空線516の方向を、指示方向として判定する。
Next, the pointing direction determination unit calculates the mean pixel coordinates of the identified finger pixels 514. The mean pixel coordinates 514 may be calculated, for example, by any existing image processing means.
After calculating the average pixel coordinates 514, the pointing direction determination unit determines the direction of an
図6は、本開示の実施例1に係る第2の指示方向判定手段600の一例を示す図である。図6に示すように、手画像605には、ユーザの手602が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手602が指差し動作となっていることが判定されている。
Fig. 6 is a diagram showing an example of the second pointing direction determination means 600 according to the first embodiment of the present disclosure. As shown in Fig. 6, a user's
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手602のセントロイド610を特定する。このセントロイド610とは、手602の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手602のセントロイド610を特定した後、指示方向判定部は、このセントロイド610から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指604の指先612として特定する。
First, as described above, the pointing direction determination unit (for example, the pointing
次に、指示方向判定部は、特定した指先612と、セントロイド610との距離dに基づいて、指先612を中心とする第1の対象領域611を判定する。一例として、第1の対象領域611は、距離d/6を半径とする円形領域であってもよい。
Next, the pointing direction determination unit determines a
次に、指示方向判定部は、第1の対象領域611において、所定の輝度基準を満たす画素を、指差し動作に用いられる手602の指し指604に属する指画素として特定する。例えば、手画像605は、手602に属する画素の輝度値が1以上となり、手602に属さない画素の輝度値が0となるバイナリー画像の場合、この輝度基準は「1」であってもよい。
このように、輝度基準を「1」として設定することで、第1の対象領域611における明るい画素(つまり、第1の対象領域611において、指し指604に属する画素)を特定することができる。
Next, the pointing direction determination unit specifies pixels in the
In this way, by setting the brightness standard as "1", it is possible to identify bright pixels in the first object region 611 (i.e., pixels in the
次に、指示方向判定部は、特定した指画素の平均画素座標614(mean pixel coordinate)を計算する。 Next, the pointing direction determination unit calculates the mean pixel coordinate 614 of the identified finger pixels.
次に、指示方向判定部は、計算した平均画素座標614を中心とする第2の対象領域613を判定する。一例として、第2の対象領域613は、第1の対象領域611と同様に、距離d/6を半径とする円形領域であってもよい。
Next, the pointing direction determination unit determines a
次に、指示方向判定部は、第2の対象領域の中心である平均画素座標614と、第1の対象領域の中心である指先612とを通る架空線616の方向を、指示方向として判定する。
Next, the pointing direction determination unit determines the direction of an
以上説明した図6に示す第2の指示方向判定手段600では、図5に示す第1の指示方向判定手段500に比べて、半径が小さい対象領域を複数用いることで、指示方向を判定する精度を向上させることができる。
なお、以上では、対象領域を二つ用いる場合を一例として説明したが、本開示はこれに限定されず、3つ以上の対象領域を用いてもよい。また、以上では、対象領域を円形とした場合を一例として説明したが、本開示はこれに限定されず、例えば長方形等、任意の形状であってもよい。
The second pointing direction determination means 600 shown in FIG. 6 described above can improve the accuracy of determining the pointing direction by using multiple target regions with smaller radii than the first pointing direction determination means 500 shown in FIG. 5 .
In the above, the case where two target regions are used has been described as an example, but the present disclosure is not limited to this, and three or more target regions may be used. In addition, in the above, the case where the target region is a circle has been described as an example, but the present disclosure is not limited to this, and the target region may be any shape, such as a rectangle.
図7は、本開示の実施例1に係る第3の指示方向判定手段700の一例を示す図である。図7に示すように、手画像705には、ユーザの手702が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手702が指差し動作となっていることが判定されている。
Fig. 7 is a diagram showing an example of a third pointing direction determination means 700 according to the first embodiment of the present disclosure. As shown in Fig. 7, a user's
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手702のセントロイド710を特定する。このセントロイド710とは、手702の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手702のセントロイド710を特定した後、指示方向判定部は、このセントロイド710から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指704の指先714として特定する。
First, as described above, the pointing direction determination unit (for example, the pointing
次に、指示方向判定部は、特定した指先714と、セントロイド710とを繋ぐ第1の架空線706を設定する。その後、指示方向判定部は、第1の架空線706に対して垂直であり、指先714に対して第2の距離基準を満たす第2の架空線708を設定すると共に、第1の架空線706に対して垂直であり、第2の架空線708に対して平行であり、指先714に対して第3の距離基準を満たす第3の架空線712を設定する。また、第2の架空線708及び第3の架空線712は、輝度値が1以上の領域のみにおいて判定されてもよい(つまり、指し指704の境界を超えて背景まで伸びることはない)。
ここでの第2の距離基準及び第3の距離基準は、互いに異なっており、ユーザ又は機械学習手段によって設定される値であってもよい。第2の距離基準及び第3の距離基準は、互いに異なることにより、第2の架空線708と第3の架空線712との間に間隔を開けることができる。
Next, the pointing direction determination unit sets a first
The second distance criterion and the third distance criterion here may be different from each other and may be values set by a user or a machine learning means. By being different from each other, the second distance criterion and the third distance criterion can space the second and third
次に、指示方向判定部は、第2の架空線708の中心点と、第3の架空線712の中心点とを通る第4の架空線718の方向を、指示方向として判定してもよい。
Next, the indication direction determination unit may determine the direction of a fourth
以上説明した図7に示す第3の指示方向判定手段700では、図5及び図6に示す第1、第2の指示方向判定手段500、600に比べて、必要なコンピューティング資源を抑えると共に、処理速度を向上させることができる。
なお、以上では、第1の架空線706に対して垂直な架空線を2つ判定した場合を一例として説明したが、本開示はこれに限定されず、第1の架空線706に対して垂直な架空線を例えば3つ以上としてもよい。
The third pointing direction determination means 700 shown in FIG. 7 described above can reduce the required computing resources and improve the processing speed, compared to the first and second pointing direction determination means 500, 600 shown in FIGS. 5 and 6.
Note that, although the above describes an example in which two overhead lines are determined to be perpendicular to the first
図8は、本開示の実施例1に係る第4の指示方向判定手段800の一例を示す図である。図8に示すように、手画像805には、ユーザの手802が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手802が指差し動作となっていることが判定されている。
Fig. 8 is a diagram showing an example of a fourth pointing direction determination means 800 according to the first embodiment of the present disclosure. As shown in Fig. 8, a user's
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手802のセントロイド810を特定する。このセントロイド810とは、手802の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手802のセントロイド810を特定した後、指示方向判定部は、このセントロイド810から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指804の指先814として特定する。
First, as described above, the pointing direction determination unit (for example, the pointing
次に、指示方向判定部は、特定した特定した指先814と、セントロイド810とに基づいて、指し指804に属する画素を指画素として特定する。ここでは、指示方向判定部は、上述したように、対象領域内に存在し、所定の輝度基準を満たす画素を指画素として特定してもよい。
Next, the pointing direction determination unit identifies pixels belonging to the index finger 804 as finger pixels based on the identified fingertip 814 and the
次に、指示方向判定部は、最小二乗法(Least Square Line Fitting)を用いて、指画素に基づいて指示方向815を判定する。ただし、本開示は最小二乗法に限定されず、指画素を特定した後、主成分分析(Principal Component Analysis)を用いて指示方向815を特定してもよい。 Next, the pointing direction determination unit determines the pointing direction 815 based on the finger pixels using least squares fitting. However, the present disclosure is not limited to the least squares fitting, and after identifying the finger pixels, the pointing direction 815 may be identified using principal component analysis.
図9は、本開示の実施例1に係る第5の指示方向判定手段900の一例を示す図である。図9に示すように、手画像905には、ユーザの手902が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手902が指差し動作となっていることが判定されている。
Fig. 9 is a diagram illustrating an example of a fifth pointing direction determination means 900 according to the first embodiment of the present disclosure. As shown in Fig. 9, a user's
まず、指示方向判定部は、手902にバウンディングボックス915をフィットさせる。ここでのバウンディングボックスは、例えば長方形であってもよく、楕円形であってもよく、任意の形状であってもよい。その後、指示方向判定部は、バウンディングボックス915に基づいて、手902に最良適合線920をフィットさせる。指示方向判定部は、この最良適合線920の方向を指差し動作の指示方向としてもよい。
First, the pointing direction determination unit fits a bounding box 915 to the
以上、図5から図9を参照して、本開示の実施例に係る指差し動作の指示方向を判定する処理の具体例について説明したが、本開示はこれに限定されず、指差し動作の指示方向を高精度で判定できれば、任意の手段であってもよい。
例えば、もう一例として、指示方向判定部は、ユーザの手の画素の2次元の座標(横軸の座標及び縦軸の座標)を求め、これらの画素の座標の分布、平均、及び分散(distribution, mean, and variance)を解析することで、手の向き及び指示方向を判定してもよい。
Above, with reference to Figures 5 to 9, a specific example of a process for determining the direction of a pointing gesture according to an embodiment of the present disclosure has been described. However, the present disclosure is not limited to this, and any means may be used as long as it can determine the direction of a pointing gesture with high accuracy.
For example, as another example, the pointing direction determination unit may determine the two-dimensional coordinates (horizontal and vertical coordinates) of the pixels of the user's hand, and analyze the distribution, mean, and variance of these pixel coordinates to determine the orientation and pointing direction of the hand.
次に、図10を参照して、本開示の実施例2に係る指示物体検出システムの構成について説明する。 Next, the configuration of a pointing object detection system according to Example 2 of the present disclosure will be described with reference to FIG. 10.
図10は、本開示の実施例2に係る指示物体検出システム1000の構成を示す図である。本開示の実施例2に係る指示物体検出システム1000の指示物体検出装置1010は、物体管理部1030、環境認識部1032、ユーザ情報取得部1034及び更新部1036を含む構成となっている点において、図2に示す、本開示の実施例1に係る指示物体検出システム200の指示物体検出装置210と異なる。物体管理部1030、環境認識部1032、ユーザ情報取得部1034及び更新部1036を含む点を除いて、実施例2に係る指示物体検出システム1000の構成は、実施例1に係る指示物体検出システム200と実質的に同様であるため、同一部分には同一の符号を付して示している。また、説明の便宜上、以下では、上述した部分の説明を省略し、指示物体検出システム1000と指示物体検出システム200との相違点を中心に説明する。
FIG. 10 is a diagram showing the configuration of a pointed
物体管理部1030は、指示物体の取り扱い手順を管理するための機能部である。なお、本開示において、取り扱い手順には、物体への加工、組立、処理、検査がなどの個々の作業や工程、その順序、時間的な管理項目等を含めることができる。
物体管理部1030は、複数の指示物体240がユーザ235の指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納することができる。また、このユーザ物体シーケンス情報は、指示物体240がユーザ235の指差し動作によって指示される順番に加えて、指示物体240の種類(ハンマー、釘、フォーク等)や、指示物体240が指示される時刻等を記録してもよい。
また、物体管理部1030は、複数の指示物体240を取り扱う順番を指定する指定物体シーケンス情報を格納してもよい。この指定物体シーケンス情報は、例えば事前に作成され、指示物体240を取り扱う正しい順番を規定する情報である。
物体管理部1030は、上述したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、指示物体の取り扱いが正しいか否か(つまり、指示物体を取り扱う順番が間違っているか等)を判定することができる。
The
The
Furthermore, the
The
環境認識部1032は、ユーザ235や指示物体240の周辺環境に関する環境情報を取得するための機能部である。この環境情報は、例えば、照明条件、画像入力部224の位置、ユーザ235と指示物体240との距離等、周辺環境に関する任意の情報を含んでもよい。環境認識部1032は、これらの環境情報を特定のユーザインタフェース(ユーザ端末250のユーザインタフェース等)を介して入力してもよく、これらの環境情報を画像入力部224によって取得されている映像から判定するための機械学習手段を含んでもよい。
後述するように、環境認識部1032は、ユーザ235や指示物体240の周辺環境に関する環境情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
The
As described below, the
ユーザ情報取得部1034は、ユーザ235に関するユーザ情報を取得するための機能部である。このユーザ情報は、例えば、ユーザの氏名、肌の色、身長、役職名、資格の有無等、ユーザ235に関する任意の情報を含んでもよい。ユーザ情報取得部1034は、これらのユーザ情報を特定のユーザインタフェース(ユーザ端末250のユーザインタフェース等)を介して入力してもよく、これらのユーザ情報を画像入力部224によって取得されている映像から判定するための機械学習手段を含んでもよい。
後述するように、ユーザ情報取得部1034は、ユーザ235に関するユーザ情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
The user
As described below, the user
更新部1036は、上述した環境認識部1032やユーザ情報取得部1034によって取得された環境情報及びユーザ情報に基づいて、指示物体検出装置1010の各機能部のパラメータを更新するための機能部である。
The
以上説明した本開示の実施例2に係る指示物体検出システム1000によれば、ユーザの情報や周辺環境の情報を考慮した上でユーザの指差し動作の対象となる指示物体240を検出できると共に、指示物体240の取り扱い手順を検証することが可能となる。
The pointed
次に、図11を参照して、本開示の実施例2に係る物体管理部について説明する。 Next, the object management unit according to the second embodiment of the present disclosure will be described with reference to FIG.
図11は、本開示の実施例2に係る物体管理部1030の構成の一例を示す図である。上述したように、物体管理部1030は、指示物体の取り扱い手順を管理するための機能部である。
FIG. 11 is a diagram showing an example of the configuration of the
図11に示すように、物体管理部1030は、指示物体の取り扱いを管理するための情報を格納する物体シーケンス情報データベース1120を含む。より具体的には、物体シーケンス情報データベース1120は、複数の指示物体を取り扱う正しい順番を指定する指定物体シーケンス情報1130と、複数の指示物体がユーザの指差し動作によって指示される順番を示すユーザ物体シーケンス情報1140とを格納する。
上述したように、この指定物体シーケンス情報1130は、事前に作成され、指示物体240を取り扱う正しい順番をタスク毎に規定する情報である。また、ユーザ物体シーケンス情報1140は、ユーザが実際に指示した指示物体の順番をタスク毎に示す情報であり、リアルタイムで指示物体が特定されることに応じて記録されてもよい。
一例として、指定物体シーケンス情報1130は、Task-1に含まれるSubTask-1について、「Object1,Object2, Object3」との取り扱う順番を規定してもよい。一方、ユーザの指差し動作の対象となる指示物体が指示される順番を記録した結果、物体管理部1030は、Task-1に含まれるSubTask-1について、「Object2, Object3,Object1」との取り扱う順番を示すユーザ物体シーケンス情報1140を取得してもよい。
11, the
As described above, the designated
As an example, the specified
次に、図12を参照して、本開示の実施例2に係るユーザ物体シーケンス情報取得処理について説明する。 Next, the user object sequence information acquisition process according to the second embodiment of the present disclosure will be described with reference to FIG.
図12は、本開示の実施例2に係るユーザ物体シーケンス情報取得処理1200の流れを示すフローチャートである。本開示の実施例2に係るユーザ物体シーケンス情報取得処理1200は、複数の指示物体がユーザの指差し動作によって指示される順番を示すユーザ物体シーケンス情報1140を取得するための処理であり、物体管理部1030によって実施される。
FIG. 12 is a flowchart showing the flow of a user object sequence information acquisition process 1200 according to the second embodiment of the present disclosure. The user object sequence information acquisition process 1200 according to the second embodiment of the present disclosure is a process for acquiring user
まず、ステップS1210では、物体管理部1030は、指示物体検出システムが管理する作業場において、現在進行中の各作業を担当するユーザの情報を取得する。ここでは、物体管理部1030は、現在進行中の各作業を担当するユーザの情報を後述するユーザ情報データベースから取得してもよい。ここでは、ユーザの情報は、例えば作業を担当するユーザの氏名や、ユーザを一意に識別する識別子(Worker ID)等を含んでもよい。
First, in step S1210, the
次に、ステップS1220では、物体管理部1030は、対象の作業において特定した指示物体の情報を取得する。ここで、物体管理部1030は、例えば図3に示す指示物体検出方法360によって特定された指示物体の情報を上述した記憶部(例えば、図10に示す記憶部228)から取得してもよい。対象の作業について複数の指示物体が特定された場合、物体管理部1030は、特定された各指示物体を取得する。
ここでの指示物体の情報は、例えば指示物体を一意に識別する識別子(Object ID)や、当該指示物体が指示された時刻を含んでもよい。
Next, in step S1220, the
The information on the pointing object here may include, for example, an identifier (Object ID) that uniquely identifies the pointing object and the time when the pointing object is pointed.
次に、ステップS1230では、物体管理部1030は、ステップS1210で取得した各作業を担当するユーザの情報と、ステップS1220で取得した指示物体の情報とを対応付けることで、作業のタスク毎に、特定のユーザによって指示された指示物体の情報を、指示された順番で示すユーザ物体シーケンス情報1140を生成することができる。このユーザ物体シーケンス情報1140は、例えば上述した物体シーケンス情報データベース1120に格納されてもよい。
Next, in step S1230, the
以上説明したユーザ物体シーケンス情報取得処理1200によれば、ある物体がユーザの指差し動作の対象となる指示物体として特定される度に、特定された指示物体に関する情報(指示物体の種類、指示物体が指示される時刻等)を記録し、ユーザの情報に対応付けることで、特定のユーザが実際に指示した指示物体の順番をタスク毎に示す情報をユーザ物体シーケンス情報1140として取得することができる。
According to the user object sequence information acquisition process 1200 described above, each time an object is identified as a pointed object targeted by a user's pointing action, information about the identified pointed object (such as the type of pointed object and the time when the pointed object is pointed to) is recorded and associated with user information, so that information indicating the order in which the pointed objects were actually pointed to by a specific user for each task can be acquired as user
次に、図13を参照して、本開示の実施例2に係る物体取り扱いシーケンス検証処理について説明する。 Next, the object handling sequence verification process according to the second embodiment of the present disclosure will be described with reference to FIG. 13.
図13は、本開示の実施例2に係る物体取り扱いシーケンス検証処理1300の流れを示すフローチャートである。物体取り扱いシーケンス検証処理1300は、指示物体の取り扱い手順において異常が発生したか否かを判定するための処理であり、上述した物体管理部1030によって実施される。
FIG. 13 is a flowchart showing the flow of the object handling sequence verification process 1300 according to the second embodiment of the present disclosure. The object handling sequence verification process 1300 is a process for determining whether or not an abnormality has occurred in the handling procedure of the pointed object, and is performed by the
まず、ステップS1310では、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを取得する。
ここで、物体管理部1030は、図12を参照して上述したユーザ物体シーケンス情報取得処理1200を用いてユーザ物体シーケンス情報を取得してもよい。
また、物体管理部1030は、指定物体シーケンス情報を、例えば管理者(工場の責任者等)に入力させることで取得してもよい。また、本開示に係るある態様では、物体管理部1030は、対象のタスクを過去に正しく行ったユーザの動作に基づいて作成されたユーザ物体シーケンス情報を、指定物体シーケンス情報として用いてもよい。
First, in step S1310, the
Here, the
The
次に、ステップS1320では、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、指示物体の取り扱い手順が正しいか否か(つまり、指示物体を取り扱う順番が間違っているか等)を判定する。
より具体的には、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、ユーザ物体シーケンス情報を検証し、ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすか否かを判定する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすと判定した場合、本処理はステップS1310に戻り、ユーザ物体シーケンス情報と及び指定物体シーケンス情報の取得を継続する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たさないと判定した場合、本処理はステップS1330へ進む。
なお、この類似度基準とは、ユーザ物体シーケンス情報と、指定物体シーケンス情報とが互いに一致することを判定するための必要最小限の類似度を指定する情報であり、事前に管理者等に設定されてもよい。
Next, in step S1320, the
More specifically, the
Note that this similarity standard is information that specifies the minimum similarity required to determine that the user object sequence information and the specified object sequence information match each other, and may be set in advance by an administrator, etc.
次に、次に、ステップS1330では、物体管理部1030は、指示物体の取り扱い手順において異常や誤りが発生したと判定し、当該異常を示す異常通知を出力する。例えば、物体管理部1030は、異常が発生したタスクの識別情報、異常の内容(物体の取り扱い手順が誤っている等)、異常の発生時刻、タスクの担当者等の情報を含む異常通知を、例えばユーザ端末250に出力してもよい。
Next, in step S1330, the
一例として、指定物体シーケンス情報は、Task-1に含まれるSubTask-1について、「Object1,Object2, Object3」との取り扱う順番を規定するとする。一方、ユーザの指差し動作の対象となる指示物体が指示される順番を記録した結果、物体管理部1030は、Task-1に含まれるSubTask-1について、「Object2, Object3,Object1」との取り扱う順番を示すユーザ物体シーケンス情報が取得されたとする。
この場合、物体管理部1030は、指定物体シーケンス情報と、ユーザ物体シーケンス情報とを比較した結果、ユーザ物体シーケンス情報が指定物体シーケンス情報に一致しないと判定し、指示物体の取り扱い手順に関する異常が発生したと判定する。その後、物体管理部は、当該異常を示す異常通知を生成し、ユーザ端末250に通知してもよい。このように、ユーザ端末250のユーザは、検出された異常を解決する行動を取ることができる。
As an example, the designated object sequence information specifies the order of handling "Object1, Object2, Object3" for SubTask-1 included in Task-1. Meanwhile, as a result of recording the order in which the pointing object targeted by the user's pointing action is pointed to, the
In this case, the
このように、以上説明した物体取り扱いシーケンス検証処理1300によれば、指示物体の取り扱い手順をリアルタイムで検証し、取り扱い手順に異常が発生したか否かを判定することができる。これにより、例えば工場等の作業場では、作業員の手違い等を早期に検出することができるため、作業の正確性及び効率を向上させることができる。 In this way, according to the object handling sequence verification process 1300 described above, the handling procedure for the pointed-to object can be verified in real time, and it can be determined whether or not an abnormality has occurred in the handling procedure. This allows for early detection of worker mistakes in workplaces such as factories, thereby improving the accuracy and efficiency of work.
次に、図14を参照して、本開示の実施例2に係る環境認識部について説明する。 Next, the environment recognition unit according to the second embodiment of the present disclosure will be described with reference to FIG. 14.
図14は、本開示の実施例2に係る環境認識部1032の構成の一例を示す図である。上述したように、環境認識部1032は、ユーザや指示物体の周辺環境に関する環境情報を取得するための機能部である。
また、図14に示すように、環境認識部1032は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
14 is a diagram illustrating an example of the configuration of the
As shown in FIG. 14 , the
図14に示すように、環境認識部1032は、環境情報を受け付ける受付部1412と、環境情報を映像から判定する機械学習部1414と、環境情報データベース1450とを含む。
環境情報データベース1450は、ユーザや指示物体の周辺環境に関する環境情報1455を格納するためのデータベースである。図14に示すように、この環境情報1455は、例えば、周辺環境の照明条件、撮影部の位置、ユーザと指示物体との距離等、周辺環境に関する任意の情報を含んでもよい。
As shown in FIG. 14 , the
The
この環境情報1455は、ユーザによって直接に入力されてもよく、撮影部によって取得される入力映像を機械学習部1414によって解析することで判定されてもよい。
例えば、環境情報1455は、ユーザによって直接に入力される場合、受付部1412は、ユーザ端末250のユーザインタフェース1410を介して入力される環境情報1455を、通信ネットワーク234を介して受け付けた後、受信した環境情報1455を環境情報データベース1450に格納してもよい。ここでのユーザインタフェース1410は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、環境情報1455は、機械学習部1414によって判定される場合、機械学習部1414は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、環境情報1455を判定する。その後、機械学習部1414は、判定した環境情報1455を環境情報データベース1450に格納してもよい。
This
For example, when the
On the other hand, when the
環境情報1455が取得され、環境情報データベース1450に格納された後、上述したオブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び/又は指示物体特定部は、この環境情報1455を適宜に利用してもよい。これにより、オブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部によって実行される各種処理の精度を向上させることが可能となる。
After the
次に、図15を参照して、本開示の実施例2に係るユーザ情報取得部について説明する。 Next, the user information acquisition unit according to the second embodiment of the present disclosure will be described with reference to FIG. 15.
図15は、本開示の実施例2に係るユーザ情報取得部1034の構成の一例を示す図である。ユーザ情報取得部1034は、ユーザに関するユーザ情報を取得するための機能部である。
また、図15に示すように、ユーザ情報取得部1034は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
15 is a diagram illustrating an example of the configuration of the user
As shown in FIG. 15 , the user
図15に示すように、ユーザ情報取得部1034は、ユーザ情報を受け付ける受付部1512と、ユーザ情報を映像から判定する機械学習部1514と、ユーザ情報データベース1550とを含む。
ユーザ情報データベース1550は、ユーザに関するユーザ情報1555を格納するためのデータベースである。図15に示すように、このユーザ情報1555は、例えば、ユーザを一意に識別するための識別子、氏名、身長、肌色、担当タスク、現在のタスク等、ユーザに関する任意の情報を含んでもよい。
As shown in FIG. 15 , the user
The
このユーザ情報1555は、ユーザによって直接に入力されてもよく、撮影部によって取得される入力映像を機械学習部1514によって解析することで判定されてもよい。
例えば、ユーザ情報1555は、ユーザによって直接に入力される場合、受付部1512は、ユーザ端末250のユーザインタフェース1510を介して入力されるユーザ情報1555を、通信ネットワーク234を介して受け付けた後、受信したユーザ情報1555をユーザ情報データベース1550に格納してもよい。ここでのユーザインタフェース1510は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、ユーザ情報1555は、機械学習部1514によって判定される場合、機械学習部1514は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、ユーザ情報1555を判定する。その後、機械学習部1514は、判定したユーザ情報1555をユーザ情報データベース1550に格納してもよい。
This
For example, when the
On the other hand, when the
ユーザ情報1555が取得され、ユーザ情報データベース1550に格納された後、上述したオブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部は、このユーザ情報1555を適宜に利用してもよい。これにより、オブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部によって実行される各種処理の精度を向上させることが可能となる。
After the
次に、図16を参照して、本開示の実施例2に係る更新部について説明する。 Next, the update unit according to the second embodiment of the present disclosure will be described with reference to FIG. 16.
図16は、本開示の実施例2に係る更新部1036の構成の一例を示す図である。上述したように、更新部1036は、環境認識部やユーザ情報取得部によって取得された環境情報及びユーザ情報に基づいて、指示物体検出装置の各機能部のパラメータを更新するための機能部である。
FIG. 16 is a diagram illustrating an example of the configuration of the
図16に示すように、更新部1036は、上述した環境情報データベース1450及びユーザ情報データベース1550に接続されており、環境情報1455及びユーザ情報1555をアクセスできるように構成されている。
As shown in FIG. 16, the
更新部1036は、環境情報データベース1450から環境情報1455を取得し、ユーザ情報データベース1550からユーザ情報1555を取得した後、取得した環境情報1455及びユーザ情報1555に基づいて指示物体検出装置の各機能部のパラメータを更新する。更新部1036は、環境情報1455及びユーザ情報1555に基づいた各機能部の更新を定期的(1分毎、5分毎、1時間毎)に行ってもよく、新たな情報が環境情報データベース1450又はユーザ情報データベース1550に追加される度に更新を行ってもよい。
The
また、環境情報1455及びユーザ情報1555に基づいた更新は、各機能部の処理の精度及び効率を向上させるための処理であり、この更新で調整されるパラメータは、各機能部の機能や性能に応じて適宜に決定されてもよい。
一例として、環境情報1455は、ユーザ及び指示物体の周辺環境が暗いと示す場合、更新部1036は、撮影部のパラメータを、暗い環境に適したパラメータに変更してもよい。これにより、より鮮明な入力映像を取得することが可能となり、オブジェクト検出部によるオブジェクト検出の精度を向上させることができる。
また、もう一例として、更新部1036は、ユーザ情報1555に記録されているユーザの肌色に基づいて、画像加工部のパラメータを、ユーザの肌色に適したパラメータに変更してもよい。これにより、画像加工部による手画像の抽出の精度を向上させることができる。
In addition, the update based on the
For example, when the
As another example, the
以上説明したように構成した更新部1036によれば、ユーザの情報や環境の情報を用いて指示物体検出装置の各機能部のパラメータを更新することで、各機能部による処理の精度及び効率を向上させることが可能となる。
The
次に、図17を参照して、本開示の実施例3に係る指示物体検出システムの構成について説明する。 Next, the configuration of a pointing object detection system according to Example 3 of the present disclosure will be described with reference to FIG. 17.
図17は、本開示の実施例3に係る指示物体検出システム1700の構成を示す図である。本開示の実施例3に係る指示物体検出システム1700の指示物体検出装置1710は、作業管理部1740を含む構成となっている点において、図10に示す、本開示の実施例2に係る指示物体検出システム1000の指示物体検出装置1010と異なる。作業管理部1740を含む点を除いて、実施例3に係る指示物体検出システム1700の構成は、実施例2に係る指示物体検出システム1000と実質的に同様であるため、同一部分には同一の符号を付して示している。また、説明の便宜上、以下では、上述した部分の説明を省略し、指示物体検出システム1700と指示物体検出システム1000との相違点を中心に説明する。
FIG. 17 is a diagram showing the configuration of a pointed
作業管理部1740は、ユーザ等の作業員が行う作業を管理するための機能部である。例えば、作業管理部1740は、作業の担当者への割り当てや作業の分配を、例えば物体管理部1030によって取得されるユーザ物体シーケンス情報に基づいて管理してもよい。一例として、作業管理部1740は、ユーザ物体シーケンス情報に基づいて、各作業者の作業の進捗状況を判定し、この進捗状況に応じて作業の割り当てを行ってもよい。また、もう一例として、作業管理部1740は、ユーザ物体シーケンス情報に基づいて、各作業者の作業毎の効率を判定し、この作業毎の効率に応じて作業の割り当てを行ってもよい。
なお、作業管理部1740による処理の詳細については後述するため、ここではその説明を省略する。
The
The details of the processing performed by the
以上説明した本開示の実施例3に係る指示物体検出システム1700によれば、ユーザの指差し動作の対象となる指示物体240を検出できると共に、ユーザ物体シーケンス情報によって判定される各作業者の作業状況に応じて作業の分配を管理することが可能となる。
The pointed
次に、図18を参照して、本開示の実施例3に係る作業管理部による作業分配処理について説明する。 Next, the work distribution process performed by the work management unit according to the third embodiment of the present disclosure will be described with reference to FIG.
図18は、本開示の実施例3に係る作業管理部による作業分配処理1800の流れを示す図である。図18に示す作業分配処理1800は、作業をユーザに分配するための処理であり、作業管理部1740によって実施される。
Figure 18 is a diagram showing the flow of work distribution processing 1800 by the work management unit according to the third embodiment of the present disclosure. The work distribution processing 1800 shown in Figure 18 is a process for distributing work to users, and is performed by the
まず、ステップS1810では、作業管理部1740は、ユーザ物体シーケンス情報を、上述した物体シーケンス情報データベース(例えば、図11に示す物体シーケンス情報データベース1120)から取得し、取得したユーザ物体シーケンス情報に基づいて、対象の作業の進捗状況を判定する。上述したように、ユーザ物体シーケンス情報には、対象の作業のタスク毎に、特定のユーザによって指示された指示物体の情報が、指示された順番で示されている。このため、ユーザ物体シーケンス情報を、当該作業の正しい動作の順番を示す指定物体シーケンス情報に比較することで、現在進行中の作業の進捗状況を判定することが可能である。
例えば、作業管理部1740は、物体シーケンス情報データベースから取得したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、現在進行中の作業の進捗状況を示す情報として、当該作業の完了率(30%、54%、70%等)を判定してもよい。
なお、このステップS1810では、作業管理部1740は、作業の進捗状況を判定するためのユーザ物体シーケンス情報を少なくとも取得するが、本開示はこれに限定されず、作業管理部1740は、ユーザ物体シーケンス情報に加えて、上述したユーザ情報や環境情報等、他の情報を取得してもよい。後述するように、ユーザ物体シーケンス情報に加えて、取得したユーザ情報や環境情報は作業を分配する際に用いられてもよい。
First, in step S1810, the
For example, the
In step S1810, the
次に、ステップS1820では、作業管理部1740は、ステップS1810で判定した作業の進捗状況と、作業管理部1740に格納されている作業分配ルール1825とに基づいて、作業の分配を行ってもよい。より具体的には、ここで、作業管理部1740は、作業の進捗状況と、作業分配ルール1825とに基づいて、新たに発生した新規の作業を特定のユーザ(第1のユーザ)に割り当ててもよく、特定のユーザ(第1のユーザ)に既に割り当てられた作業を別のユーザ(第2のユーザ)に再分配してもよい。
作業分配ルール1825は、作業の分配方法を規定するルールである。言い換えれば、作業分配ルール1825は、どのような作業を、どのようなタイミングで、どのようなユーザに割り当てるべきかを指定する情報である。例えば、作業分配ルール1825は、「ユーザの現在の作業の完了率が70%以上の場合、新規の作業を割り当てる」ルールや、「ユーザの現在の作業の完了率が20%以下の場合、新規の作業を割り当てない」ルール等を含んでもよい。
また、作業分配ルール1825は、現在の作業の進捗状況以外にも、上述したユーザ情報及び環境情報を考慮するルールを含んでもよい。例えば、作業分配ルール1825は、ユーザ情報から判定したユーザの資格の有無に基づいて作業の分配を決定してもよく、環境の証明条件等に基づいて作業の分配を決定してもよい。
Next, in step S1820, the
The
Furthermore, the
次に、ステップS1830では、作業管理部1740は、作業の分配を行った後、ユーザ情報データベース(例えば、図15に示すユーザ情報データベース1550)や、物体シーケンス情報データベース(例えば、図11及び図12に示す物体シーケンス情報データベース)を更新してもよい。例えば、作業管理部1740は、ユーザ情報データベース及び物体シーケンス情報データベースにおいて、ステップS1820で行った作業の分配に合わせて、各ユーザが担当する作業の内容を更新してもよい。
Next, in step S1830, the
以上説明した作業分配処理1800によれば、本開示の実施例に係る指示物体検出方法によって取得された情報(ユーザ情報、環境情報、ユーザ物体シーケンス情報)を用いて、作業を効率よくユーザに分配することが可能となる。 According to the task distribution process 1800 described above, tasks can be efficiently distributed to users using information (user information, environmental information, user object sequence information) acquired by the pointed object detection method according to the embodiment of the present disclosure.
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
物体管理部や環境認識部の構成や、管理される項目についても、上述した内容に限定されるものではなく様々な変更が可能である。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications are possible without departing from the gist of the present invention.
The configurations of the object management unit and the environment recognition unit, and the items to be managed are not limited to those described above, and various modifications are possible.
200、1000、1700 指示物体検出システム
210、1010、1710 指示物体検出装置
212 オブジェクト検出部
214 画像加工部
218 ジェスチャー判定部
220 指示方向判定部
222 指示物体特定部
224 画像入力部
226 プロセッサ
228 記憶部
234 通信ネットワーク
235 ユーザ
240 指示物体
250 ユーザ端末
1030 物体管理部
1032 環境認識部
1036 更新部
200, 1000, 1700 Pointing object detection system 210, 1010, 1710 Pointing
Claims (10)
ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する画像入力部と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
前記手によるジェスチャーを判定するジェスチャー判定部と、
前記手による前記ジェスチャーが指差し動作と判定された場合、
前記手のセントロイドを特定し、
前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
を含み、
前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
前記指画素の平均画素座標を計算し、
前記平均画素座標と、前記指先とを通過する架空線の方向を、前記指示方向として判定する、
ことを特徴とする指示物体検出装置。 A pointing object detection device that detects a pointing object that is a target of a pointing action,
an image input unit that acquires an input image including a user's hand and at least one pointing object candidate;
an object detection unit that analyzes the input video and detects the hand and the pointing object candidate;
a gesture determination unit for determining a gesture made by the hand;
If the gesture by the hand is determined to be a pointing gesture,
Identifying a centroid of the hand;
Identifying a region that satisfies a first distance criterion from the centroid and also satisfies a predetermined curvature criterion as the fingertip of the index finger used in the pointing motion;
a pointing direction determination unit that determines a pointing direction of the pointing motion based on the identified distribution of pixels belonging to the fingertip;
a pointing object identification unit that identifies an object pointed to by the pointing motion in the input video from among the pointing object candidates based on the pointing direction;
Including,
The instruction direction determination unit
In a hand image extracted from the input video and showing only the hand,
determining a region of interest centered on the fingertip based on a distance between the fingertip and the centroid;
Identifying pixels in the target region that satisfy a predetermined luminance standard as finger pixels belonging to the index finger;
Calculating the average pixel coordinates of the finger pixels;
determining a direction of an imaginary line passing through the average pixel coordinates and the fingertip as the pointing direction;
A pointing object detection device comprising:
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとを通過する第1の架空線を設定し、
前記第1の架空線に対して垂直であり、前記指先に対して第2の距離基準を満たす第2の架空線を設定し、
前記第1の架空線に対して垂直であり、前記第2の架空線に対して平行であり、前記指先に対して第3の距離基準を満たす第3の架空線を設定し、
前記第2の架空線の中心点と、前記第3の架空線の中心点を通過する第4の架空線の方向を、前記指示方向として判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 The instruction direction determination unit
In a hand image extracted from the input video and showing only the hand,
setting a first imaginary line passing through the fingertip and the centroid;
setting a second imaginary line that is perpendicular to the first imaginary line and satisfies a second distance criterion with respect to the fingertip;
setting a third imaginary line that is perpendicular to the first imaginary line, parallel to the second imaginary line, and satisfies a third distance criterion with respect to the fingertip;
determining a direction of a fourth imaginary line passing through a center point of the second imaginary line and a center point of the third imaginary line as the indicated direction;
2. The pointing object detection device according to claim 1, wherein the pointing object detection device is a pointing object detection device.
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
最小二乗法を用いて、前記指画素に基づいて前記指示方向を判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 The instruction direction determination unit
In a hand image extracted from the input video and showing only the hand,
determining a region of interest centered on the fingertip based on a distance between the fingertip and the centroid;
Identifying pixels in the target region that satisfy a predetermined luminance standard as finger pixels belonging to the index finger;
determining the pointing direction based on the finger pixels using a least squares method;
2. The pointing object detection device according to claim 1, wherein the pointing object detection device is a pointing object detection device.
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
主成分分析を用いて、前記指画素に基づいて前記指示方向を判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 The instruction direction determination unit
In a hand image extracted from the input video and showing only the hand,
determining a region of interest centered on the fingertip based on a distance between the fingertip and the centroid;
Identifying pixels in the target region that satisfy a predetermined luminance standard as finger pixels belonging to the index finger;
determining the pointing direction based on the finger pixels using principal component analysis;
2. The pointing object detection device according to claim 1, wherein the pointing object detection device is a pointing object detection device.
前記指示物体の取り扱い手順を管理するための物体管理部を更に含み、
前記物体管理部は、
複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 The pointing object detection device is
Further comprising an object management unit for managing a handling procedure of the pointing object,
The object management unit
creating and storing user object sequence information indicating an order in which the plurality of pointing objects are pointed to by the user's pointing action;
2. The pointing object detection device according to claim 1, wherein the pointing object detection device is a pointing object detection device.
複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報を格納しており、
前記ユーザ物体シーケンス情報と、前記指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、
前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、
前記指示物体の取り扱い手順において異常が発生したと判定し、前記異常を示す異常通知を出力する、
ことを特徴とする、請求項5に記載の指示物体検出装置。 The object management unit
storing designated object sequence information that designates an order in which the plurality of designated objects are to be handled;
verifying the user object sequence information by comparing the user object sequence information with the designated object sequence information;
If the user object sequence information does not satisfy a predetermined similarity criterion with respect to the designated object sequence information,
determining that an abnormality has occurred in the handling procedure of the pointing object, and outputting an abnormality notification indicating the abnormality;
6. The pointing object detection device according to claim 5 ,
前記ユーザに関するユーザ情報を取得するユーザ情報取得部と、
前記ユーザの周辺環境に関する環境情報を取得する環境認識部と、
前記ユーザ情報又は前記環境情報に基づいて、前記画像入力部、前記オブジェクト検出部、前記ジェスチャー判定部、前記指示方向判定部、前記指示物体特定部、及び前記物体管理部の内の少なくとも1つのパラメータを更新する更新部と、
を含むことを特徴とする、請求項5に記載の指示物体検出装置。 The pointing object detection device is
A user information acquisition unit that acquires user information related to the user;
an environment recognition unit that acquires environment information related to a surrounding environment of the user;
an update unit that updates at least one parameter of the image input unit, the object detection unit, the gesture determination unit, the pointing direction determination unit, the pointing object identification unit, and the object management unit based on the user information or the environmental information;
The pointing object detection device according to claim 5 , further comprising:
前記ユーザが行う作業を管理する作業管理部を含み、
前記作業管理部は、
前記ユーザ物体シーケンス情報に基づいて、第1のユーザが担当する第1の作業の進捗状況を判定し、
判定した前記第1の作業の前記進捗状況と、作業の分配方法を規定する作業分配ルールとに基づいて、第2の作業を担当する第2のユーザを判定し、前記第2の作業を前記第2のユーザに分配する、
ことを特徴とする、請求項6に記載の指示物体検出装置。 The pointing object detection device is
a task management unit for managing tasks performed by the user;
The work management unit includes:
determining a progress status of a first task assigned to a first user based on the user object sequence information;
determining a second user who will be in charge of a second task based on the determined progress status of the first task and a task distribution rule that specifies a task distribution method, and distributing the second task to the second user;
7. The pointing object detection device according to claim 6 ,
ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する工程と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出する工程と、
前記入力映像から、前記手のみを示す手画像を抽出する工程と、
前記手画像を解析し、前記手によるジェスチャーを判定する工程と、
前記手による前記ジェスチャーが指差し動作と判定された場合、前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指し指の指先として特定する工程と、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定する工程と、
前記対象領域において、所定の輝度基準を満たす画素を、前記指差し動作に用いられた指し指に属する指画素として特定する工程と、
前記指画素の平均画素座標を計算する工程と、
前記平均画素座標と、前記指先とを通る架空線の方向を、前記指差し動作の指示方向として判定する工程と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する工程と、
を含むことを特徴とする指示物体検出方法。 A pointing object detection method for detecting a pointing object that is a target of a pointing action, comprising:
acquiring an input video including a user's hand and at least one potential pointing object;
analyzing the input video to detect the hand and the pointing object candidates;
extracting a hand image showing only the hand from the input video;
analyzing the hand image to determine a gesture made by the hand;
determining a centroid of the hand when the gesture by the hand is determined to be a pointing motion, and determining, as the fingertip of the index finger, an area that satisfies a first distance criterion from the centroid and also satisfies a predetermined curvature criterion;
determining a region of interest centered on the fingertip based on a distance between the fingertip and the centroid;
identifying pixels in the target region that satisfy a predetermined luminance standard as finger pixels belonging to the finger used in the pointing motion;
calculating average pixel coordinates of the finger pixels;
determining a direction of an imaginary line passing through the average pixel coordinates and the fingertip as a direction of the pointing motion;
identifying an object pointed to by the pointing motion in the input video from among the pointing object candidates based on the pointing direction;
A pointing object detection method comprising:
前記指示物体検出システムは、
指示物体検出装置と、
ユーザ端末とを含み、
前記指示物体検出装置と、前記ユーザ端末とが通信ネットワークを介して接続されており、
前記指示物体検出装置は、
ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像を取得する画像入力部と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
前記手によるジェスチャーを判定するジェスチャー判定部と、
前記手による前記ジェスチャーが指差し動作と判定された場合、
前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
特定された前記指示物体に基づいて、複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、前記ユーザ物体シーケンス情報と、複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、前記指示物体の取り扱い手順に関する異常を示す異常通知を前記ユーザ端末に出力する物体管理部とを含み、
前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
前記指画素の平均画素座標を計算し、
前記平均画素座標と、前記指先とを通過する架空線の方向を、前記指示方向として判定する、
ことを特徴とする指示物体検出システム。 A pointing object detection system for detecting a pointing object that is a target of a pointing action, comprising:
The pointing object detection system includes:
A pointing object detection device;
a user terminal;
the pointing object detection device and the user terminal are connected via a communication network;
The pointing object detection device is
an image input unit that acquires an input video showing a user's hand and at least one pointing object candidate;
an object detection unit that analyzes the input video and detects the hand and the pointing object candidate;
a gesture determination unit for determining a gesture made by the hand;
If the gesture by the hand is determined to be a pointing gesture,
identifying a centroid of the hand, and identifying a region that satisfies a first distance criterion from the centroid and also satisfies a predetermined curvature criterion as the fingertip of the index finger used in the pointing motion;
a pointing direction determination unit that determines a pointing direction of the pointing motion based on the identified distribution of pixels belonging to the fingertip;
a pointing object identification unit that identifies an object pointed to by the pointing motion in the input video from among the pointing object candidates based on the pointing direction;
an object management unit that creates user object sequence information indicating the order in which the multiple pointing objects are pointed to by the user's pointing action based on the identified pointing object, verifies the user object sequence information by comparing the user object sequence information with designated object sequence information that specifies the order in which the multiple pointing objects are handled, and outputs an abnormality notification to the user terminal when the user object sequence information does not satisfy a predetermined similarity standard with respect to the designated object sequence information,
The instruction direction determination unit
In a hand image extracted from the input video and showing only the hand,
determining a region of interest centered on the fingertip based on a distance between the fingertip and the centroid;
Identifying pixels in the target region that satisfy a predetermined luminance standard as finger pixels belonging to the index finger;
Calculating the average pixel coordinates of the finger pixels;
determining a direction of an imaginary line passing through the average pixel coordinates and the fingertip as the pointing direction;
A pointing object detection system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021023229A JP7470069B2 (en) | 2021-02-17 | 2021-02-17 | Pointing object detection device, pointing object detection method, and pointing object detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021023229A JP7470069B2 (en) | 2021-02-17 | 2021-02-17 | Pointing object detection device, pointing object detection method, and pointing object detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022125570A JP2022125570A (en) | 2022-08-29 |
JP7470069B2 true JP7470069B2 (en) | 2024-04-17 |
Family
ID=83058502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021023229A Active JP7470069B2 (en) | 2021-02-17 | 2021-02-17 | Pointing object detection device, pointing object detection method, and pointing object detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7470069B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063091A (en) | 2003-08-11 | 2005-03-10 | Keio Gijuku | Hand pattern switch device |
JP2010152791A (en) | 2008-12-26 | 2010-07-08 | Nippon Syst Wear Kk | Image processor for detecting object, method, program, and computer readable medium storing the program |
JP2012073659A (en) | 2010-09-01 | 2012-04-12 | Shinsedai Kk | Operation determination device, fingertip detection device, operation determination method, fingertip detection method, operation determination program, and fingertip detection program |
JP2013205983A (en) | 2012-03-27 | 2013-10-07 | Sony Corp | Information input apparatus, information input method, and computer program |
JP2014119295A (en) | 2012-12-14 | 2014-06-30 | Clarion Co Ltd | Control device and portable terminal |
JP2015026266A (en) | 2013-07-26 | 2015-02-05 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN104933432A (en) | 2014-03-18 | 2015-09-23 | 北京思而得科技有限公司 | Processing method for finger pulp crease and finger vein images |
JP2017091186A (en) | 2015-11-10 | 2017-05-25 | 株式会社日立製作所 | Authentication apparatus using biological information and authentication method |
-
2021
- 2021-02-17 JP JP2021023229A patent/JP7470069B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063091A (en) | 2003-08-11 | 2005-03-10 | Keio Gijuku | Hand pattern switch device |
JP2010152791A (en) | 2008-12-26 | 2010-07-08 | Nippon Syst Wear Kk | Image processor for detecting object, method, program, and computer readable medium storing the program |
JP2012073659A (en) | 2010-09-01 | 2012-04-12 | Shinsedai Kk | Operation determination device, fingertip detection device, operation determination method, fingertip detection method, operation determination program, and fingertip detection program |
JP2013205983A (en) | 2012-03-27 | 2013-10-07 | Sony Corp | Information input apparatus, information input method, and computer program |
JP2014119295A (en) | 2012-12-14 | 2014-06-30 | Clarion Co Ltd | Control device and portable terminal |
JP2015026266A (en) | 2013-07-26 | 2015-02-05 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN104933432A (en) | 2014-03-18 | 2015-09-23 | 北京思而得科技有限公司 | Processing method for finger pulp crease and finger vein images |
JP2017091186A (en) | 2015-11-10 | 2017-05-25 | 株式会社日立製作所 | Authentication apparatus using biological information and authentication method |
Non-Patent Citations (1)
Title |
---|
徳永修一 外2名,手の形状認識による入力装置に関する研究,日本経営工学会誌,日本,社団法人日本経営工学会,1994年06月15日,第45巻 第2号,pp.162~168 |
Also Published As
Publication number | Publication date |
---|---|
JP2022125570A (en) | 2022-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11650659B2 (en) | User input processing with eye tracking | |
US10572072B2 (en) | Depth-based touch detection | |
Yao et al. | Contour model-based hand-gesture recognition using the Kinect sensor | |
Le et al. | Human posture recognition using human skeleton provided by Kinect | |
US20180211104A1 (en) | Method and device for target tracking | |
Patruno et al. | People re-identification using skeleton standard posture and color descriptors from RGB-D data | |
CN110287772B (en) | Method and device for extracting palm and palm center area of plane palm | |
CN109325456B (en) | Target identification method, target identification device, target identification equipment and storage medium | |
JPWO2015133206A1 (en) | Image processing apparatus, image processing method, and image processing program | |
US9734435B2 (en) | Recognition of hand poses by classification using discrete values | |
CN111259751A (en) | Video-based human behavior recognition method, device, equipment and storage medium | |
KR102649930B1 (en) | Systems and methods for finding and classifying patterns in images with a vision system | |
WO2021017286A1 (en) | Facial recognition method and apparatus, electronic device and non-volatile computer readable storage medium | |
TWI776176B (en) | Device and method for scoring hand work motion and storage medium | |
US10817716B2 (en) | Coarse-to-fine hand detection method using deep neural network | |
CN111460858A (en) | Method and device for determining pointed point in image, storage medium and electronic equipment | |
JP7470069B2 (en) | Pointing object detection device, pointing object detection method, and pointing object detection system | |
US10013602B2 (en) | Feature vector extraction device based on cell positioning | |
Pavllo et al. | Real-time finger tracking using active motion capture: A neural network approach robust to occlusions | |
JP6567638B2 (en) | Noseprint matching system, noseprint matching method, and noseprint matching program | |
KR101868520B1 (en) | Method for hand-gesture recognition and apparatus thereof | |
Soroni et al. | Hand Gesture Based Virtual Blackboard Using Webcam | |
Bernardos et al. | A contactless identification system based on hand shape features | |
CN109814712B (en) | Gesture recognition system based on virtual interaction device | |
CN111061367B (en) | Method for realizing gesture mouse of self-service equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7470069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |