JP2022125570A - 指示物体検出装置、指示物体検出方法及び指示物体検出システム - Google Patents
指示物体検出装置、指示物体検出方法及び指示物体検出システム Download PDFInfo
- Publication number
- JP2022125570A JP2022125570A JP2021023229A JP2021023229A JP2022125570A JP 2022125570 A JP2022125570 A JP 2022125570A JP 2021023229 A JP2021023229 A JP 2021023229A JP 2021023229 A JP2021023229 A JP 2021023229A JP 2022125570 A JP2022125570 A JP 2022125570A
- Authority
- JP
- Japan
- Prior art keywords
- pointing
- user
- hand
- unit
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 59
- 230000009471 action Effects 0.000 claims abstract description 30
- 238000001514 detection method Methods 0.000 claims description 125
- 230000005856 abnormality Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 12
- 238000000513 principal component analysis Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 66
- 238000010586 diagram Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 19
- 238000010801 machine learning Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000003857 wrist joint Anatomy 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 241000282577 Pan troglodytes Species 0.000 description 1
- 241000282405 Pongo abelii Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008867 communication pathway Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
指差し動作を検出する手法によれば、例えば家事、福祉、産業等の様々な場面でマン・マシンインターフェイスを実現し、人を支援するサービスが可能となる。
非特許文献1には、複数のカメラを使用して指差し方向を認識する正確な方法が提案されている。この手法において、入力画像は、形状分析の前にカラークラスタリングによってセグメント化される。そして、操作領域の狭さや事前定義された肌の色など、以前の方法のいくつかの制限が解除されている。この結果、8方向の指さし認識は、平均90%の再現率と93%の精度で実現される旨が記載されている。
しかし、非特許文献1に記載の方法では、画像における指の抽出は、手の各部位の相対的な幅に基づいて行われるため、画角、ノイズ、オブジェクト検出の誤り等によって手の各部位の幅が判定できない場合や、洋服の袖等によって手が部分的に隠され、手の部位の見かけの幅が正確でない場合には、指差し方向を判定する精度が限定されてしまう。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
また、図2に示すように、指示物体検出装置210は、オブジェクト検出部212、画像加工部214、ジェスチャー判定部218、指示方向判定部220、指示物体特定部222、画像入力部224、プロセッサ226及び記憶部228を含む。
指示物体検出の精度を向上する観点から、画像入力部224が撮像部の場合には、この撮像部は、ユーザ235の手や、ユーザ235の作業の対象となる物体が容易に撮影可能な位置に配置されることが望ましい。
以下の説明では、画像入力部224が撮影部を意味するものとして説明するが、画像入力部224は、画像信号を受信する機能部であってもよい。
なお、図2では、画像入力部224が指示物体検出装置210に含まれている構成の場合を一例として示しているが、本開示はこれに限定されず、画像入力部224は、指示物体検出装置210とは独立した、別途の装置であってもよい。この場合、画像入力部224は、取得した入力映像を通信ネットワーク234を介して指示物体検出装置210に送信してもよい。
画像加工部214による処理の結果、ユーザ235の手に属する画素の輝度値が1以上となり、ユーザ235の手に属さない画素の輝度値が0となるバイナリー画像が得られる(図5~図9参照)。
ここでのジェスチャー判定部218は、ユーザ235の手が示すジェスチャーを判定するために、例えば3Dモデルベースアルゴリズム、骨格ベースアルゴリズム、筋電計ベースモデル等、任意の既存の手段を用いてもよい。
本開示においては「セントロイド」とは一般的な質量中心を意味するが、画像上の幾何中心であってもよいし、幾何中心に代えて物理的な重心を用いてもよい。
なお、指示方向判定部220を用いて指示方向を判定する処理の詳細については後述する。
撮影部によって取得される入力映像363は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
上述したように、オブジェクト検出部212は、入力映像363に含まれる全てのオブジェクトを検出し、検出したオブジェクトのクラスを示すラベル365を生成してもよい。これらのラベル365は、例えば上述した記憶部に格納されてもよい。
なお、指示方向判定部を用いて指示方向を判定する処理の詳細については後述する。
なお、図4に示す指示方向判定処理400は、図3に示す指示物体検出方法360におけるステップS370に実質的に対応する。また、図4に示す指示方向判定処理400は、指差し動作の指示方向を判定するための大まかな処理であり、指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
この第1の距離基準は、ある領域が指先として認定されるために、当該領域のセントロイドからの必要な距離の下限を指定してもよい。
同様に、この曲率基準は、ある領域が指先として認定されるために、必要な曲率の下限を指定してもよい。
このように、上述した距離基準及び曲率基準を用いることで、手のセントロイド(つまり、手の中心部)から所定の距離以上に離れており、所定の曲率以上を持つ領域を指し指の指先として特定できる。
なお、ここでの第1の距離基準及び曲率基準は、ユーザによって指定されてもよく、過去に収集されたテスト用画像に基づいて適切な値を設定するように学習された機械学習手段によって指定されてもよい。
なお、上述したように、画素の分布に基づいて指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
なお、対象領域511の半径はハイパーパラメータであり、ユーザに設定されてもよく、既存のハイパーパラメータ最適化方法に基づいて最適化されてもよい。
このように、輝度基準を「1」として設定することで、対象領域511における明るい画素(つまり、対象領域511において、指し指504に属する画素)を特定することができる。
なお、以上では、対象領域及び画素の輝度値に基づいて指画素を特定する場合を一例として説明したが、本開示はこれに限定されず、例えばクラスタリングや回帰(recursion)等、任意の手法を用いてもよい。
平均画素座標514を計算した後、指示方向判定部は、計算した平均画素座標514と、指先512とを通る架空線516の方向を、指示方向として判定する。
このように、輝度基準を「1」として設定することで、第1の対象領域611における明るい画素(つまり、第1の対象領域611において、指し指604に属する画素)を特定することができる。
なお、以上では、対象領域を二つ用いる場合を一例として説明したが、本開示はこれに限定されず、3つ以上の対象領域を用いてもよい。また、以上では、対象領域を円形とした場合を一例として説明したが、本開示はこれに限定されず、例えば長方形等、任意の形状であってもよい。
ここでの第2の距離基準及び第3の距離基準は、互いに異なっており、ユーザ又は機械学習手段によって設定される値であってもよい。第2の距離基準及び第3の距離基準は、互いに異なることにより、第2の架空線708と第3の架空線712との間に間隔を開けることができる。
なお、以上では、第1の架空線706に対して垂直な架空線を2つ判定した場合を一例として説明したが、本開示はこれに限定されず、第1の架空線706に対して垂直な架空線を例えば3つ以上としてもよい。
例えば、もう一例として、指示方向判定部は、ユーザの手の画素の2次元の座標(横軸の座標及び縦軸の座標)を求め、これらの画素の座標の分布、平均、及び分散(distribution, mean, and variance)を解析することで、手の向き及び指示方向を判定してもよい。
物体管理部1030は、複数の指示物体240がユーザ235の指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納することができる。また、このユーザ物体シーケンス情報は、指示物体240がユーザ235の指差し動作によって指示される順番に加えて、指示物体240の種類(ハンマー、釘、フォーク等)や、指示物体240が指示される時刻等を記録してもよい。
また、物体管理部1030は、複数の指示物体240を取り扱う順番を指定する指定物体シーケンス情報を格納してもよい。この指定物体シーケンス情報は、例えば事前に作成され、指示物体240を取り扱う正しい順番を規定する情報である。
物体管理部1030は、上述したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、指示物体の取り扱いが正しいか否か(つまり、指示物体を取り扱う順番が間違っているか等)を判定することができる。
後述するように、環境認識部1032は、ユーザ235や指示物体240の周辺環境に関する環境情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
後述するように、ユーザ情報取得部1034は、ユーザ235に関するユーザ情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
上述したように、この指定物体シーケンス情報1130は、事前に作成され、指示物体240を取り扱う正しい順番をタスク毎に規定する情報である。また、ユーザ物体シーケンス情報1140は、ユーザが実際に指示した指示物体の順番をタスク毎に示す情報であり、リアルタイムで指示物体が特定されることに応じて記録されてもよい。
一例として、指定物体シーケンス情報1130は、Task-1に含まれるSubTask-1について、「Object1,Object2, Object3」との取り扱う順番を規定してもよい。一方、ユーザの指差し動作の対象となる指示物体が指示される順番を記録した結果、物体管理部1030は、Task-1に含まれるSubTask-1について、「Object2, Object3,Object1」との取り扱う順番を示すユーザ物体シーケンス情報1140を取得してもよい。
ここでの指示物体の情報は、例えば指示物体を一意に識別する識別子(Object ID)や、当該指示物体が指示された時刻を含んでもよい。
ここで、物体管理部1030は、図12を参照して上述したユーザ物体シーケンス情報取得処理1200を用いてユーザ物体シーケンス情報を取得してもよい。
また、物体管理部1030は、指定物体シーケンス情報を、例えば管理者(工場の責任者等)に入力させることで取得してもよい。また、本開示に係るある態様では、物体管理部1030は、対象のタスクを過去に正しく行ったユーザの動作に基づいて作成されたユーザ物体シーケンス情報を、指定物体シーケンス情報として用いてもよい。
より具体的には、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、ユーザ物体シーケンス情報を検証し、ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすか否かを判定する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすと判定した場合、本処理はステップS1310に戻り、ユーザ物体シーケンス情報と及び指定物体シーケンス情報の取得を継続する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たさないと判定した場合、本処理はステップS1330へ進む。
なお、この類似度基準とは、ユーザ物体シーケンス情報と、指定物体シーケンス情報とが互いに一致することを判定するための必要最小限の類似度を指定する情報であり、事前に管理者等に設定されてもよい。
この場合、物体管理部1030は、指定物体シーケンス情報と、ユーザ物体シーケンス情報とを比較した結果、ユーザ物体シーケンス情報が指定物体シーケンス情報に一致しないと判定し、指示物体の取り扱い手順に関する異常が発生したと判定する。その後、物体管理部は、当該異常を示す異常通知を生成し、ユーザ端末250に通知してもよい。このように、ユーザ端末250のユーザは、検出された異常を解決する行動を取ることができる。
また、図14に示すように、環境認識部1032は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
環境情報データベース1450は、ユーザや指示物体の周辺環境に関する環境情報1455を格納するためのデータベースである。図14に示すように、この環境情報1455は、例えば、周辺環境の照明条件、撮影部の位置、ユーザと指示物体との距離等、周辺環境に関する任意の情報を含んでもよい。
例えば、環境情報1455は、ユーザによって直接に入力される場合、受付部1412は、ユーザ端末250のユーザインタフェース1410を介して入力される環境情報1455を、通信ネットワーク234を介して受け付けた後、受信した環境情報1455を環境情報データベース1450に格納してもよい。ここでのユーザインタフェース1410は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、環境情報1455は、機械学習部1414によって判定される場合、機械学習部1414は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、環境情報1455を判定する。その後、機械学習部1414は、判定した環境情報1455を環境情報データベース1450に格納してもよい。
また、図15に示すように、ユーザ情報取得部1034は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
ユーザ情報データベース1550は、ユーザに関するユーザ情報1555を格納するためのデータベースである。図15に示すように、このユーザ情報1555は、例えば、ユーザを一意に識別するための識別子、氏名、身長、肌色、担当タスク、現在のタスク等、ユーザに関する任意の情報を含んでもよい。
例えば、ユーザ情報1555は、ユーザによって直接に入力される場合、受付部1512は、ユーザ端末250のユーザインタフェース1510を介して入力されるユーザ情報1555を、通信ネットワーク234を介して受け付けた後、受信したユーザ情報1555をユーザ情報データベース1550に格納してもよい。ここでのユーザインタフェース1510は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、ユーザ情報1555は、機械学習部1514によって判定される場合、機械学習部1514は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、ユーザ情報1555を判定する。その後、機械学習部1514は、判定したユーザ情報1555をユーザ情報データベース1550に格納してもよい。
一例として、環境情報1455は、ユーザ及び指示物体の周辺環境が暗いと示す場合、更新部1036は、撮影部のパラメータを、暗い環境に適したパラメータに変更してもよい。これにより、より鮮明な入力映像を取得することが可能となり、オブジェクト検出部によるオブジェクト検出の精度を向上させることができる。
また、もう一例として、更新部1036は、ユーザ情報1555に記録されているユーザの肌色に基づいて、画像加工部のパラメータを、ユーザの肌色に適したパラメータに変更してもよい。これにより、画像加工部による手画像の抽出の精度を向上させることができる。
なお、作業管理部1740による処理の詳細については後述するため、ここではその説明を省略する。
例えば、作業管理部1740は、物体シーケンス情報データベースから取得したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、現在進行中の作業の進捗状況を示す情報として、当該作業の完了率(30%、54%、70%等)を判定してもよい。
なお、このステップS1810では、作業管理部1740は、作業の進捗状況を判定するためのユーザ物体シーケンス情報を少なくとも取得するが、本開示はこれに限定されず、作業管理部1740は、ユーザ物体シーケンス情報に加えて、上述したユーザ情報や環境情報等、他の情報を取得してもよい。後述するように、ユーザ物体シーケンス情報に加えて、取得したユーザ情報や環境情報は作業を分配する際に用いられてもよい。
作業分配ルール1825は、作業の分配方法を規定するルールである。言い換えれば、作業分配ルール1825は、どのような作業を、どのようなタイミングで、どのようなユーザに割り当てるべきかを指定する情報である。例えば、作業分配ルール1825は、「ユーザの現在の作業の完了率が70%以上の場合、新規の作業を割り当てる」ルールや、「ユーザの現在の作業の完了率が20%以下の場合、新規の作業を割り当てない」ルール等を含んでもよい。
また、作業分配ルール1825は、現在の作業の進捗状況以外にも、上述したユーザ情報及び環境情報を考慮するルールを含んでもよい。例えば、作業分配ルール1825は、ユーザ情報から判定したユーザの資格の有無に基づいて作業の分配を決定してもよく、環境の証明条件等に基づいて作業の分配を決定してもよい。
物体管理部や環境認識部の構成や、管理される項目についても、上述した内容に限定されるものではなく様々な変更が可能である。
210、1010、1710 指示物体検出装置
212 オブジェクト検出部
214 画像加工部
218 ジェスチャー判定部
220 指示方向判定部
222 指示物体特定部
224 画像入力部
226 プロセッサ
228 記憶部
234 通信ネットワーク
235 ユーザ
240 指示物体
250 ユーザ端末
1030 物体管理部
1032 環境認識部
1036 更新部
Claims (11)
- 指差し動作の対象となる指示物体を検出する指示物体検出装置であって、
ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する画像入力部と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
前記手によるジェスチャーを判定するジェスチャー判定部と、
前記手による前記ジェスチャーが指差し動作と判定された場合、
前記手のセントロイドを特定し、
前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
を含むことを特徴とする指示物体検出装置。 - 前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
前記指画素の平均画素座標を計算し、
前記平均画素座標と、前記指先とを通過する架空線の方向を、前記指示方向として判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 - 前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとを通過する第1の架空線を設定し、
前記第1の架空線に対して垂直であり、前記指先に対して第2の距離基準を満たす第2の架空線を設定し、
前記第1の架空線に対して垂直であり、前記第2の架空線に対して平行であり、前記指先に対して第3の距離基準を満たす第3の架空線を設定し、
前記第2の架空線と、前記第3の架空線との中心点を通過する第4の架空線の方向を、前記指示方向として判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 - 前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
最小二乗法を用いて、前記指画素に基づいて前記指示方向を判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 - 前記指示方向判定部は、
前記入力映像から抽出され、前記手のみを示す手画像において、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
主成分分析を用いて、前記指画素に基づいて前記指示方向を判定する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 - 前記指示物体検出装置は、
前記指示物体の取り扱い手順を管理するための物体管理部を更に含み、
前記物体管理部は、
複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納する、
ことを特徴とする、請求項1に記載の指示物体検出装置。 - 前記物体管理部は、
複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報を格納しており、
前記ユーザ物体シーケンス情報と、前記指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、
前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、
前記指示物体の取り扱い手順において異常が発生したと判定し、前記異常を示す異常通知を出力する、
ことを特徴とする、請求項6に記載の指示物体検出装置。 - 前記指示物体検出装置は、
前記ユーザに関するユーザ情報を取得するユーザ情報取得部と、
前記ユーザの周辺環境に関する環境情報を取得する環境認識部と、
前記ユーザ情報又は前記環境情報に基づいて、前記画像入力部、前記オブジェクト検出部、前記ジェスチャー判定部、前記指示方向判定部、前記指示物体特定部、及び前記物体管理部の内の少なくとも1つのパラメータを更新する更新部と、
を含むことを特徴とする、請求項6に記載の指示物体検出装置。 - 前記指示物体検出装置は、
前記ユーザが行う作業を管理する作業管理部を含み、
前記作業管理部は、
前記ユーザ物体シーケンス情報に基づいて、第1のユーザが担当する第1の作業の進捗状況を判定し、
判定した前記第1の作業の前記進捗状況と、作業の分配方法を規定する作業分配ルールとに基づいて、第2の作業を担当する第2のユーザを判定し、前記第2の作業を前記第2のユーザに分配する、
ことを特徴とする、請求項7に記載の指示物体検出装置。 - 指差し動作の対象となる指示物体を検出する指示物体検出方法であって、
ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する工程と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出する工程と、
前記入力映像から、前記手のみを示す手画像を抽出する工程と、
前記手画像を解析し、前記手によるジェスチャーを判定する工程と、
前記手による前記ジェスチャーが指差し動作と判定された場合、前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指し指の指先として特定する工程と、
前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定する工程と、
前記対象領域において、所定の輝度基準を満たす画素を、前記指差し動作に用いられた指し指に属する指画素として特定する工程と、
前記指画素の平均画素座標を計算する工程と、
前記平均画素座標と、前記指先とを通る架空線の方向を、前記指差し動作の指示方向として判定する工程と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する工程と、
を含むことを特徴とする指示物体検出方法。 - 指差し動作の対象となる指示物体を検出する指示物体検出システムであって、
前記指示物体検出システムは、
指示物体検出装置と、
ユーザ端末とを含み、
前記指示物体検出装置と、前記ユーザ端末とが通信ネットワークを介して接続されており、
前記指示物体検出装置は、
ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像を取得する画像入力部と、
前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
前記手によるジェスチャーを判定するジェスチャー判定部と、
前記手による前記ジェスチャーが指差し動作と判定された場合、
前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
特定された前記指示物体に基づいて、複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、前記ユーザ物体シーケンス情報と、複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、前記指示物体の取り扱い手順に関する異常を示す異常通知を前記ユーザ端末に出力する、
ことを特徴とする指示物体検出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021023229A JP7470069B2 (ja) | 2021-02-17 | 2021-02-17 | 指示物体検出装置、指示物体検出方法及び指示物体検出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021023229A JP7470069B2 (ja) | 2021-02-17 | 2021-02-17 | 指示物体検出装置、指示物体検出方法及び指示物体検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022125570A true JP2022125570A (ja) | 2022-08-29 |
JP7470069B2 JP7470069B2 (ja) | 2024-04-17 |
Family
ID=83058502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021023229A Active JP7470069B2 (ja) | 2021-02-17 | 2021-02-17 | 指示物体検出装置、指示物体検出方法及び指示物体検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7470069B2 (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3752246B2 (ja) | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
JP5156617B2 (ja) | 2008-12-26 | 2013-03-06 | 日本システムウエア株式会社 | 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体 |
JP2012073659A (ja) | 2010-09-01 | 2012-04-12 | Shinsedai Kk | 操作判定装置、指先検出装置、操作判定方法、指先検出方法、操作判定プログラム、及び、指先検出プログラム |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP6030430B2 (ja) | 2012-12-14 | 2016-11-24 | クラリオン株式会社 | 制御装置、車両及び携帯端末 |
JP2015026266A (ja) | 2013-07-26 | 2015-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN104933432B (zh) | 2014-03-18 | 2020-04-14 | 北京细推科技有限公司 | 一种指腹折痕和指静脉图像的处理方法 |
JP6523925B2 (ja) | 2015-11-10 | 2019-06-05 | 株式会社日立製作所 | 生体情報を用いた認証装置及び認証方法 |
-
2021
- 2021-02-17 JP JP2021023229A patent/JP7470069B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7470069B2 (ja) | 2024-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11650659B2 (en) | User input processing with eye tracking | |
US10572072B2 (en) | Depth-based touch detection | |
Yao et al. | Contour model-based hand-gesture recognition using the Kinect sensor | |
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
WO2018228218A1 (zh) | 身份识别方法、计算设备及存储介质 | |
CN109325456B (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
EP3811337A1 (en) | System for predicting articulated object feature location | |
US20130335318A1 (en) | Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers | |
Patruno et al. | People re-identification using skeleton standard posture and color descriptors from RGB-D data | |
WO2022166243A1 (zh) | 捏合手势检测识别方法、装置及系统 | |
WO2020029466A1 (zh) | 图像处理方法和装置 | |
JP2016503220A (ja) | ジェスチャ認識のためのパーツ及び状態検出 | |
CN111611903B (zh) | 动作识别模型的训练方法、使用方法、装置、设备和介质 | |
US9734435B2 (en) | Recognition of hand poses by classification using discrete values | |
WO2021098147A1 (zh) | Vr体感数据检测方法、装置、计算机设备及存储介质 | |
KR101559502B1 (ko) | 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체 | |
US10817716B2 (en) | Coarse-to-fine hand detection method using deep neural network | |
Weiyao et al. | Human action recognition using multilevel depth motion maps | |
TWI776176B (zh) | 手部作業動作評分裝置、方法及電腦可讀取存儲介質 | |
US20200320733A1 (en) | Program, system, electronic device, and method for recognizing three-dimensional object | |
CN114332927A (zh) | 课堂举手行为检测方法、系统、计算机设备和存储介质 | |
CN109241942B (zh) | 图像处理方法、装置、人脸识别设备及存储介质 | |
JP7470069B2 (ja) | 指示物体検出装置、指示物体検出方法及び指示物体検出システム | |
US20160253570A1 (en) | Feature vector extraction device | |
Soroni et al. | Hand Gesture Based Virtual Blackboard Using Webcam |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7470069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |