JP2022125570A - 指示物体検出装置、指示物体検出方法及び指示物体検出システム - Google Patents

指示物体検出装置、指示物体検出方法及び指示物体検出システム Download PDF

Info

Publication number
JP2022125570A
JP2022125570A JP2021023229A JP2021023229A JP2022125570A JP 2022125570 A JP2022125570 A JP 2022125570A JP 2021023229 A JP2021023229 A JP 2021023229A JP 2021023229 A JP2021023229 A JP 2021023229A JP 2022125570 A JP2022125570 A JP 2022125570A
Authority
JP
Japan
Prior art keywords
pointing
user
hand
unit
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021023229A
Other languages
English (en)
Other versions
JP7470069B2 (ja
Inventor
サンジェイ クマル ディヴェディ
Kumar Dwivedi Sanjay
高行 秋山
Takayuki Akiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021023229A priority Critical patent/JP7470069B2/ja
Publication of JP2022125570A publication Critical patent/JP2022125570A/ja
Application granted granted Critical
Publication of JP7470069B2 publication Critical patent/JP7470069B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画角やノイズ等で手が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出手段を提供すること。【解決手段】ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像を取得する画像入力部と、入力映像を解析し、手と指示物体候補とを検出するオブジェクト検出部と、手によるジェスチャーを判定するジェスチャー判定部と、ジェスチャーが指差し動作と判定された場合、手のセントロイドを特定し、セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定し、特定した指先に属する画素の分布に基づいて、指差し動作の指示方向を判定する指示方向判定部と、指示方向に基づいて、指差し動作によって指示される指示物体を、指示物体候補の中から特定する指示物体特定部を含む指示物体検出装置。【選択図】図3

Description

本開示は、指示物体検出装置、指示物体検出方法及び指示物体検出システムに関する。
近年、マン・マシンインターフェイスの実用化を目指し、様々な人間の動きを認識する研究が行われている。人間の動きを認識することで、ユーザの意思を自然な形態でコンピューターに伝えることが可能となる。
ユーザの意思をコンピューターに伝える有効なコミュニケーション手段の1つとして、指差し動作を検出する手法が注目されている。指差し動作は、人間にとって自然かつ直感的であり、特殊な器具の装着も不要なため、人であるユーザに負担を与えない上、低コストである。
指差し動作を検出する手法によれば、例えば家事、福祉、産業等の様々な場面でマン・マシンインターフェイスを実現し、人を支援するサービスが可能となる。
指差し動作を検出する手法の1つとしては、例えばH. Asano, T. Nagayasu, T. Orimo, K. Terabayashi, M. Ohta and K. Umeda, "Recognition of finger-pointing direction using color clustering and image segmentation," The SICE Annual Conference 2013, Nagoya, Japan, 2013, pp. 2029-2034.(非特許文献1)がある。
非特許文献1には、複数のカメラを使用して指差し方向を認識する正確な方法が提案されている。この手法において、入力画像は、形状分析の前にカラークラスタリングによってセグメント化される。そして、操作領域の狭さや事前定義された肌の色など、以前の方法のいくつかの制限が解除されている。この結果、8方向の指さし認識は、平均90%の再現率と93%の精度で実現される旨が記載されている。
H. Asano, T. Nagayasu, T. Orimo, K. Terabayashi, M. Ohta and K. Umeda, "Recognition of finger-pointing direction using color clustering and image segmentation," The SICE Annual Conference 2013, Nagoya, Japan, 2013, pp. 2029-2034.
非特許文献1には、人間の手を示す画像において、幅が狭い領域を指として抽出した後、当該指に属する画素に対して最小二乗法を適用することで、指差し方向を判定する。
しかし、非特許文献1に記載の方法では、画像における指の抽出は、手の各部位の相対的な幅に基づいて行われるため、画角、ノイズ、オブジェクト検出の誤り等によって手の各部位の幅が判定できない場合や、洋服の袖等によって手が部分的に隠され、手の部位の見かけの幅が正確でない場合には、指差し方向を判定する精度が限定されてしまう。
そこで、本開示は、手の画像における画素の曲率と、手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することを目的とする。
上記の課題を解決するために、代表的な本開示の指示物体検出装置の一つは、ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する画像入力部と、前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、前記手によるジェスチャーを判定するジェスチャー判定部と、前記手による前記ジェスチャーが指差し動作と判定された場合、前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部とを含む。
本開示によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能であり、頑強性が高い指示物体検出手段を提供することができる。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
図1は、本開示の実施例を実施するためのコンピューターシステムのハードウェア構成の一例を示す図である。 図2は、本開示の実施例1に係る指示物体検出システムの構成を示す図である。 図3は、本開示の実施例1に係る指示物体検出方法の流れを示すフローチャートである。 図4は、本開示の実施例1に係る指示方向判定処理の流れを示すフローチャートである。 図5は、本開示の実施例1に係る第1の指示方向判定手段の一例を示す図である。 図6は、本開示の実施例1に係る第2の指示方向判定手段の一例を示す図である。 図8は、本開示の実施例1に係る第3の指示方向判定手段の一例を示す図である。 図8は、本開示の実施例1に係る第4の指示方向判定手段の一例を示す図である。 図9は、本開示の実施例1に係る第5の指示方向判定手段の一例を示す図である。 図10は、本開示の実施例2に係る指示物体検出システムの構成を示す図である。 図11は、本開示の実施例2に係る物体管理部の構成の一例を示す図である。 図12は、本開示の実施例2に係るユーザ物体シーケンス情報取得処理の流れを示すフローチャートである。 図13は、本開示の実施例2に係る物体取り扱いシーケンス検証処理の流れを示すフローチャートである。 図14は、本開示の実施例2に係る環境認識部の構成の一例を示す図である。 図15は、本開示の実施例2に係るユーザ情報取得部の構成の一例を示す図である。 図16は、本開示の実施例2に係る更新部の構成の一例を示す図である。 図17は、本開示の実施例3に係る指示物体検出システムの構成を示す図である。 図18は、本開示の実施例3に係る作業管理部による作業分配処理の流れを示す図である。
本開示の実施例に係る指示物体検出手段は、例えば家事、福祉、産業等の様々な場面でマン・マシンインターフェイスを実現し、直接的に人を支援するために用いられてもよいが、説明の便宜上、本開示の実施例に係る指示物体検出手段を産業に応用した場合の例を中心に説明する。
工場等では、作業員が機械や装置を点検したり、修理したりする過程において、機械や装置の解体や組み立てを行う場合がある。この場合、作業員が特定の部品の点検を失念したり、機械の解体又は組み立ての順序を誤ることが起こりえる。そこで、本開示の実施例に係る物体検出手段を用いることにより、作業員が指差す部品を検出することで、作業員の動作を記録したり、順序が誤った動作を検知したりすることが可能となり、作業の正確性及び効率を向上させることができる。
一例として、作業員は、例えば特定の部品(例えば、機械や装置を構成する部品の一つ)を取り扱う前に、当該部品を指差しすることにすれば、この指差し動作を示す入力映像がカメラ等の撮影装置によって取得される。その後、取得した入力映像を、後述する指示物体検出装置の各機能部によって処理することで、入力映像における画素の曲率や手の中心からの距離に基づいて指先が示す指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することができる。その後、作業員の動作の順番を示すユーザ物体シーケンス情報を記録し、このユーザ物体シーケンス情報を、例えば事前に用意され、正しい動作の順番を示す指定物体シーケンス情報と比較することで、機械の取り扱い手順における異常(誤り等)を検出することができる。
このように、本開示によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度に指示物体検出が可能であり、頑強性が高い指示物体検出手段を提供することができる。
以下、図面を参照して、本発明の実施例について説明する。なお、この実施例により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
まず、図1を参照して、本開示の実施例を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施例の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施例では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施例では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施例では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、指示物体検出アプリケーション350を格納していてもよい。ある実施例では、指示物体検出アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
ある実施例では、指示物体検出アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施例では、指示物体検出アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施例では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施例では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
ある実施例では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施例では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
次に図2を参照して、本開示の実施例1に係る指示物体検出システムの構成について説明する。
図2は、本開示の実施例1に係る指示物体検出システム200の構成を示す図である。図2に示すように、本開示の実施例1に係る指示物体検出システム200は、指示物体検出装置210及びユーザ端末250を含む。指示物体検出装置210及びユーザ端末250は、例えばLANやインターネット等の通信ネットワーク234を介して接続されてもよい。
指示物体検出装置210は、ユーザ235によって行われる指差し動作を示す入力映像を解析することで、当該指差し動作の指示方向を判定し、判定した指示方向に基づいて指差し動作の対象となる指示物体240を検出するための装置である。指示物体検出装置210は、例えばデスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のコンピューティングデバイスによって実施されてもよい。
また、図2に示すように、指示物体検出装置210は、オブジェクト検出部212、画像加工部214、ジェスチャー判定部218、指示方向判定部220、指示物体特定部222、画像入力部224、プロセッサ226及び記憶部228を含む。
画像入力部224は、ユーザ235の手と、少なくとも1つの指示物体候補とを示す入力映像を取得するための機能部である。画像入力部224は、例えばRGBカメラなどの撮影部であってもよいし、画像信号を受信する機能部であってもよい。
指示物体検出の精度を向上する観点から、画像入力部224が撮像部の場合には、この撮像部は、ユーザ235の手や、ユーザ235の作業の対象となる物体が容易に撮影可能な位置に配置されることが望ましい。
以下の説明では、画像入力部224が撮影部を意味するものとして説明するが、画像入力部224は、画像信号を受信する機能部であってもよい。
なお、図2では、画像入力部224が指示物体検出装置210に含まれている構成の場合を一例として示しているが、本開示はこれに限定されず、画像入力部224は、指示物体検出装置210とは独立した、別途の装置であってもよい。この場合、画像入力部224は、取得した入力映像を通信ネットワーク234を介して指示物体検出装置210に送信してもよい。
オブジェクト検出部212は、画像入力部224によって取得された入力映像を解析し、ユーザ235の手と指示物体候補とを検出するための機能部である。オブジェクト検出部212は、入力映像に写る全てのオブジェクトを検出し、検出したオブジェクトのクラスを示すラベルを生成してもよい。本開示の実施例に係るオブジェクト検出部212の手段は特に限定されず、例えばHaar-Like特徴に基づくViola Jones物体検出フレームワーク、スケール不変特徴量変換 (SIFT)、Hog特徴量等の機械学習アプローチや、領域提案(R-CNN、Fast R-CNN、Faster R-CNN、cascade R-CNN)、Single Shot MultiBox Detector(SSD)、You Only Look Once(YOLO)、Single-Shot Refinement Neural Network for Object Detection (RefineDet)、Retina-Net、Deformable convolutional networks等の深層学習によるアプローチ等、任意のオブジェクト検出手法を含んでもよい。
画像加工部214は、オブジェクト検出部212によって各オブジェクトが検出された入力映像を解析することで、ユーザ235の手のみを示す手画像を入力映像から抽出する。例えば、画像加工部214は、ユーザ235の手を示す画像を入力映像から切り出して(クロッピング)もよく、ユーザ235の手の肌の色に基づいた画像分割(skin-color based image segmentation)を用いてもよく、segnet、ICNET、FPN等の深層学習によるアプローチを用いてもよい。
画像加工部214による処理の結果、ユーザ235の手に属する画素の輝度値が1以上となり、ユーザ235の手に属さない画素の輝度値が0となるバイナリー画像が得られる(図5~図9参照)。
ジェスチャー判定部218は、画像加工部214によって抽出された手画像において、ユーザ235の手が示すジェスチャーを判定する機能部である。ジェスチャー判定部218は、例えば、ユーザ235の手のキーポイント(指、間接、手首、手の甲等)を特定し、特定した手のキーポイントの分布に基づいて、手が示すジェスチャーが指差し動作か否かを判定してもよい。ここでの指差し動作とは、対象のものに対して指を向けることを意味する。また、この指差し動作は、人差し指や中指等、任意の指で行われてもよい。ここでは、指差し動作に用いられているユーザ235の指を「指し指」という。
ここでのジェスチャー判定部218は、ユーザ235の手が示すジェスチャーを判定するために、例えば3Dモデルベースアルゴリズム、骨格ベースアルゴリズム、筋電計ベースモデル等、任意の既存の手段を用いてもよい。
指示方向判定部220は、指差し動作の指示方向を判定するための機能部である。ここでの「指示方向」とは、ユーザ235の指し指が指示する方向である。より具体的には、指示方向判定部220は、ユーザ235の手のセントロイドを特定し、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定し、特定した指先に属する画素の分布に基づいて、指差し動作の指示方向を判定してもよい。
本開示においては「セントロイド」とは一般的な質量中心を意味するが、画像上の幾何中心であってもよいし、幾何中心に代えて物理的な重心を用いてもよい。
なお、指示方向判定部220を用いて指示方向を判定する処理の詳細については後述する。
指示物体特定部222は、指示方向判定部220によって判定された指示方向に基づいて、入力映像において指差し動作によって指示される指示物体240を、指示物体候補の中から特定する。ここでは、指示物体特定部222は、判定された指示方向に加えて、オブジェクト検出部212によって検出されたオブジェクトのラベルを用いてもよい。
プロセッサ226は、指示物体検出装置210の各機能部の機能を実現するための命令を実行するための演算装置であり、例えば図1に示すプロセッサ302と実質的に同様であるため、ここではその説明を省略する。
記憶部228は、指示物体検出装置210の機能部に用いられる各種データを格納するためのストレージ部である。ここでの記憶部228は、例えばハードディスクドライブやソリッドステートドライブ等のローカルストレージであってもよく、クラウドのような分散型ストレージサービスであってもよい。
ユーザ235は、指示物体検出装置210の解析の対象となる指差し動作を行うユーザである。ユーザ235は、例えば工場で作業する作業員であってもよく、患者の介護を行う介護士等、任意のタスクを行うユーザであってもよい。また、本開示では、説明の便宜上、ユーザ235が人間の場合を一例として説明するが、本開示はこれに限定されず、ユーザ235は例えばチンパンジーやオランウータン等のサルであってもよく、指差し動作を行う手があれば、任意の生命体や人造物等であってもよい。
指示物体240は、ユーザ235による指差し動作の対象となる物体である。指示物体240は、例えば点検の対象となる機械や装置を構成する部品、ハンマーやドライバー等の工具、テーブルの上に配置されているフォークやナイフ等、ユーザ235のタスクによって任意のオブジェクトであってもよい。
ユーザ端末250は、例えばユーザ235が利用する端末装置である。ユーザ端末250は、例えばユーザ235に関するユーザ情報、ユーザ235の環境に関する環境情報等、指示物体検出を支援する任意の情報の入力を受け付けてもよい。また、ある実施例では、指示物体の取り扱い手順において異常が発生したと判定した場合、当該異常を示す異常通知がユーザ端末250に送信されてもよい。このように、ユーザ端末250のユーザ235は、検出された異常を解決する行動を取ることができる。
以上説明したように構成した指示物体検出システム200によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することができる。
次に、図3を参照して、本開示の実施例1に係る指示物体検出方法について説明する。
図3は、本開示の実施例1に係る指示物体検出方法360の流れを示すフローチャートである。図3に示す指示物体検出方法360は、指差し動作を示す入力映像を解析することで、当該指差し動作の指示方向を判定し、判定した指示方向に基づいて指差し動作の対象となる指示物体240を検出するための方法であり、指示物体検出装置(例えば、図2に示す指示物体検出装置210)によって実施される。
まず、ステップS362では、撮影部(例えば、図2に示す画像入力部224)は、ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像363を取得する。この入力映像363は、例えば静止画像であってもよく、多数の画像フレームから構成される動画であってもよい。本開示に係るある態様では、ユーザは、上述したユーザ端末(例えば図2に示すユーザ端末250)を介して、作業を開始する旨の指示を入力した後、撮影部はユーザの作業の撮影を開始し、入力映像363を取得してもよい。
撮影部によって取得される入力映像363は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
次に、ステップS364では、オブジェクト検出部(例えば、図2に示すオブジェクト検出部212)は、撮影部によって取得された入力映像363を解析し、ユーザの手と指示物体候補とを検出する。ここでの指示物体候補とは、入力映像363に含まれており、指差し動作の対象となる物体である可能性がある物体である。
上述したように、オブジェクト検出部212は、入力映像363に含まれる全てのオブジェクトを検出し、検出したオブジェクトのクラスを示すラベル365を生成してもよい。これらのラベル365は、例えば上述した記憶部に格納されてもよい。
ステップS364でのオブジェクト検出部による処理の結果、手として認識されたオブジェクトが入力映像363に存在すると判定された(つまり、ラベル365のうち、「手」とのラベルに該当するオブジェクトが検出された)場合、本処理はステップS366へ進む。一方、ステップS364でのオブジェクト検出部による処理の結果、手として認識されたオブジェクトが入力映像363に存在しないと判定された場合、本処理はステップS362へ戻り、撮影部が入力映像363の取得を継続する。
次に、ステップS366では、画像加工部(例えば、図2に示す画像加工部214)は、入力映像363の中から、ユーザの手のみを示す手画像を抽出する。例えば、画像加工部は、ユーザの手を示す画像を入力映像から切り出して(クロッピング)もよく、ユーザの手の肌の色に基づいた画像分割(skin-color based image segmentation)を用いてもよく、segnet、ICNET、FPN等の深層学習によるアプローチを用いてもよい。画像加工部による処理の結果、ユーザの手に属する画素の輝度値が1以上となり、ユーザの手に属さない画素の輝度値が0となる手画像が得られる。
次に、ステップS368では、ジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)は、ステップS366で抽出された手画像を解析することで、手が示すジェスチャーを判定する。ジェスチャー判定部は、例えば、ユーザの手のキーポイント(指、間接、手首、手の甲等)を特定し、特定した手のキーポイントの分布に基づいて、手が示すジェスチャーが指差し動作か否かを判定してもよい。
ステップS368でのジェスチャー判定部の処理の結果、手が示すジェスチャーが指差し動作であると判定された場合、本処理はステップS370へ進む。一方、ステップS368でのジェスチャー判定部の処理の結果、手が示すジェスチャーが指差し動作でないと判定された場合、本処理はステップS362へ戻り、撮影部が入力映像363の取得を継続する。
次に、ステップS370では、指示方向判定部(例えば、図2に示す指示方向判定部220)は、指差し動作の指示方向を判定する。より具体的には、指示方向判定部は、ユーザの手のセントロイドを特定し、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定し、特定した指先に属する画素の分布に基づいて、指差し動作の指示方向を判定する。
なお、指示方向判定部を用いて指示方向を判定する処理の詳細については後述する。
次に、ステップS372では、指示物体特定部(例えば、図2に示す指示物体特定部222)は、ステップS372で指示方向判定部によって判定された指示方向と、ステップS364で判定されたラベル365とに基づいて、入力映像363において指差し動作によって指示される指示物体240を、指示物体候補の中から特定する。ここで特定した指示物体の情報は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
以上説明した指示物体検出方法360によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出を提供することができる。
次に、図4を参照して、本開示の実施例1に係る指示方向判定処理について説明する。
図4は、本開示の実施例1に係る指示方向判定処理400の流れを示す図である。図4に示す指示方向判定処理400は、指差し動作の指示方向を判定するための処理であり、指示方向判定部(例えば図2に示す指示方向判定部220)によって実行される。
なお、図4に示す指示方向判定処理400は、図3に示す指示物体検出方法360におけるステップS370に実質的に対応する。また、図4に示す指示方向判定処理400は、指差し動作の指示方向を判定するための大まかな処理であり、指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
まず、ステップS410では、指示方向判定部は、入力映像から抽出された手画像における指差し動作に用いられている指し指の指先を特定する。より具体的には、まず、指示方向判定部は、手画像における手のセントロイドを特定する。実施例1におけるセントロイドは、既存の画像処理手法や統計的手法に基づいて求められてもよい。手のセントロイドを特定した後、指示方向判定部は、このセントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指の指先として特定する。
この第1の距離基準は、ある領域が指先として認定されるために、当該領域のセントロイドからの必要な距離の下限を指定してもよい。
同様に、この曲率基準は、ある領域が指先として認定されるために、必要な曲率の下限を指定してもよい。
このように、上述した距離基準及び曲率基準を用いることで、手のセントロイド(つまり、手の中心部)から所定の距離以上に離れており、所定の曲率以上を持つ領域を指し指の指先として特定できる。
なお、ここでの第1の距離基準及び曲率基準は、ユーザによって指定されてもよく、過去に収集されたテスト用画像に基づいて適切な値を設定するように学習された機械学習手段によって指定されてもよい。
次に、ステップS420では、指示方向判定部は、ステップS410で特定した指し指の指先に属する画素の分布を判定する。ここでは、「画素の分布」とは、指先に属する画素と、他の画素との空間的関係を意味する。一例として、指示方向判定部は、ステップS410で特定した指し指の指先に属する画素と、セントロイドに属する画素との相対的な位置関係を特定してもよい。
次に、ステップS430では、指示方向判定部は、ステップS420で特定した画素の分布に基づいて指差し動作の指示方向を判定する。例えば、ある実施例では、指示方向判定部は、指し指の指先に属する画素と、セントロイドに属する画素とを通過する架空線の方向を指示方向としてもよい。ステップS430で判定した指示方向は、上述した記憶部(例えば、図2に示す記憶部228)に格納されてもよい。
なお、上述したように、画素の分布に基づいて指差し動作の指示方向を判定する処理の詳細は、図5~図9に示す指示方向判定手段の具体例を参照して説明する。
以上説明した指示方向判定処理400によれば、手の画像における画素の曲率と手の中心からの距離とに基づいて指差し方向を判定し、判定した指差し方向に基づいて指差し動作の対象となる指示物体を検出することで、画角やノイズ等で手の画素が鮮明に写らない画像の場合であっても、高精度の指示物体検出が可能な頑強性が高い指示物体検出手段を提供することができる。
次に、図5~図9を参照して、指差し動作の指示方向を判定する処理の具体例について説明する。
図5は、本開示の実施例1に係る第1の指示方向判定手段500の一例を示す図である。図5に示すように、手画像505には、ユーザの手502が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手502が指差し動作となっていることが判定されている。
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手502のセントロイド510を特定する。このセントロイド510とは、手502の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手502のセントロイド510を特定した後、指示方向判定部は、このセントロイド510から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指504の指先512として特定する。
次に、指示方向判定部は、特定した指先512と、セントロイド510との距離dに基づいて、指先512を中心とする対象領域511を判定する。一例として、対象領域511は、距離d/3を半径とする円形領域であってもよい。
なお、対象領域511の半径はハイパーパラメータであり、ユーザに設定されてもよく、既存のハイパーパラメータ最適化方法に基づいて最適化されてもよい。
次に、指示方向判定部は、対象領域511において、所定の輝度基準を満たす画素を、指差し動作に用いられる手502の指し指504に属する指画素として特定する。例えば、手画像505は、手502に属する画素の輝度値が1以上となり、手502に属さない画素の輝度値が0となるバイナリー画像の場合、この輝度基準は「1」であってもよい。
このように、輝度基準を「1」として設定することで、対象領域511における明るい画素(つまり、対象領域511において、指し指504に属する画素)を特定することができる。
なお、以上では、対象領域及び画素の輝度値に基づいて指画素を特定する場合を一例として説明したが、本開示はこれに限定されず、例えばクラスタリングや回帰(recursion)等、任意の手法を用いてもよい。
次に、指示方向判定部は、特定した指画素の平均画素座標514(mean pixel coordinate)を計算する。この平均画素座標514は、例えば任意の既存の画像処理手段によって計算されてもよい。
平均画素座標514を計算した後、指示方向判定部は、計算した平均画素座標514と、指先512とを通る架空線516の方向を、指示方向として判定する。
図6は、本開示の実施例1に係る第2の指示方向判定手段600の一例を示す図である。図6に示すように、手画像605には、ユーザの手602が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手602が指差し動作となっていることが判定されている。
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手602のセントロイド610を特定する。このセントロイド610とは、手602の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手602のセントロイド610を特定した後、指示方向判定部は、このセントロイド610から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指604の指先612として特定する。
次に、指示方向判定部は、特定した指先612と、セントロイド610との距離dに基づいて、指先612を中心とする第1の対象領域611を判定する。一例として、第1の対象領域611は、距離d/6を半径とする円形領域であってもよい。
次に、指示方向判定部は、第1の対象領域611において、所定の輝度基準を満たす画素を、指差し動作に用いられる手602の指し指604に属する指画素として特定する。例えば、手画像605は、手602に属する画素の輝度値が1以上となり、手602に属さない画素の輝度値が0となるバイナリー画像の場合、この輝度基準は「1」であってもよい。
このように、輝度基準を「1」として設定することで、第1の対象領域611における明るい画素(つまり、第1の対象領域611において、指し指604に属する画素)を特定することができる。
次に、指示方向判定部は、特定した指画素の平均画素座標614(mean pixel coordinate)を計算する。
次に、指示方向判定部は、計算した平均画素座標614を中心とする第2の対象領域613を判定する。一例として、第2の対象領域613は、第1の対象領域611と同様に、距離d/6を半径とする円形領域であってもよい。
次に、指示方向判定部は、第2の対象領域の中心である平均画素座標614と、第1の対象領域の中心である指先612とを通る架空線616の方向を、指示方向として判定する。
以上説明した図6に示す第2の指示方向判定手段600では、図5に示す第1の指示方向判定手段500に比べて、半径が小さい対象領域を複数用いることで、指示方向を判定する精度を向上させることができる。
なお、以上では、対象領域を二つ用いる場合を一例として説明したが、本開示はこれに限定されず、3つ以上の対象領域を用いてもよい。また、以上では、対象領域を円形とした場合を一例として説明したが、本開示はこれに限定されず、例えば長方形等、任意の形状であってもよい。
図7は、本開示の実施例1に係る第3の指示方向判定手段700の一例を示す図である。図7に示すように、手画像705には、ユーザの手702が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手702が指差し動作となっていることが判定されている。
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手702のセントロイド710を特定する。このセントロイド710とは、手702の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手702のセントロイド710を特定した後、指示方向判定部は、このセントロイド710から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指704の指先714として特定する。
次に、指示方向判定部は、特定した指先714と、セントロイド710とを繋ぐ第1の架空線706を設定する。その後、指示方向判定部は、第1の架空線706に対して垂直であり、指先714に対して第2の距離基準を満たす第2の架空線708を設定すると共に、第1の架空線706に対して垂直であり、第2の架空線708に対して平行であり、指先714に対して第3の距離基準を満たす第3の架空線712を設定する。また、第2の架空線708及び第3の架空線712は、輝度値が1以上の領域のみにおいて判定されてもよい(つまり、指し指704の境界を超えて背景まで伸びることはない)。
ここでの第2の距離基準及び第3の距離基準は、互いに異なっており、ユーザ又は機械学習手段によって設定される値であってもよい。第2の距離基準及び第3の距離基準は、互いに異なることにより、第2の架空線708と第3の架空線712との間に間隔を開けることができる。
次に、指示方向判定部は、第2の架空線708の中心点と、第3の架空線712の中心点とを通る第4の架空線718の方向を、指示方向として判定してもよい。
以上説明した図7に示す第3の指示方向判定手段700では、図5及び図6に示す第1、第2の指示方向判定手段500、600に比べて、必要なコンピューティング資源を抑えると共に、処理速度を向上させることができる。
なお、以上では、第1の架空線706に対して垂直な架空線を2つ判定した場合を一例として説明したが、本開示はこれに限定されず、第1の架空線706に対して垂直な架空線を例えば3つ以上としてもよい。
図8は、本開示の実施例1に係る第4の指示方向判定手段800の一例を示す図である。図8に示すように、手画像805には、ユーザの手802が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手802が指差し動作となっていることが判定されている。
まず、上述したように、指示方向判定部(例えば、図2に示す指示方向判定部220)は、手802のセントロイド810を特定する。このセントロイド810とは、手802の質量中心であり、既存の画像処理手法や統計的手法に基づいて求められてもよい。手802のセントロイド810を特定した後、指示方向判定部は、このセントロイド810から第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、指し指804の指先814として特定する。
次に、指示方向判定部は、特定した特定した指先814と、セントロイド810とに基づいて、指し指804に属する画素を指画素として特定する。ここでは、指示方向判定部は、上述したように、対象領域内に存在し、所定の輝度基準を満たす画素を指画素として特定してもよい。
次に、指示方向判定部は、最小二乗法(Least Square Line Fitting)を用いて、指画素に基づいて指示方向815を判定する。ただし、本開示は最小二乗法に限定されず、指画素を特定した後、主成分分析(Principal Component Analysis)を用いて指示方向815を特定してもよい。
図9は、本開示の実施例1に係る第5の指示方向判定手段900の一例を示す図である。図9に示すように、手画像905には、ユーザの手902が写っており、上述したジェスチャー判定部(例えば、図2に示すジェスチャー判定部218)の処理の結果、手902が指差し動作となっていることが判定されている。
まず、指示方向判定部は、手902にバウンディングボックス915をフィットさせる。ここでのバウンディングボックスは、例えば長方形であってもよく、楕円形であってもよく、任意の形状であってもよい。その後、指示方向判定部は、バウンディングボックス915に基づいて、手902に最良適合線920をフィットさせる。指示方向判定部は、この最良適合線920の方向を指差し動作の指示方向としてもよい。
以上、図5から図9を参照して、本開示の実施例に係る指差し動作の指示方向を判定する処理の具体例について説明したが、本開示はこれに限定されず、指差し動作の指示方向を高精度で判定できれば、任意の手段であってもよい。
例えば、もう一例として、指示方向判定部は、ユーザの手の画素の2次元の座標(横軸の座標及び縦軸の座標)を求め、これらの画素の座標の分布、平均、及び分散(distribution, mean, and variance)を解析することで、手の向き及び指示方向を判定してもよい。
次に、図10を参照して、本開示の実施例2に係る指示物体検出システムの構成について説明する。
図10は、本開示の実施例2に係る指示物体検出システム1000の構成を示す図である。本開示の実施例2に係る指示物体検出システム1000の指示物体検出装置1010は、物体管理部1030、環境認識部1032、ユーザ情報取得部1034及び更新部1036を含む構成となっている点において、図2に示す、本開示の実施例1に係る指示物体検出システム200の指示物体検出装置210と異なる。物体管理部1030、環境認識部1032、ユーザ情報取得部1034及び更新部1036を含む点を除いて、実施例2に係る指示物体検出システム1000の構成は、実施例1に係る指示物体検出システム200と実質的に同様であるため、同一部分には同一の符号を付して示している。また、説明の便宜上、以下では、上述した部分の説明を省略し、指示物体検出システム1000と指示物体検出システム200との相違点を中心に説明する。
物体管理部1030は、指示物体の取り扱い手順を管理するための機能部である。なお、本開示において、取り扱い手順には、物体への加工、組立、処理、検査がなどの個々の作業や工程、その順序、時間的な管理項目等を含めることができる。
物体管理部1030は、複数の指示物体240がユーザ235の指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納することができる。また、このユーザ物体シーケンス情報は、指示物体240がユーザ235の指差し動作によって指示される順番に加えて、指示物体240の種類(ハンマー、釘、フォーク等)や、指示物体240が指示される時刻等を記録してもよい。
また、物体管理部1030は、複数の指示物体240を取り扱う順番を指定する指定物体シーケンス情報を格納してもよい。この指定物体シーケンス情報は、例えば事前に作成され、指示物体240を取り扱う正しい順番を規定する情報である。
物体管理部1030は、上述したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、指示物体の取り扱いが正しいか否か(つまり、指示物体を取り扱う順番が間違っているか等)を判定することができる。
環境認識部1032は、ユーザ235や指示物体240の周辺環境に関する環境情報を取得するための機能部である。この環境情報は、例えば、照明条件、画像入力部224の位置、ユーザ235と指示物体240との距離等、周辺環境に関する任意の情報を含んでもよい。環境認識部1032は、これらの環境情報を特定のユーザインタフェース(ユーザ端末250のユーザインタフェース等)を介して入力してもよく、これらの環境情報を画像入力部224によって取得されている映像から判定するための機械学習手段を含んでもよい。
後述するように、環境認識部1032は、ユーザ235や指示物体240の周辺環境に関する環境情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
ユーザ情報取得部1034は、ユーザ235に関するユーザ情報を取得するための機能部である。このユーザ情報は、例えば、ユーザの氏名、肌の色、身長、役職名、資格の有無等、ユーザ235に関する任意の情報を含んでもよい。ユーザ情報取得部1034は、これらのユーザ情報を特定のユーザインタフェース(ユーザ端末250のユーザインタフェース等)を介して入力してもよく、これらのユーザ情報を画像入力部224によって取得されている映像から判定するための機械学習手段を含んでもよい。
後述するように、ユーザ情報取得部1034は、ユーザ235に関するユーザ情報を用いることで、指示方向や指示物体240の判定の精度を向上させると共に、ユーザ235の指示物体240に対する取り扱いをより効率良く検証することができる。
更新部1036は、上述した環境認識部1032やユーザ情報取得部1034によって取得された環境情報及びユーザ情報に基づいて、指示物体検出装置1010の各機能部のパラメータを更新するための機能部である。
以上説明した本開示の実施例2に係る指示物体検出システム1000によれば、ユーザの情報や周辺環境の情報を考慮した上でユーザの指差し動作の対象となる指示物体240を検出できると共に、指示物体240の取り扱い手順を検証することが可能となる。
次に、図11を参照して、本開示の実施例2に係る物体管理部について説明する。
図11は、本開示の実施例2に係る物体管理部1030の構成の一例を示す図である。上述したように、物体管理部1030は、指示物体の取り扱い手順を管理するための機能部である。
図11に示すように、物体管理部1030は、指示物体の取り扱いを管理するための情報を格納する物体シーケンス情報データベース1120を含む。より具体的には、物体シーケンス情報データベース1120は、複数の指示物体を取り扱う正しい順番を指定する指定物体シーケンス情報1130と、複数の指示物体がユーザの指差し動作によって指示される順番を示すユーザ物体シーケンス情報1140とを格納する。
上述したように、この指定物体シーケンス情報1130は、事前に作成され、指示物体240を取り扱う正しい順番をタスク毎に規定する情報である。また、ユーザ物体シーケンス情報1140は、ユーザが実際に指示した指示物体の順番をタスク毎に示す情報であり、リアルタイムで指示物体が特定されることに応じて記録されてもよい。
一例として、指定物体シーケンス情報1130は、Task-1に含まれるSubTask-1について、「Object1,Object2, Object3」との取り扱う順番を規定してもよい。一方、ユーザの指差し動作の対象となる指示物体が指示される順番を記録した結果、物体管理部1030は、Task-1に含まれるSubTask-1について、「Object2, Object3,Object1」との取り扱う順番を示すユーザ物体シーケンス情報1140を取得してもよい。
次に、図12を参照して、本開示の実施例2に係るユーザ物体シーケンス情報取得処理について説明する。
図12は、本開示の実施例2に係るユーザ物体シーケンス情報取得処理1200の流れを示すフローチャートである。本開示の実施例2に係るユーザ物体シーケンス情報取得処理1200は、複数の指示物体がユーザの指差し動作によって指示される順番を示すユーザ物体シーケンス情報1140を取得するための処理であり、物体管理部1030によって実施される。
まず、ステップS1210では、物体管理部1030は、指示物体検出システムが管理する作業場において、現在進行中の各作業を担当するユーザの情報を取得する。ここでは、物体管理部1030は、現在進行中の各作業を担当するユーザの情報を後述するユーザ情報データベースから取得してもよい。ここでは、ユーザの情報は、例えば作業を担当するユーザの氏名や、ユーザを一意に識別する識別子(Worker ID)等を含んでもよい。
次に、ステップS1220では、物体管理部1030は、対象の作業において特定した指示物体の情報を取得する。ここで、物体管理部1030は、例えば図3に示す指示物体検出方法360によって特定された指示物体の情報を上述した記憶部(例えば、図10に示す記憶部228)から取得してもよい。対象の作業について複数の指示物体が特定された場合、物体管理部1030は、特定された各指示物体を取得する。
ここでの指示物体の情報は、例えば指示物体を一意に識別する識別子(Object ID)や、当該指示物体が指示された時刻を含んでもよい。
次に、ステップS1230では、物体管理部1030は、ステップS1210で取得した各作業を担当するユーザの情報と、ステップS1220で取得した指示物体の情報とを対応付けることで、作業のタスク毎に、特定のユーザによって指示された指示物体の情報を、指示された順番で示すユーザ物体シーケンス情報1140を生成することができる。このユーザ物体シーケンス情報1140は、例えば上述した物体シーケンス情報データベース1120に格納されてもよい。
以上説明したユーザ物体シーケンス情報取得処理1200によれば、ある物体がユーザの指差し動作の対象となる指示物体として特定される度に、特定された指示物体に関する情報(指示物体の種類、指示物体が指示される時刻等)を記録し、ユーザの情報に対応付けることで、特定のユーザが実際に指示した指示物体の順番をタスク毎に示す情報をユーザ物体シーケンス情報1140として取得することができる。
次に、図13を参照して、本開示の実施例2に係る物体取り扱いシーケンス検証処理について説明する。
図13は、本開示の実施例2に係る物体取り扱いシーケンス検証処理1300の流れを示すフローチャートである。物体取り扱いシーケンス検証処理1300は、指示物体の取り扱い手順において異常が発生したか否かを判定するための処理であり、上述した物体管理部1030によって実施される。
まず、ステップS1310では、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを取得する。
ここで、物体管理部1030は、図12を参照して上述したユーザ物体シーケンス情報取得処理1200を用いてユーザ物体シーケンス情報を取得してもよい。
また、物体管理部1030は、指定物体シーケンス情報を、例えば管理者(工場の責任者等)に入力させることで取得してもよい。また、本開示に係るある態様では、物体管理部1030は、対象のタスクを過去に正しく行ったユーザの動作に基づいて作成されたユーザ物体シーケンス情報を、指定物体シーケンス情報として用いてもよい。
次に、ステップS1320では、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、指示物体の取り扱い手順が正しいか否か(つまり、指示物体を取り扱う順番が間違っているか等)を判定する。
より具体的には、物体管理部1030は、ユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、ユーザ物体シーケンス情報を検証し、ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすか否かを判定する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たすと判定した場合、本処理はステップS1310に戻り、ユーザ物体シーケンス情報と及び指定物体シーケンス情報の取得を継続する。ユーザ物体シーケンス情報が、指定物体シーケンス情報に対する所定の類似度基準を満たさないと判定した場合、本処理はステップS1330へ進む。
なお、この類似度基準とは、ユーザ物体シーケンス情報と、指定物体シーケンス情報とが互いに一致することを判定するための必要最小限の類似度を指定する情報であり、事前に管理者等に設定されてもよい。
次に、次に、ステップS1330では、物体管理部1030は、指示物体の取り扱い手順において異常や誤りが発生したと判定し、当該異常を示す異常通知を出力する。例えば、物体管理部1030は、異常が発生したタスクの識別情報、異常の内容(物体の取り扱い手順が誤っている等)、異常の発生時刻、タスクの担当者等の情報を含む異常通知を、例えばユーザ端末250に出力してもよい。
一例として、指定物体シーケンス情報は、Task-1に含まれるSubTask-1について、「Object1,Object2, Object3」との取り扱う順番を規定するとする。一方、ユーザの指差し動作の対象となる指示物体が指示される順番を記録した結果、物体管理部1030は、Task-1に含まれるSubTask-1について、「Object2, Object3,Object1」との取り扱う順番を示すユーザ物体シーケンス情報が取得されたとする。
この場合、物体管理部1030は、指定物体シーケンス情報と、ユーザ物体シーケンス情報とを比較した結果、ユーザ物体シーケンス情報が指定物体シーケンス情報に一致しないと判定し、指示物体の取り扱い手順に関する異常が発生したと判定する。その後、物体管理部は、当該異常を示す異常通知を生成し、ユーザ端末250に通知してもよい。このように、ユーザ端末250のユーザは、検出された異常を解決する行動を取ることができる。
このように、以上説明した物体取り扱いシーケンス検証処理1300によれば、指示物体の取り扱い手順をリアルタイムで検証し、取り扱い手順に異常が発生したか否かを判定することができる。これにより、例えば工場等の作業場では、作業員の手違い等を早期に検出することができるため、作業の正確性及び効率を向上させることができる。
次に、図14を参照して、本開示の実施例2に係る環境認識部について説明する。
図14は、本開示の実施例2に係る環境認識部1032の構成の一例を示す図である。上述したように、環境認識部1032は、ユーザや指示物体の周辺環境に関する環境情報を取得するための機能部である。
また、図14に示すように、環境認識部1032は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
図14に示すように、環境認識部1032は、環境情報を受け付ける受付部1412と、環境情報を映像から判定する機械学習部1414と、環境情報データベース1450とを含む。
環境情報データベース1450は、ユーザや指示物体の周辺環境に関する環境情報1455を格納するためのデータベースである。図14に示すように、この環境情報1455は、例えば、周辺環境の照明条件、撮影部の位置、ユーザと指示物体との距離等、周辺環境に関する任意の情報を含んでもよい。
この環境情報1455は、ユーザによって直接に入力されてもよく、撮影部によって取得される入力映像を機械学習部1414によって解析することで判定されてもよい。
例えば、環境情報1455は、ユーザによって直接に入力される場合、受付部1412は、ユーザ端末250のユーザインタフェース1410を介して入力される環境情報1455を、通信ネットワーク234を介して受け付けた後、受信した環境情報1455を環境情報データベース1450に格納してもよい。ここでのユーザインタフェース1410は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、環境情報1455は、機械学習部1414によって判定される場合、機械学習部1414は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、環境情報1455を判定する。その後、機械学習部1414は、判定した環境情報1455を環境情報データベース1450に格納してもよい。
環境情報1455が取得され、環境情報データベース1450に格納された後、上述したオブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び/又は指示物体特定部は、この環境情報1455を適宜に利用してもよい。これにより、オブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部によって実行される各種処理の精度を向上させることが可能となる。
次に、図15を参照して、本開示の実施例2に係るユーザ情報取得部について説明する。
図15は、本開示の実施例2に係るユーザ情報取得部1034の構成の一例を示す図である。ユーザ情報取得部1034は、ユーザに関するユーザ情報を取得するための機能部である。
また、図15に示すように、ユーザ情報取得部1034は、通信ネットワーク234を介して、ユーザ端末250と接続されてもよい。
図15に示すように、ユーザ情報取得部1034は、ユーザ情報を受け付ける受付部1512と、ユーザ情報を映像から判定する機械学習部1514と、ユーザ情報データベース1550とを含む。
ユーザ情報データベース1550は、ユーザに関するユーザ情報1555を格納するためのデータベースである。図15に示すように、このユーザ情報1555は、例えば、ユーザを一意に識別するための識別子、氏名、身長、肌色、担当タスク、現在のタスク等、ユーザに関する任意の情報を含んでもよい。
このユーザ情報1555は、ユーザによって直接に入力されてもよく、撮影部によって取得される入力映像を機械学習部1514によって解析することで判定されてもよい。
例えば、ユーザ情報1555は、ユーザによって直接に入力される場合、受付部1512は、ユーザ端末250のユーザインタフェース1510を介して入力されるユーザ情報1555を、通信ネットワーク234を介して受け付けた後、受信したユーザ情報1555をユーザ情報データベース1550に格納してもよい。ここでのユーザインタフェース1510は、例えばユーザ端末から利用可能なウエブページやアプリであってもよい。
一方、ユーザ情報1555は、機械学習部1514によって判定される場合、機械学習部1514は、撮影部(図14に図示せず)によって取得される入力映像を、所定のオブジェクト検出や画像処理を実行するように学習された機械学習手段によって解析することで、ユーザ情報1555を判定する。その後、機械学習部1514は、判定したユーザ情報1555をユーザ情報データベース1550に格納してもよい。
ユーザ情報1555が取得され、ユーザ情報データベース1550に格納された後、上述したオブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部は、このユーザ情報1555を適宜に利用してもよい。これにより、オブジェクト検出部、画像加工部、ジェスチャー判定部、指示方向判定部、及び指示物体特定部によって実行される各種処理の精度を向上させることが可能となる。
次に、図16を参照して、本開示の実施例2に係る更新部について説明する。
図16は、本開示の実施例2に係る更新部1036の構成の一例を示す図である。上述したように、更新部1036は、環境認識部やユーザ情報取得部によって取得された環境情報及びユーザ情報に基づいて、指示物体検出装置の各機能部のパラメータを更新するための機能部である。
図16に示すように、更新部1036は、上述した環境情報データベース1450及びユーザ情報データベース1550に接続されており、環境情報1455及びユーザ情報1555をアクセスできるように構成されている。
更新部1036は、環境情報データベース1450から環境情報1455を取得し、ユーザ情報データベース1550からユーザ情報1555を取得した後、取得した環境情報1455及びユーザ情報1555に基づいて指示物体検出装置の各機能部のパラメータを更新する。更新部1036は、環境情報1455及びユーザ情報1555に基づいた各機能部の更新を定期的(1分毎、5分毎、1時間毎)に行ってもよく、新たな情報が環境情報データベース1450又はユーザ情報データベース1550に追加される度に更新を行ってもよい。
また、環境情報1455及びユーザ情報1555に基づいた更新は、各機能部の処理の精度及び効率を向上させるための処理であり、この更新で調整されるパラメータは、各機能部の機能や性能に応じて適宜に決定されてもよい。
一例として、環境情報1455は、ユーザ及び指示物体の周辺環境が暗いと示す場合、更新部1036は、撮影部のパラメータを、暗い環境に適したパラメータに変更してもよい。これにより、より鮮明な入力映像を取得することが可能となり、オブジェクト検出部によるオブジェクト検出の精度を向上させることができる。
また、もう一例として、更新部1036は、ユーザ情報1555に記録されているユーザの肌色に基づいて、画像加工部のパラメータを、ユーザの肌色に適したパラメータに変更してもよい。これにより、画像加工部による手画像の抽出の精度を向上させることができる。
以上説明したように構成した更新部1036によれば、ユーザの情報や環境の情報を用いて指示物体検出装置の各機能部のパラメータを更新することで、各機能部による処理の精度及び効率を向上させることが可能となる。
次に、図17を参照して、本開示の実施例3に係る指示物体検出システムの構成について説明する。
図17は、本開示の実施例3に係る指示物体検出システム1700の構成を示す図である。本開示の実施例3に係る指示物体検出システム1700の指示物体検出装置1710は、作業管理部1740を含む構成となっている点において、図10に示す、本開示の実施例2に係る指示物体検出システム1000の指示物体検出装置1010と異なる。作業管理部1740を含む点を除いて、実施例3に係る指示物体検出システム1700の構成は、実施例2に係る指示物体検出システム1000と実質的に同様であるため、同一部分には同一の符号を付して示している。また、説明の便宜上、以下では、上述した部分の説明を省略し、指示物体検出システム1700と指示物体検出システム1000との相違点を中心に説明する。
作業管理部1740は、ユーザ等の作業員が行う作業を管理するための機能部である。例えば、作業管理部1740は、作業の担当者への割り当てや作業の分配を、例えば物体管理部1030によって取得されるユーザ物体シーケンス情報に基づいて管理してもよい。一例として、作業管理部1740は、ユーザ物体シーケンス情報に基づいて、各作業者の作業の進捗状況を判定し、この進捗状況に応じて作業の割り当てを行ってもよい。また、もう一例として、作業管理部1740は、ユーザ物体シーケンス情報に基づいて、各作業者の作業毎の効率を判定し、この作業毎の効率に応じて作業の割り当てを行ってもよい。
なお、作業管理部1740による処理の詳細については後述するため、ここではその説明を省略する。
以上説明した本開示の実施例3に係る指示物体検出システム1700によれば、ユーザの指差し動作の対象となる指示物体240を検出できると共に、ユーザ物体シーケンス情報によって判定される各作業者の作業状況に応じて作業の分配を管理することが可能となる。
次に、図18を参照して、本開示の実施例3に係る作業管理部による作業分配処理について説明する。
図18は、本開示の実施例3に係る作業管理部による作業分配処理1800の流れを示す図である。図18に示す作業分配処理1800は、作業をユーザに分配するための処理であり、作業管理部1740によって実施される。
まず、ステップS1810では、作業管理部1740は、ユーザ物体シーケンス情報を、上述した物体シーケンス情報データベース(例えば、図11に示す物体シーケンス情報データベース1120)から取得し、取得したユーザ物体シーケンス情報に基づいて、対象の作業の進捗状況を判定する。上述したように、ユーザ物体シーケンス情報には、対象の作業のタスク毎に、特定のユーザによって指示された指示物体の情報が、指示された順番で示されている。このため、ユーザ物体シーケンス情報を、当該作業の正しい動作の順番を示す指定物体シーケンス情報に比較することで、現在進行中の作業の進捗状況を判定することが可能である。
例えば、作業管理部1740は、物体シーケンス情報データベースから取得したユーザ物体シーケンス情報と、指定物体シーケンス情報とを比較することで、現在進行中の作業の進捗状況を示す情報として、当該作業の完了率(30%、54%、70%等)を判定してもよい。
なお、このステップS1810では、作業管理部1740は、作業の進捗状況を判定するためのユーザ物体シーケンス情報を少なくとも取得するが、本開示はこれに限定されず、作業管理部1740は、ユーザ物体シーケンス情報に加えて、上述したユーザ情報や環境情報等、他の情報を取得してもよい。後述するように、ユーザ物体シーケンス情報に加えて、取得したユーザ情報や環境情報は作業を分配する際に用いられてもよい。
次に、ステップS1820では、作業管理部1740は、ステップS1810で判定した作業の進捗状況と、作業管理部1740に格納されている作業分配ルール1825とに基づいて、作業の分配を行ってもよい。より具体的には、ここで、作業管理部1740は、作業の進捗状況と、作業分配ルール1825とに基づいて、新たに発生した新規の作業を特定のユーザ(第1のユーザ)に割り当ててもよく、特定のユーザ(第1のユーザ)に既に割り当てられた作業を別のユーザ(第2のユーザ)に再分配してもよい。
作業分配ルール1825は、作業の分配方法を規定するルールである。言い換えれば、作業分配ルール1825は、どのような作業を、どのようなタイミングで、どのようなユーザに割り当てるべきかを指定する情報である。例えば、作業分配ルール1825は、「ユーザの現在の作業の完了率が70%以上の場合、新規の作業を割り当てる」ルールや、「ユーザの現在の作業の完了率が20%以下の場合、新規の作業を割り当てない」ルール等を含んでもよい。
また、作業分配ルール1825は、現在の作業の進捗状況以外にも、上述したユーザ情報及び環境情報を考慮するルールを含んでもよい。例えば、作業分配ルール1825は、ユーザ情報から判定したユーザの資格の有無に基づいて作業の分配を決定してもよく、環境の証明条件等に基づいて作業の分配を決定してもよい。
次に、ステップS1830では、作業管理部1740は、作業の分配を行った後、ユーザ情報データベース(例えば、図15に示すユーザ情報データベース1550)や、物体シーケンス情報データベース(例えば、図11及び図12に示す物体シーケンス情報データベース)を更新してもよい。例えば、作業管理部1740は、ユーザ情報データベース及び物体シーケンス情報データベースにおいて、ステップS1820で行った作業の分配に合わせて、各ユーザが担当する作業の内容を更新してもよい。
以上説明した作業分配処理1800によれば、本開示の実施例に係る指示物体検出方法によって取得された情報(ユーザ情報、環境情報、ユーザ物体シーケンス情報)を用いて、作業を効率よくユーザに分配することが可能となる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
物体管理部や環境認識部の構成や、管理される項目についても、上述した内容に限定されるものではなく様々な変更が可能である。
200、1000、1700 指示物体検出システム
210、1010、1710 指示物体検出装置
212 オブジェクト検出部
214 画像加工部
218 ジェスチャー判定部
220 指示方向判定部
222 指示物体特定部
224 画像入力部
226 プロセッサ
228 記憶部
234 通信ネットワーク
235 ユーザ
240 指示物体
250 ユーザ端末
1030 物体管理部
1032 環境認識部
1036 更新部

Claims (11)

  1. 指差し動作の対象となる指示物体を検出する指示物体検出装置であって、
    ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する画像入力部と、
    前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
    前記手によるジェスチャーを判定するジェスチャー判定部と、
    前記手による前記ジェスチャーが指差し動作と判定された場合、
    前記手のセントロイドを特定し、
    前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
    特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
    前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
    を含むことを特徴とする指示物体検出装置。
  2. 前記指示方向判定部は、
    前記入力映像から抽出され、前記手のみを示す手画像において、
    前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
    前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
    前記指画素の平均画素座標を計算し、
    前記平均画素座標と、前記指先とを通過する架空線の方向を、前記指示方向として判定する、
    ことを特徴とする、請求項1に記載の指示物体検出装置。
  3. 前記指示方向判定部は、
    前記入力映像から抽出され、前記手のみを示す手画像において、
    前記指先と、前記セントロイドとを通過する第1の架空線を設定し、
    前記第1の架空線に対して垂直であり、前記指先に対して第2の距離基準を満たす第2の架空線を設定し、
    前記第1の架空線に対して垂直であり、前記第2の架空線に対して平行であり、前記指先に対して第3の距離基準を満たす第3の架空線を設定し、
    前記第2の架空線と、前記第3の架空線との中心点を通過する第4の架空線の方向を、前記指示方向として判定する、
    ことを特徴とする、請求項1に記載の指示物体検出装置。
  4. 前記指示方向判定部は、
    前記入力映像から抽出され、前記手のみを示す手画像において、
    前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
    前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
    最小二乗法を用いて、前記指画素に基づいて前記指示方向を判定する、
    ことを特徴とする、請求項1に記載の指示物体検出装置。
  5. 前記指示方向判定部は、
    前記入力映像から抽出され、前記手のみを示す手画像において、
    前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定し、
    前記対象領域において、所定の輝度基準を満たす画素を、前記指し指に属する指画素として特定し、
    主成分分析を用いて、前記指画素に基づいて前記指示方向を判定する、
    ことを特徴とする、請求項1に記載の指示物体検出装置。
  6. 前記指示物体検出装置は、
    前記指示物体の取り扱い手順を管理するための物体管理部を更に含み、
    前記物体管理部は、
    複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、格納する、
    ことを特徴とする、請求項1に記載の指示物体検出装置。
  7. 前記物体管理部は、
    複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報を格納しており、
    前記ユーザ物体シーケンス情報と、前記指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、
    前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、
    前記指示物体の取り扱い手順において異常が発生したと判定し、前記異常を示す異常通知を出力する、
    ことを特徴とする、請求項6に記載の指示物体検出装置。
  8. 前記指示物体検出装置は、
    前記ユーザに関するユーザ情報を取得するユーザ情報取得部と、
    前記ユーザの周辺環境に関する環境情報を取得する環境認識部と、
    前記ユーザ情報又は前記環境情報に基づいて、前記画像入力部、前記オブジェクト検出部、前記ジェスチャー判定部、前記指示方向判定部、前記指示物体特定部、及び前記物体管理部の内の少なくとも1つのパラメータを更新する更新部と、
    を含むことを特徴とする、請求項6に記載の指示物体検出装置。
  9. 前記指示物体検出装置は、
    前記ユーザが行う作業を管理する作業管理部を含み、
    前記作業管理部は、
    前記ユーザ物体シーケンス情報に基づいて、第1のユーザが担当する第1の作業の進捗状況を判定し、
    判定した前記第1の作業の前記進捗状況と、作業の分配方法を規定する作業分配ルールとに基づいて、第2の作業を担当する第2のユーザを判定し、前記第2の作業を前記第2のユーザに分配する、
    ことを特徴とする、請求項7に記載の指示物体検出装置。
  10. 指差し動作の対象となる指示物体を検出する指示物体検出方法であって、
    ユーザの手と、少なくとも1つの指示物体候補とを含む入力映像を取得する工程と、
    前記入力映像を解析し、前記手と前記指示物体候補とを検出する工程と、
    前記入力映像から、前記手のみを示す手画像を抽出する工程と、
    前記手画像を解析し、前記手によるジェスチャーを判定する工程と、
    前記手による前記ジェスチャーが指差し動作と判定された場合、前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指し指の指先として特定する工程と、
    前記指先と、前記セントロイドとの距離に基づいて、前記指先を中心とする対象領域を判定する工程と、
    前記対象領域において、所定の輝度基準を満たす画素を、前記指差し動作に用いられた指し指に属する指画素として特定する工程と、
    前記指画素の平均画素座標を計算する工程と、
    前記平均画素座標と、前記指先とを通る架空線の方向を、前記指差し動作の指示方向として判定する工程と、
    前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する工程と、
    を含むことを特徴とする指示物体検出方法。
  11. 指差し動作の対象となる指示物体を検出する指示物体検出システムであって、
    前記指示物体検出システムは、
    指示物体検出装置と、
    ユーザ端末とを含み、
    前記指示物体検出装置と、前記ユーザ端末とが通信ネットワークを介して接続されており、
    前記指示物体検出装置は、
    ユーザの手と、少なくとも1つの指示物体候補とを示す入力映像を取得する画像入力部と、
    前記入力映像を解析し、前記手と前記指示物体候補とを検出するオブジェクト検出部と、
    前記手によるジェスチャーを判定するジェスチャー判定部と、
    前記手による前記ジェスチャーが指差し動作と判定された場合、
    前記手のセントロイドを特定し、前記セントロイドから第1の距離基準を満たし、且つ、所定の曲率基準を満たす領域を、前記指差し動作に用いられた指し指の指先として特定し、
    特定した前記指先に属する画素の分布に基づいて、前記指差し動作の指示方向を判定する指示方向判定部と、
    前記指示方向に基づいて、前記入力映像において前記指差し動作によって指示される物体を、前記指示物体候補の中から特定する指示物体特定部と、
    特定された前記指示物体に基づいて、複数の前記指示物体が前記ユーザの前記指差し動作によって指示される順番を示すユーザ物体シーケンス情報を作成し、前記ユーザ物体シーケンス情報と、複数の前記指示物体を取り扱う順番を指定する指定物体シーケンス情報とを比較することで、前記ユーザ物体シーケンス情報を検証し、前記ユーザ物体シーケンス情報が、前記指定物体シーケンス情報に対する所定の類似度基準を満たさない場合、前記指示物体の取り扱い手順に関する異常を示す異常通知を前記ユーザ端末に出力する、
    ことを特徴とする指示物体検出システム。
JP2021023229A 2021-02-17 2021-02-17 指示物体検出装置、指示物体検出方法及び指示物体検出システム Active JP7470069B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021023229A JP7470069B2 (ja) 2021-02-17 2021-02-17 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021023229A JP7470069B2 (ja) 2021-02-17 2021-02-17 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Publications (2)

Publication Number Publication Date
JP2022125570A true JP2022125570A (ja) 2022-08-29
JP7470069B2 JP7470069B2 (ja) 2024-04-17

Family

ID=83058502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021023229A Active JP7470069B2 (ja) 2021-02-17 2021-02-17 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Country Status (1)

Country Link
JP (1) JP7470069B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3752246B2 (ja) 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP5156617B2 (ja) 2008-12-26 2013-03-06 日本システムウエア株式会社 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
JP2012073659A (ja) 2010-09-01 2012-04-12 Shinsedai Kk 操作判定装置、指先検出装置、操作判定方法、指先検出方法、操作判定プログラム、及び、指先検出プログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP6030430B2 (ja) 2012-12-14 2016-11-24 クラリオン株式会社 制御装置、車両及び携帯端末
JP2015026266A (ja) 2013-07-26 2015-02-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN104933432B (zh) 2014-03-18 2020-04-14 北京细推科技有限公司 一种指腹折痕和指静脉图像的处理方法
JP6523925B2 (ja) 2015-11-10 2019-06-05 株式会社日立製作所 生体情報を用いた認証装置及び認証方法

Also Published As

Publication number Publication date
JP7470069B2 (ja) 2024-04-17

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
US10572072B2 (en) Depth-based touch detection
Yao et al. Contour model-based hand-gesture recognition using the Kinect sensor
CN111259751B (zh) 基于视频的人体行为识别方法、装置、设备及存储介质
WO2018228218A1 (zh) 身份识别方法、计算设备及存储介质
CN109325456B (zh) 目标识别方法、装置、目标识别设备及存储介质
EP3811337A1 (en) System for predicting articulated object feature location
US20130335318A1 (en) Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers
Patruno et al. People re-identification using skeleton standard posture and color descriptors from RGB-D data
WO2022166243A1 (zh) 捏合手势检测识别方法、装置及系统
WO2020029466A1 (zh) 图像处理方法和装置
JP2016503220A (ja) ジェスチャ認識のためのパーツ及び状態検出
CN111611903B (zh) 动作识别模型的训练方法、使用方法、装置、设备和介质
US9734435B2 (en) Recognition of hand poses by classification using discrete values
WO2021098147A1 (zh) Vr体感数据检测方法、装置、计算机设备及存储介质
KR101559502B1 (ko) 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체
US10817716B2 (en) Coarse-to-fine hand detection method using deep neural network
Weiyao et al. Human action recognition using multilevel depth motion maps
TWI776176B (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
US20200320733A1 (en) Program, system, electronic device, and method for recognizing three-dimensional object
CN114332927A (zh) 课堂举手行为检测方法、系统、计算机设备和存储介质
CN109241942B (zh) 图像处理方法、装置、人脸识别设备及存储介质
JP7470069B2 (ja) 指示物体検出装置、指示物体検出方法及び指示物体検出システム
US20160253570A1 (en) Feature vector extraction device
Soroni et al. Hand Gesture Based Virtual Blackboard Using Webcam

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240405

R150 Certificate of patent or registration of utility model

Ref document number: 7470069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150