JP7213396B1 - 電子機器及びプログラム - Google Patents

電子機器及びプログラム Download PDF

Info

Publication number
JP7213396B1
JP7213396B1 JP2022517908A JP2022517908A JP7213396B1 JP 7213396 B1 JP7213396 B1 JP 7213396B1 JP 2022517908 A JP2022517908 A JP 2022517908A JP 2022517908 A JP2022517908 A JP 2022517908A JP 7213396 B1 JP7213396 B1 JP 7213396B1
Authority
JP
Japan
Prior art keywords
hand
electronic device
data
unit
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022517908A
Other languages
English (en)
Other versions
JPWO2023031988A1 (ja
JPWO2023031988A5 (ja
Inventor
勝秀 安倉
卓也 坂口
伸幸 岡
武史 福泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Application granted granted Critical
Publication of JP7213396B1 publication Critical patent/JP7213396B1/ja
Publication of JPWO2023031988A1 publication Critical patent/JPWO2023031988A1/ja
Publication of JPWO2023031988A5 publication Critical patent/JPWO2023031988A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Abstract

電子機器(1)は、操作者の手の撮像データを取得する取得部(3)と、撮像データに基づいて、手に対応するスケルトンデータを推測する推測部(8)と、スケルトンデータに基づいて、電子機器(1)を操作するためのカーソル位置を決定する決定部(9)と、を備えてもよい。

Description

本発明は、電子機器及びプログラムに関する。
従来、電子機器は、マウスなどの外部入力機器やタッチパッド、タッチパネルからの情報によって操作されていた。即ち、電子機器の操作者は、マウスを移動しクリックする、又は、タッチパッド、タッチパネル上で指を接触させて移動し、タッチ操作を行うことによって電子機器を操作していた。
近年電子機器は小型化されて、移動可能なタブレット端末やスマートフォンなどが多くの人に利用されている。タブレット端末やスマートフォンなどの移動可能な電子機器においては、操作者がタッチパネルの表面に指やその他の物体を接触させて移動又はタッチ操作することにより電子機器を操作できる。
操作者の負担を軽減する試みとして、カメラにより右手の指の位置を取得し、指の位置の付近に携帯電話の画面に対応するように操作領域を空中に設定し、操作者の指の操作領域内での位置に対応させて、指を移動させると画面上のカーソルを移動させたり、あるいはアイコンを強調表示して指定させたりする技術が下記特許文献に開示されている。
日本国公開特許公報2013-171529号
電子機器の操作において、操作者が表示パネルの表面に指やその他の物体を接触させて操作を実施する場合、衛生上気がかりとなることがある。具体的には、手や指が電子機器と接触することにより、電子機器の表面に付着したウイルスを手や指が接触することによって付着させてしまい、結果としてウイルスの感染を引き起こしてしまう可能性がある。
上記特許文献に開示された操作入力装置においては、カーソルの移動などを右手の空中移動によって非接触で行うことはできるが、最終的には左手の指で確定ボタンを押下しないと装置の操作が実行できない。
したがって、上記特許文献に開示された技術によって、電子機器の表面に付着したウイルスによる感染を防止することは難しい。
本発明の一態様に係る電子機器は、操作者の手の撮像データを取得する取
得部と、前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部とを備え、前記推測部は、前記撮像データにおいて握り拳または掌を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する。
本発明の他の態様に係る電子機器は、操作者の手の撮像データを取得する取得部と、前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作部とを備え、前記推測部は、前記撮像データにおいて握り拳または掌を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する。
本発明の一態様に係るプログラムは、電子機器が備える少なくとも1つのプロセッサに、操作者の手の撮像データを取得する取得処理と、前記撮像データに握り拳または掌を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する推測処理と、前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定処理とを実行させる。
本発明の他の態様に係るプログラムは、電子機器が備える少なくとも1つのプロセッサに、操作者の手の撮像データを取得する取得処理と、前記撮像データに握り拳または掌を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する推測処理と、前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作処理とを実行させる。
実施形態1に係る電子機器の構成の一例を示すブロック図である。 実施形態1における電子機器の具体的構成例の外観を示す図である。 実施形態1におけるスケルトンデータの推測の流れの一例を説明するフローチャートである。 握り拳の画像データの一例を示す図である。 手の画像データにスケルトンを重ねた模式図の一例である。 手の画像データにスケルトンを重ねた模式図の一例である。 実施形態1におけるスケルトンデータに基づくカーソル位置の決定等の流れの一例を説明するフローチャートである。 手の画像データにスケルトンを重ねた模式図の一例である。 手の画像データにスケルトンを重ねた模式図の一例である。 手の画像データにスケルトンを重ねた模式図の一例である。 実施形態1における電子機器の操作の一例を説明するための外観図である。 カーソル形状の変化の一例を示す図である。 実施形態1における電子機器の操作の一例を説明するための外観図である。 実施形態2に係る電子機器の構成の一例を示すブロック図である。 実施形態3における電子機器の操作の一例を説明するための外観図である。 実施形態4に係る電子機器の構成の一例を示すブロック図である。 実施形態4における電子機器の幾つかの具体的構成例の外観を示す図である。 コンピュータのブロック図の一例である。
以下、幾つかの実施形態について説明する。各実施形態に係る電子機器は、電子工学が適用された装置一般を指し、例えば、スマートフォン、タブレット、パーソナルコンピュータ(ノート型及びデスクトップ型を含む)、スマートグラス、ヘッドマウンドディスプレイ等であり得るが、これらに限定されない。
〔実施形態1〕
<構成例>
以下、本実施形態の構成例について図面を参照して説明する。図1は実施形態1に係る電子機器1の構成の一例を示すブロック図である。以下では、一例として、電子機器1がスマートフォンである場合について説明するが、本実施形態はこれに限定されず、電子機器一般に適用することができる。電子機器1は、一例として、制御部2、撮像部4、表示部5、メモリ6及び記憶部7によって構成されてよい。
本実施形態において、制御部2は、半導体装置で構成されたマイクロコンピュータなどの演算装置で構成されてよい。
撮像部4は、操作者(ユーザ)の手の撮像データ(静止画及び動画を含む)を取得する機能を有してよい。撮像部4は電子機器1に内蔵されたカメラ又はセンサを想定しているが、外付けのカメラ又はセンサを利用してもよい。撮像部4は、画像(例えば、RGB画像)を撮像するだけでなく、対象までの距離(深度)を計測可能なデプスカメラであってもよい。距離の計測方法は公知の技術を用いることができ、例えば3次元Lidar(Light Detection and Ranging)、又は例えば赤外光を用いる三角測量方式やTOF(Time Of Flight)方式等を用いることができる。
また、一態様において、撮像部4は、2以上の撮像部を備えたステレオカメラであってもよい。撮像部4が取得した撮像データには、深度を示す情報が含まれていてもよく、深度を示す情報を含む撮像データについても、単に「撮像データ」と称する場合がある。一例として、撮像データは、画素値として色彩及び輝度を示す値を有する画像(例えば、RGB画像)であってもよく、画素値として深度を示す値を有する画像(デプス(深度)画像)であってもよい。
メモリ6は、制御部2と一体化されたマイクロコンピュータのメモリによって構成されてよい。また、メモリ6は、制御部2に接続される独立した半導体装置で構成されたRAM又はROMなどであってもよい。メモリ6は制御部2が実行する各種のプログラム及びそれらのプログラムによって参照される各種のデータが一時的に格納されてもよい。
記憶部7は、電子機器1に内蔵された、例えばRAMやフラッシュメモリなどの書き込み可能な半導体装置のメモリによって構成されてよい。また記憶部7は、電子機器1と接続される外部メモリによって構成されてもよい。記憶部7は、また、後述する学習モデルを格納してよい。
また、制御部2は、取得部3、推測部8、決定部(検出部)9及び操作部(カーソル表示部)10を含む構成であってよい。取得部3は、カメラ4から、操作者の手の撮像データを取得する機能を有してよい。
推測部8は、取得部3が取得した撮像データに基づいて、操作者の手に対応するスケルトンデータを推測する機能を有してよい。本明細書において、スケルトンデータとは、体積を有する物体の形状を、当該物体の骨格となる線分の集合(スケルトン)によって表現したものであり、例えば、当該物体の各部分について、当該部分の軸を示す線分、又は、当該部分の枠を示す線分によって表現したものであり得る。スケルトンは、物体の実際の骨格とは異なるものであってもよい。例えば、手のスケルトンは、必ずしも手の骨に沿ったものでなくともよく、少なくとも各指の位置、各指の曲がり方を示す線分を含むものであればよい。また、スケルトンデータは、骨格のうちの代表する数点をサンプル化したスケルトンメッシュと呼ばれるポイントの集合体であってもよい。
推測部8が、取得部3が取得した撮像データに基づいて、操作者の手に対応するスケルトンデータを推測するためのアルゴリズムは、特に限定されないが、一例として、推測部8は、多数の手の撮像データと当該手のスケルトンデータとの組を教師データとして機械学習された学習モデルを用いて、操作者の手に対応するスケルトンデータを推測するものであってよい。
また、一例として、推測部8は、領域抽出部8aと、スケルトンデータ推測部8bとを含んでいてよい。
領域抽出部8aは、撮像データに基づいて、手が含まれる領域を抽出してよい。領域抽出部8aが、手が含まれる領域を抽出するためのアルゴリズムは特に限定されず、公知のアルゴリズムを用いてもよいが、一例として、領域抽出部8aは、撮像データにおいて握り拳又は掌を検出することにより、撮像データにおける、手が含まれる領域を抽出してよい。なお、本明細書において、掌とは、手における指以外の部分を指す。一例として、領域抽出部8aは、操作者が手を握っていないとき、例えば、操作者の手が開いているときには、掌を検出し、操作者が手を握っているときには、握り拳を検出してよい。領域抽出部8aは、検出した握り拳又は掌の位置及び範囲に基づいて、操作者の手が含まれる領域を抽出してよい。
スケルトンデータ推測部8bは、領域抽出部8aが抽出した、手が含まれる領域から、手に対応するスケルトンデータを推測してよい。一例として、スケルトンデータ推測部8bは、上述したような学習モデルを用いて、手に対応するスケルトンデータを推測するものであってよい。
このように、手が含まれる領域を抽出してから、抽出した領域を用いてスケルトンデータを推測することにより、処理速度及び推定精度を向上させることができる。
また、領域抽出部8aが、撮像データにおける握り拳又は掌の検出結果に基づいて、手が含まれる領域を抽出することにより、処理速度をさらに向上させることができる。すなわち、手が開いた状態の形状は複雑な形状であり、検出処理の処理時間も長くなるが、握り拳及び掌という単純な形状に絞って検出を行うことによって、処理時間を短くすることができる。
決定部9は、推測部8が推測したスケルトンデータに基づいて、電子機器1を操作するためのカーソル位置を決定する機能を有してよい。すなわち、電子機器1は、座標を伴う入力によって操作可能な電子機器であってよく、カーソル位置は、当該入力の座標を示すために用いられてよい。決定部9は、また、推測部8が推測したスケルトンデータに基づいて、電子機器1を操作するためのアクション(ジェスチャ)を検出する機能を有してよい。
操作部10は、決定部9が決定したカーソル位置に基づいて、電子機器1が実行するアプリケーションを操作してよい。操作部10は、さらに決定部9が検出したアクション(ジェスチャ)に基づいて、電子機器1が実行するアプリケーションを操作してよい。
<外観例>
図2は、実施形態1における電子機器1の一具体的構成例の外観を示す図である。撮像部4は電子機器1の表面側(図2においては、電子機器1が示されている側)を撮影するカメラであってよい。
一般的に、電子機器1は裏面側(図2においては、電子機器1が示されている反対側)を撮影するカメラも有しており、この裏面側のカメラを撮像部4として利用してもよい。ただし、裏面側のカメラを利用する場合は、操作者の手が電子機器1によって遮られ、直接見えにくい状況となるため、その点を考慮した上で利用してもよい。
電子機器1は、表面側に表示部5(ディスプレイ)を有してよい。電子機器1の表示部5には画像が表示されており、表示部5に指やその他の物体を接触させることによって電子機器1を操作できる構成であってよい。図2には図示されていないが、電子機器1は、その内部に制御部2、メモリ6及び記憶部7を有してもよい。
<スケルトンデータの推測>
本実施形態におけるスケルトンデータの推測の流れについて図3~図5を参照して説明する。図3は、実施形態1におけるスケルトンデータの推測の流れの一例を説明するフローチャートである。
処理が開始される(ステップS30)と、取得部3が、撮像部4から撮像データを取得してよい(ステップS31)。次に、領域抽出部8aが、撮像データにおいて握り拳又は掌を検出してよい(ステップS32)。図4は、ステップS32において領域抽出部8aが検出する撮像データに含まれる握り拳40の画像データの一例を示す図である。領域抽出部8aが検出する握り拳40の画像データは、人によって様々となってよい。また、操作者の利き手によって、右手又は左手が選択的に示されることになってよい。図4においては、操作者の利き手が右手の場合を示しているが、操作者の利き手が左手の場合は、左手の握り拳の画像データが取得されてよい。
領域抽出部8aが、握り拳又は掌を検出するアルゴリズムとしては、特に限定されず、公知の物体認識アルゴリズムを用いればよいが、例えば、握りとして学習させた学習モデルを用いて、握り拳又は掌を検出してよい。
次に、領域抽出部8aが、撮像データにおいて検出した握り拳又は掌に基づいて、当該握り拳又は掌に対応する手が含まれる領域を抽出してよい(ステップS33)。例えば、ステップS32において、領域抽出部8aが、握り拳又は掌の画像データと、握り拳又は掌に対応する手の領域との組を教師データとして学習させた学習モデルを用いて、握り拳又は掌を検出していた場合には、領域抽出部8aは、学習モデルの出力となる手の領域を、握り拳又は掌に対応する手が含まれる領域41として抽出してもよい。その他、領域抽出部8aは、ステップS32において検出した握り拳又は掌の位置に基づいて、当該握り拳又は掌に対応する手が含まれる領域41を抽出してもよい。
ここで、どのような手の形でも(指をどのように動かした状態でも)、握り拳又は掌の形状がほとんど変化しない。そのため、領域抽出部8aが握り拳又は掌に基づいて、手が含まれる領域を抽出することにより、迅速に1以上の手の領域を検出することができ、スケルトンデータ推測部8bによってスケルトンデータを推測することができる。
次に、スケルトンデータ推測部8bは、領域抽出部8aが抽出した、手が含まれる領域から、スケルトンデータを推測してよい(ステップS34)。
一例として、スケルトンデータ推測部8bは、多数の手(握り拳、開いた手など、様々な形状の手を含む)の撮像データと当該手のスケルトンデータとの組を教師データとして機械学習された学習モデルを用いて、領域抽出部8aが抽出した、手が含まれる領域から、操作者の手に対応するスケルトンデータを推測するものであってよい。
なお、一態様において、スケルトンデータ推測部8bは、右手の撮像データと当該手のスケルトンデータとの組を教師データとして機械学習された右手認識用学習モデルと、左手の撮像データと当該手のスケルトンデータとの組を教師データとして機械学習された左手認識用学習モデルと、を用いて、何れの学習モデルからスケルトンデータを取得できたかに応じて、操作者の手が右手か左手かを認識してもよい。
図5は、握り拳の手50の画像データに対して、スケルトンデータ推測部8bが決定したスケルトンデータが示すスケルトン51を重ねた模式図の一例である。但し、この重ね合わされたスケルトン51は、模式的に付加したものであり、制御部2においてはスケルトンデータが決定されていればよい。図6は、開いた手60の画像データに対して、スケルトンデータ推測部8bが決定したスケルトンデータが示すスケルトン61を重ねた模式図の一例である。
このように、推測部8がスケルトンデータを推定することによって、制御部2は、操作者の掌や指の平面上の位置や指の位置と掌の位置の3次元的な奥行き等、操作者の手から様々な値を取得することができる。これにより、例えば、操作者が手にグローブ型センサをはめた場合と同等のデータを取得することができる。これにより、決定部9によるカーソル位置の決定やジェスチャ(アクション)の検出を行い、電子機器1又は電子機器1が実行するアプリケーションを操作することができる。
<スケルトンデータに基づくカーソル位置の決定等>
本実施形態におけるスケルトンデータに基づくカーソル位置の決定等の流れについて図7~図10を参照して説明する。
図7は、実施形態1におけるスケルトンデータに基づくカーソル位置の決定等の流れの一例を説明するフローチャートである。処理が開始される(ステップS60)と、決定部9は、推測部が推測したスケルトンデータに基づいて、カーソル位置を決定してよい(ステップS61)。
決定部9は、スケルトンデータに基づいて、操作者の手の特定の部位の位置を算出し、当該位置に対応するようにカーソル位置を決定してよい。一例として、決定部9は、操作者の手の特定の指の付け根の位置を算出し、特定の指の付け根の位置に対応するようにカーソル位置を決定してよい。一例として、決定部9は、領域抽出部8aが抽出した手が含まれる領域の撮像データ中における位置と、スケルトンデータに基づいて算出される操作者の手の特定の部位の手全体における位置とを加算した位置を、カーソル位置として決定してもよい。
図8は、操作者の手70の画像データにスケルトンを重ねた模式図の一例である。一例において、決定部9は、スケルトンデータ73に基づいて、人差し指の付け根Bを示すポイント72を特定し、特定したポイント72の位置に対応するようにカーソル位置を決定してよい。
続いて、決定部(検出部)9は、推測部が推測したスケルトンデータ73に基づいて、ジェスチャ(電子機器1の操作のためのアクション)を検出してよい(ステップS62)。決定部9が検出するジェスチャ(アクション)は特に限定されず、種々のジェスチャ(アクション)を検出してよいが、例えば、クリックアクション、スワイプアクション、ドラッグアンドドロップアクション等のジェスチャ(アクション)を検出してよい。
一態様において、スケルトンモデルの形態ごとに、それぞれ異なるジェスチャが割り当てられていてよい。一態様において、スケルトンモデルの形態は、スケルトンデータ73において規定される特定のパラメータと、当該パラメータが満たす条件とによって表現される。例えば、決定部9は、スケルトンデータ73において規定される特定のパラメータが、特定の条件を満たしたときに、当該パラメータ及び条件に対応するジェスチャを検出してよい。
特定のパラメータとしては、
・スケルトンデータ73における複数の所定ポイント間の相対距離
・スケルトンデータ73における複数の所定ポイントによって形成される角度
・スケルトンデータ73における複数の所定ポイントによって形成される形状
・スケルトンデータ73における1以上の所定ポイントの移動速度などが挙げられるがこれらに限定されない。
また、特定の条件としては、
・上記相対距離が所定の閾値以下か否か
・上記相対距離が所定の範囲内か否か
・上記角度が所定の閾値以下か否か
・上記角度が所定の範囲内か否か
・上記形状が、所定の形状(例えば、五指によって形成される形状が、「パー」形状であるか「グー」形状であるか等)
・上記移動速度が所定の閾値以下か否か
・上記移動速度が所定の範囲内か否か
・上記の条件を満たした状態が閾値以上継続したか否かなどが挙げられるがこれらに限定されない。
また、特定の条件として、複数のパラメータに関する条件が組み合わされていてもよい。また、上記の所定ポイントは、スケルトンデータ73における任意のポイントであってよく、例えば、任意の指の任意の位置、又は、掌の任意の位置、握り拳の任意の位置であってもよい。また、右手か左手かによって割り当てるジェスチャを変えてもよい。
一態様において、決定部9は、以下のような表1を参照して、ジェスチャを決定してもよい。表1は、パラメータ及び条件の組み合わせごとに、割り当てられたジェスチャを示す表である。なお、パラメータは1又は複数であってよい。また、複数の組み合わせに対して、同じジェスチャが割り当てられてもよい。
Figure 0007213396000001
以下、更に詳細に、決定部9がジェスチャを検出する処理について説明する。
決定部9は、スケルトンデータ73における複数の所定ポイントの相対距離に基づいてジェスチャを検出してよい。例えば、図8に示す手70において、決定部9は、スケルトンデータ73に基づいて、人差し指の付け根Bを示すポイント72に加えて、人差し指の指先Aを示すポイント71を特定し、ポイント71とポイント72との位置関係に基づいて、クリックアクションを検出してもよい。なお、指先というのは指の先端部のみを指すわけでなく、指の可動部分であれば先端部でなくてよい。
例えば、スケルトンデータ73において、人差し指の第1間接に相当するポイントをポイント71とし、人差し指の付け根Bを示すポイントをポイント72としてもよい。また、人差し指の先端に相当するポイントをポイント71とし、親指の先端に相当するポイントをポイント72としてもよい。また、スケルトンデータ73において、人差し指の先端に相当するポイント、中指の先端に相当するポイント、親指の先端に相当するポイントの三つのポイントの位置関係に基づいて、ジェスチャを検出してもよい。このように、ジェスチャの検出に用いるポイントは、スケルトンデータ73におけるあらゆるポイントを用いることができる。
一例において、操作者は、図9に示す手80のような手の形にした後、図10に示す手90のような手の形にし、再度、図9に示す手80のような手の形に戻すことにより、クリックアクションを行ってもよい。
このとき、決定部9は、手80について、スケルトンデータ83に基づいて、人差し指の指先Aを示すポイント81、及び、人差し指の付け根Bを示すポイント82を特定してよい。また、決定部9は、手90について、スケルトンデータ93に基づいて、人差し指の指先Aを示すポイント91、及び、人差し指の付け根Bを示すポイント92を特定してよい。
一方、ステップS63で設定した人差し指の根本82は、親指によって覆われているため、操作者の手の画像からは認識はできなくてよい。しかしながら、操作者の手80の情報は、図3に示した操作者の手の認識によってスケルトン及び/又は仮想グローブモデルが認識されているため、親指に隠れた人差し指の根本82は、認識可能であってよい。図におけるステップS62で設定した人差し指の指先81の位置Aと、ステップS63で設定した人差し指の根本82の位置Bとは、操作者の手80を開いた状態と同じく、位置的に離間してよい。
なお、上述では、ステップS62で設定した人差し指の指先81は、カメラ4から取得した操作者の手の画像から認識可能であり、ステップS63で設定した人差し指の根本82は、カメラ4から取得した操作者の手の画像から認識できなくてよいと説明した。しかしながら、ステップS62で設定した人差し指の指先81とステップS63で設定した人差し指の根本82の双方がカメラ4から取得した操作者の手の画像から認識不可能であってもよい。これは、上述のように操作者の手80の情報が、図3に示した操作者の手の認識によってスケルトン及び/又は仮想グローブモデルが認識されているためであってよい。
そして、決定部9は、手80におけるポイント81とポイント82との間の距離よりも、手90におけるポイント91とポイント92との間の距離が狭まっていることを検出し、その後、手80におけるポイント81とポイント82との間の距離まで広がったことを検出したときに、クリックアクションが行われたと判定してもよい。
なお、クリックアクションを割り当てる手の動きは特に限定されず、片手で行える任意のモーションにクリックアクションを割り当てることができる。例えば、決定部9は、人差し指及び中指がともに伸ばした状態であり、人差し指と中指とが接触して離れたことを検出したときに、クリックアクションが行われたと判定してもよい。決定部9は、各指が伸ばした状態であるか否かを、例えば、当該指の先端、付け根及び各関節のポイントが一直線に並んでいるか否かに基づいて判定してもよい。また、判定する指は、人差し指及び中指に限られない。
以上のように、決定部9は、特定の指の指先のポイントと当該指の付け根のポイントとの位置関係に基づいて、ジェスチャを検出することができる。
具体的には、例えば、決定部9は、人差し指の指先のポイントと当該指の付け根のポイントとの位置関係に基づいて、クリックアクションを検出することができる。これによれば、動作の支点となる指の付け根部分は動きが少ないため、一実施形態に係る本発明は、ジェスチャを検出し易くなる。すなわち、一実施形態に係る本発明によれば、操作の安定性を向上させることができる。
また、一例として、操作者は、手の形を、ジェスチャ開始を示す手の形にし、手を移動させてから、手の形を、ジェスチャ終了を示す手の形にすることにより、スワイプアクションやドラッグアンドドロップアクションなどの移動を指定するジェスチャを行うことができる。例えば、操作者は、図9に示す手80のような手の形にした後、図10に示す手90のような手の形にし、指先を移動させてから、図9に示す手80のような手の形に戻すことにより、スワイプアクションを行ってもよい。
この場合、決定部9は、手80におけるポイント81とポイント82との間の距離よりも、手90におけるポイント91とポイント92との間の距離が狭まっていることを検出し、その後、ポイント91が移動したことを検出し、その後、手80におけるポイント81とポイント82との間の距離まで広がったことを検出したときに、スワイプアクションが行われたと判定してもよい。
なお、図10における操作者の手90は、人差し指以外の指は握った(折り曲げた)状態になっている上に、人差し指が重ねて折り曲げられた状態となっているため、非常に複雑な手の形をしている。特に、人差し指の付け根は、他の指によって隠れている。このような操作者の手90についても、決定部9は、スケルトンデータに基づいて人差し指の付け根を含む各ポイントを検出することができる。
<電子機器又はアプリケーションの操作>
図11は、電子機器1の操作の一例を説明するための外観図である。電子機器1は、具体的にはスマートフォンであってよい。電子機器1はカメラ104と表示部105とを備えていてよい。
一例として、取得部3は、表示部105にモニタ領域106を設定し、モニタ領域106に、カメラ104によって撮像された撮像画像を表示させてもよい。モニタ領域106はカメラ104によって撮像される操作者の手を表示するものであるが、操作対象の画面を隠さないようにするため、画面上の左上隅などに表示されてよい。また、このモニタ領域106は設けられていなくともよい。
また、一例として、操作部(カーソル表示部)10は、表示部(表示画面)105における、決定部9が決定したカーソル位置に対応する位置に、カーソル107を表示させてもよい。すなわち、カーソル107は、カメラ104に撮像される範囲内における操作者の手の動きに応じて、上下、左右に移動してよい。
一例として、操作部10は、電子機器1が実行可能なアプリケーションを実行するためのアイコンを、表示部105のアイコン領域108に表示させてもよい。そして、カーソル107が、アイコン領域108内のアイコンに重なった状態で、決定部9がクリックアクションを検出したときに、操作部10は、当該アイコンに対応するアプリケーションを実行してもよい。
また、アプリケーションが実行されているときに、決定部9がカーソル位置を移動させたとき、及び、決定部9がアクションを検出したときに、操作部10は、カーソル位置の移動や、検出されたアクションに応じて、アプリケーションを操作してもよい。
操作部10が表示部105に表示させるカーソル107の形状及び色は特に限定されないが、一例において、操作部10は、決定部9が検出したアクションに応じた表示態様でカーソル107を表示させてもよい。例えば、決定部9が何もアクションを検出していないとき、操作部10は、カーソル107を青色で表示し、決定部9がクリックアクション及びスワイプアクションを検出したとき、操作部10は、カーソル107を緑色で表示し、決定部9がドラッグアンドドロップアクションを検出したとき、操作部10は、カーソル107を赤色で表示するなど、カーソル107の色を変更してもよい。
また、操作部10は、決定部9が検出したアクションに応じて、カーソルの形状を変化させてもよい。図12は、カーソル形状の変化の一例を示す図である。例えば、決定部9が何もアクションを検出していないとき、操作部10は、カーソル107aを表示し、決定部9がクリックアクションを検出したとき、操作部10は、カーソル107bのようなアニメーションを表示し、決定部9がスワイプアクションを検出したとき、操作部10は、カーソル107cを表示するなど、カーソルの形状を変更してもよい。
また、表示部105の一部は、システム領域(特定領域)109であってもよい。システム領域109は、システム操作のためのUI(例えば、ホームボタン、戻るボタン、オプションボタン等)が表示される領域であり、操作部10が表示を変えることができない領域である。
図13は、決定部9が決定したカーソル位置がシステム領域109内であるときの表示部105の一例を示す外観図である。上述したように、決定部9が決定したカーソル位置がシステム領域109内である場合、操作部10は、システム領域109内にカーソルを表示させることができない。この場合、一例として、操作部10は、カーソル位置がシステム領域109外である場合に表示させるカーソル107とは異なる表示態様で、システム領域109外にカーソル107dを表示させてもよい。カーソル107dは、カーソル107と形状が異なっていてもよいし、色が異なっていてもよい。そして、この状態で決定部9がクリックアクションを検出した場合、操作部10は、システム領域109内のカーソル位置でクリックアクションが行われたときの処理を実行してよい。これにより、システム操作のためのUIについても首尾よく操作することができる。
以上説明したように、操作者は電子機器1のカメラ104の撮像範囲内において、手を移動させ及び/又は手によるジェスチャを実施することによって、電子機器1に接触することなく電子機器1をポインティングデバイスと同様に操作することができる。
〔実施形態2〕
<構成例>
以下、実施形態2の構成例について図面を参照して説明する。実施形態2に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
図14は実施形態2に係る電子機器1の構成の一例を示すブロック図である。本実施形態では、操作部10が決定部9を備えている点が実施形態1と異なっている。すなわち、本実施形態では、操作部10は、推測部8が推測したスケルトンデータ73に基づいて、電子機器1が実行するアプリケーションを操作してよい。
なお、決定部9は、必ずしも、カーソル位置を決定する必要はなく、スケルトンデータ73に基づいて、ジェスチャのみを検出してもよい。そして、操作部10は、決定部9は、ジェスチャに基づいてアプリケーションを操作してよい。これにより、カーソル位置が操作に必要ないアプリケーションを操作することが可能となる。
〔実施形態3〕
<構成例>
以下、実施形態3の構成例について図面を参照して説明する。実施形態3に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
図15は両手のジェスチャによる電子機器の操作を説明するための電子機器141の外観図である。以下では、一例として、電子機器141がタブレット端末である場合について説明するが、本実施形態はこれに限定されず、電子機器一般に適用することができる。電子機器141はカメラ144と表示部145とを備えていてよい。また、表示部145には、モニタ領域146及びアイコン領域149が設けられていてよい。また、操作部10は、表示部145に、カーソル147を表示させてもよい。
このとき、決定部9は、操作者の両手によるジェスチャ(アクション)を検出してもよい。例えば、操作者が人差し指と親指をL字型にして、両手で互いの人差し指の先端と親指の先端を組み合わせて長方形を作成した場合に、決定部9は、第1のスペシャルアクションを検出してもよい。決定部9が第1のスペシャルアクションを検出した場合、操作部10は、カーソルの形状を長方形のカーソル147Aに変化させ、カーソル147Aの下に重なって表示されたアイテムのプロパティーを表示部105に表示させてもよい。
また、例えば、操作者が両手の人差し指を真っすぐにして互いの中央部分でクロスさせることにより、バツ印を作成した場合に、決定部9は、第2のスペシャルアクションを検出してもよい。決定部9が第2のスペシャルアクションを検出した場合、操作部10は、カーソルの形状をバツ印のカーソル147Bに変化させ、カーソル147Bの下に重なって表示されたアイテムをごみ箱に移動させてもよい。
また、決定部9は、操作者の左手のジェスチャ、右手のジェスチャ、両手のジェスチャの全てを検出するようにしてもよい。これにより、人の手で作れる全てのジェスチャを用いて電子機器141を操作することができる。なお、領域抽出部8aは、撮像データにおいて検出した握り拳又は掌に基づいて、当該握り拳又は掌に対応する手が含まれる領域を抽出することにより、複数の手が含まれる領域を同時に検出することができる。
以上説明したように、操作者は電子機器141のカメラ104の撮像範囲内において、手を移動させ及び/又は手によるジェスチャを実施することによって電子機器141に接触することなく電子機器141を操作できてよい。
〔実施形態4〕
<構成例>
以下、実施形態4の構成例について図面を参照して説明する。実施形態4に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
図16は実施形態4に係る電子機器1000の構成の一例を示すブロック図である。電子機器1000は、撮像部4及び表示部5を備えておらず、外部の撮像部4及び表示部5に接続している。このように、電子機器は、必ずしも撮像部4及び表示部5を備えていなくともよく、撮像部4及び表示部5の少なくとも一方が外部に存在する構成であってもよい。
各実施形態は、様々な電子機器に適用することができる。図17は、実施形態4における電子機器の幾つかの具体的構成例の外観を示す図である。電子機器1aはノートパソコンであり、カメラ(撮像部4)及びディスプレイ(表示部5)を備えてよい。電子機器1bはスマートグラスであり、カメラ(撮像部4)及びディスプレイ又は網膜投影部(表示部5)を備えてよい。電子機器1000aには、外部のヘッドマウントディスプレイ(表示部5)及びカメラ(撮像部4)が無線又は有線接続されてよい。
〔変形例〕
手の認識において、手を認識する精度を上げるために、カメラに撮像された手と関係ない対象物、例えば人の顔や服など手と異なる対処物であって、比較的映り込みやすい対象物をあらかじめ除外対象として認識アルゴリズムに登録することができる。
また手の認識において、撮像する手の位置について特に言及していなかった。しかしながら、手がカメラに対して近すぎる位置にあると撮像する手がはみ出してしまう。また、手がカメラに対して遠すぎる位置にあると撮像する手が小さくなってしまい、認識する精度が落ちてしまう。したがって、カメラに対して撮像する手の位置範囲を設定することによって、より精度の高い手の認識を行うことができる。
手のジェスチャによる電子機器の操作において、最初に操作者の手を認識するモードになっていてよいと説明した。この操作者の手を認識するモードに電子機器が対応しているかどうかをわかりやすくするため、電子機器の表示部の例えば右下などにアイコンを表示しておくことができる。このアイコンの形状については人の形のようなものを採用してもよいが、これに限定されるものではない。
また手のジェスチャによる電子機器の操作において、実施形態1の例としてはカーソルの移動とクリックという動作を取り上げた。しかしスマートフォンの多くの機種においては、長押しという機能が設定されている場合が多い。そこで長押しに対応するジェスチャを追加することによって、長押し機能に対してもジェスチャで対応することができる。
〔ソフトウェアによる実現例〕
電子機器1、141及び1000の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
ソフトウェアによって実現する場合、電子機器1、141及び1000は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現されてもよい。図18は、このコンピュータのブロック図の一例である。コンピュータ150は、CPU(Central Processing Unit)151と、メモリ152と、を備えてよい。メモリ152には、コンピュータ150を電子機器1、141及び1000として動作させるためのプログラム153が記録されてもよい。CPU151は、プログラム153をメモリ152から読みだして実行することにより、電子機器1、141及び1000の各機能が実現されてもよい。
CPU151は、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floatingpoint number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラを用いてもよい。メモリ152は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はこれらの組み合わせなどを用いてもよい。
コンピュータ150は、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータ150は、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
プログラム153は、コンピュータ150が読み取り可能な、一時的でない有形の記録媒体154に記録し得もよい。記録媒体154としては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いてもよい。コンピュータ150は、記録媒体154からプログラム153を読み取ってもよい。コンピュータ150は、プログラム153は、伝送媒体を介して読み取ってもよい。伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いてもよい。電子機器1、141及び1000の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
上述で説明した構成の電子機器によれば、電子機器に接触することなく操作を行うことができるため、ウイルスの感染の可能性を低減することができる。これにより、持続可能な開発目標(SDGs)の目標3「すべての人に健康と福祉を」を達成することができる。
〔付記事項〕
本明細書に記載の発明の一部は以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部と、
を備える電子機器。
(付記2)
電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作部と、
を備える電子機器。
(付記3)
電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定処理と、
を実行させるための、プログラム。
(付記4)
電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作処理と、
を実行させるための、プログラム。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1、141、1000 電子機器
2 制御部
3 取得部
4 撮像部
5、145 表示部
6 メモリ
7 記憶部
8 推測部
8a 領域抽出部
8b スケルトンデータ推測部
9 決定部
10 操作部
40 握り拳
41 手が含まれる領域
50、60、70、80、90 手
51、61、73、83、93 スケルトン
71、81、91 指先のポイント
72、82、92 指の付け根のポイント
106、146 モニタ領域
107、107a、107b、107c、107d、147、147A、
147B カーソル
108、149 アイコン領域
109 システム領域
150 コンピュータ
151 CPU
152 メモリ
153 プログラム
154 記録媒体

Claims (13)

  1. 電子機器であって、
    操作者の手の撮像データを取得する取得部と、
    前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
    前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部と、
    を備え、
    前記推測部は、前記撮像データにおいて手の一部である掌または握り拳を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する、
    電子機器。
  2. 前記推測部は、前記手の撮像データと対応する前記スケルトンデータとの組を教師データとして機械学習された学習モデルを用いて、前記スケルトンデータを推測する、請求項1に記載の電子機器。
  3. 前記推測部は、右手の前記撮像データと対応する前記スケルトンデータとの組を教師データとして機械学習された右手認識用学習モデルと、左手の前記撮像データと対応する前記スケルトンデータとして機械学習された左手認識用学習モデルと用いて、前記右手認識用学習モデル又は前記左手認識用学習モデルのいずれかからスケルトンデータを取得できたかに応じて、前記操作者の手が右手か左手かを認識する請求項2に記載の電子機器。
  4. 前記撮像データは、単一のカメラによって取得されたRGB画像である、請求項1ないし3のいずれか1項に記載の電子機器。
  5. 前記決定部は、前記スケルトンデータが示す前記手の特定の部位の位置に基づいて、前記カーソル位置を決定する、請求項1ないし4のいずれか1項に記載の電子機器。
  6. 前記スケルトンデータから、前記電子機器を操作するためのアクションを検出する検出部をさらに備える、請求項1ないし5のいずれか1項に記載の電子機器。
  7. 前記検出部は、前記スケルトンデータが示す指の先と当該指の根元との位置関係に基づいて、クリックアクションを検出する、請求項に記載の電子機器。
  8. 前記電子機器の表示画面に、前記決定部が決定したカーソル位置に基づいて、カーソルを表示するカーソル表示部をさらに備える、請求項6又は7に記載の電子機器。
  9. 前記カーソル表示部は、前記検出部が検出した前記アクションに応じた表示態様で、前記カーソルを表示する、請求項8に記載の電子機器。
  10. 前記表示画面は、特定領域を含み、
    前記カーソル表示部は、前記決定部が決定したカーソル位置が前記特定領域内である場合には、当該カーソル位置が前記特定領域外である場合とは異なる表示態様で、前記特定領域外に前記カーソルを表示する、請求項8又は9に記載の電子機器。
  11. 電子機器であって、
    操作者の手の撮像データを取得する取得部と、
    前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
    前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作部と、
    を備え、
    前記推測部は、前記撮像データにおいて手の一部である掌または握り拳を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する、
    電子機器。
  12. 電子機器が備える少なくとも1つのプロセッサに、
    操作者の手の撮像データを取得する取得処理と、
    前記撮像データに手の一部である掌または握り拳を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、スケルトンデータを推測する推測処理と、
    前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定処理と、
    を実行させるための、プログラム。
  13. 電子機器が備える少なくとも1つのプロセッサに、
    操作者の手の撮像データを取得する取得処理と、
    前記撮像データに手の一部である掌または握り拳を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、スケルトンデータを推測する推測処理と、
    前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作処理と、
    を実行させるための、プログラム。
JP2022517908A 2021-08-30 2021-08-30 電子機器及びプログラム Active JP7213396B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/031679 WO2023031988A1 (ja) 2021-08-30 2021-08-30 電子機器及びプログラム

Publications (3)

Publication Number Publication Date
JP7213396B1 true JP7213396B1 (ja) 2023-01-26
JPWO2023031988A1 JPWO2023031988A1 (ja) 2023-03-09
JPWO2023031988A5 JPWO2023031988A5 (ja) 2023-08-08

Family

ID=85035377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517908A Active JP7213396B1 (ja) 2021-08-30 2021-08-30 電子機器及びプログラム

Country Status (7)

Country Link
US (1) US20230061557A1 (ja)
JP (1) JP7213396B1 (ja)
KR (1) KR20230035209A (ja)
CN (1) CN116075801A (ja)
AU (1) AU2021463303A1 (ja)
CA (1) CA3229530A1 (ja)
WO (1) WO2023031988A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324181A (ja) * 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
JP2010181978A (ja) * 2009-02-03 2010-08-19 Seiko Epson Corp 共同作業装置及び共同作業の制御方法
WO2014010670A1 (ja) * 2012-07-13 2014-01-16 Isayama Taro 要素選択装置、要素選択方法、および、プログラム
WO2016174915A1 (ja) * 2015-04-30 2016-11-03 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2017199379A (ja) * 2013-02-19 2017-11-02 ミラマ サービス インク 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
US20180024641A1 (en) * 2016-07-20 2018-01-25 Usens, Inc. Method and system for 3d hand skeleton tracking

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US8881049B2 (en) * 2007-12-14 2014-11-04 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP2011028366A (ja) * 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
US20170017393A1 (en) * 2010-04-23 2017-01-19 Handscape Inc., A Delaware Corporation Method for controlling interactive objects from a touchpad of a computerized device
US9891820B2 (en) * 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9069386B2 (en) * 2010-05-11 2015-06-30 Nippon Systemware Co., Ltd. Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP5656514B2 (ja) * 2010-08-27 2015-01-21 キヤノン株式会社 情報処理装置及び方法
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9030498B2 (en) * 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
JP2013171529A (ja) 2012-02-22 2013-09-02 Shimane Prefecture 操作入力装置、操作判定方法およびプログラム
US9671874B2 (en) * 2012-11-08 2017-06-06 Cuesta Technology Holdings, Llc Systems and methods for extensions to alternative control of touch-based devices
US9383894B2 (en) * 2014-01-08 2016-07-05 Microsoft Technology Licensing, Llc Visual feedback for level of gesture completion
US20170031452A1 (en) * 2014-01-15 2017-02-02 Juice Design Co., Ltd. Manipulation determination apparatus, manipulation determination method, and, program
RU2014108820A (ru) * 2014-03-06 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев
US9990046B2 (en) * 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP2924543B1 (en) * 2014-03-24 2019-12-04 Tata Consultancy Services Limited Action based activity determination system and method
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9804696B2 (en) * 2015-01-02 2017-10-31 Microsoft Technology Licensing, Llc User-input control device toggled motion tracking
WO2016119827A1 (en) * 2015-01-28 2016-08-04 Huawei Technologies Co., Ltd. Hand or finger detection device and a method thereof
US10409443B2 (en) * 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking
US11263409B2 (en) * 2017-11-03 2022-03-01 Board Of Trustees Of Michigan State University System and apparatus for non-intrusive word and sentence level sign language translation
US11573641B2 (en) * 2018-03-13 2023-02-07 Magic Leap, Inc. Gesture recognition system and method of using same
US11009941B2 (en) * 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
US10902250B2 (en) * 2018-12-21 2021-01-26 Microsoft Technology Licensing, Llc Mode-changeable augmented reality interface
US11294472B2 (en) * 2019-01-11 2022-04-05 Microsoft Technology Licensing, Llc Augmented two-stage hand gesture input
US10984575B2 (en) * 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US11182909B2 (en) * 2019-12-10 2021-11-23 Google Llc Scalable real-time hand tracking
US20210279893A1 (en) * 2020-03-09 2021-09-09 Disney Enterprises, Inc. Interactive entertainment system
US11954242B2 (en) * 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
WO2022204657A1 (en) * 2021-03-22 2022-09-29 Apple Inc. Methods for manipulating objects in an environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324181A (ja) * 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
JP2010181978A (ja) * 2009-02-03 2010-08-19 Seiko Epson Corp 共同作業装置及び共同作業の制御方法
WO2014010670A1 (ja) * 2012-07-13 2014-01-16 Isayama Taro 要素選択装置、要素選択方法、および、プログラム
JP2017199379A (ja) * 2013-02-19 2017-11-02 ミラマ サービス インク 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
WO2016174915A1 (ja) * 2015-04-30 2016-11-03 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US20180024641A1 (en) * 2016-07-20 2018-01-25 Usens, Inc. Method and system for 3d hand skeleton tracking

Also Published As

Publication number Publication date
KR20230035209A (ko) 2023-03-13
CA3229530A1 (en) 2023-03-09
JPWO2023031988A1 (ja) 2023-03-09
CN116075801A (zh) 2023-05-05
WO2023031988A1 (ja) 2023-03-09
US20230061557A1 (en) 2023-03-02
AU2021463303A1 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
KR101620777B1 (ko) 증강된 가상 터치패드 및 터치스크린
EP3090331B1 (en) Systems with techniques for user interface control
US8290210B2 (en) Method and system for gesture recognition
US9910498B2 (en) System and method for close-range movement tracking
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP6165485B2 (ja) 携帯端末向けarジェスチャユーザインタフェースシステム
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
CN110622219B (zh) 交互式增强现实
TWI695311B (zh) 一種利用手勢模擬滑鼠操作的方法、裝置及終端
US9836130B2 (en) Operation input device, operation input method, and program
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
JP2004078977A (ja) インターフェイス装置
CN111596757A (zh) 一种基于指尖交互的手势控制方法和装置
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
Hartanto et al. Real time hand gesture movements tracking and recognizing system
Roy et al. Real time hand gesture based user friendly human computer interaction system
JP7213396B1 (ja) 電子機器及びプログラム
JPWO2023031988A5 (ja)
Yamagishi et al. A system for controlling personal computers by hand gestures using a wireless sensor device
KR20110049162A (ko) 휴대용 영상 처리기에서 가상 입출력 장치 및 방법
Ranjith et al. IMPLEMENTING A REAL TIME VIRTUAL MOUSE SYSTEM USING COMPUTER VISION
Dave et al. Project MUDRA: Personalization of Computers using Natural Interface
TW201925989A (zh) 互動系統
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230116

R150 Certificate of patent or registration of utility model

Ref document number: 7213396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150