JP2015116308A - ジェスチャ登録装置 - Google Patents
ジェスチャ登録装置 Download PDFInfo
- Publication number
- JP2015116308A JP2015116308A JP2013261423A JP2013261423A JP2015116308A JP 2015116308 A JP2015116308 A JP 2015116308A JP 2013261423 A JP2013261423 A JP 2013261423A JP 2013261423 A JP2013261423 A JP 2013261423A JP 2015116308 A JP2015116308 A JP 2015116308A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- candidate
- pose
- data
- definition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 claims abstract description 62
- 230000033001 locomotion Effects 0.000 claims description 218
- 238000007562 laser obscuration time method Methods 0.000 claims description 17
- 230000007704 transition Effects 0.000 abstract description 26
- 230000009471 action Effects 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000036544 posture Effects 0.000 description 8
- 101100002669 Arabidopsis thaliana ADT1 gene Proteins 0.000 description 7
- 101100002673 Arabidopsis thaliana ADT3 gene Proteins 0.000 description 7
- 101100463170 Schizosaccharomyces pombe (strain 972 / ATCC 24843) pdt1 gene Proteins 0.000 description 7
- 238000005452 bending Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101100002671 Arabidopsis thaliana ADT2 gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】ジェスチャ登録装置101は、各ポーズ時およびポーズ間遷移時におけるジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する特徴解析部22と、人体動作モデルデータベース3と、一部のパラメータの制約条件を満たしつつその他のパラメータを変更し、人体動作モデルデータベースに基づき候補ジェスチャを生成する候補ジェスチャ生成部4と、候補ジェスチャをユーザに提示しユーザの操作を受け付ける入出力部6と、ジェスチャ定義登録部7とを備える。候補ジェスチャを拒否するユーザの操作を受け付けると、候補ジェスチャ生成部4は新たな候補ジェスチャを生成する。また、候補ジェスチャ生成部4は、候補ジェスチャに対するユーザの操作に基づき、前記その他のパラメータの制約条件を決定する。
【選択図】図1
Description
<A−1.構成>
図1は、本発明の実施の形態1によるジェスチャ登録装置の構成の一例を示すブロック図である。図1に示すように、本実施の形態1によるジェスチャ登録装置は、モーション入力部1と、ジェスチャ解析部21と特徴解析部22とを有するモーション解析部2と、人体動作モデルデータベース3と、候補ジェスチャ生成部4と、ジェスチャ提示部5と、入出力部6と、ジェスチャ定義登録部7と、ジェスチャ定義データベース8を備える。
ジェスチャ解析部21は、入力された動画データの全フレームに対して、既存の画像処理技術を用いて人間の特徴的な部位(身体特徴点)を弁別し、その3次元座標を取得する。例えば、人体構造の学習データなどを用いて、入力されたRGB画像や距離画像から身体特徴点を弁別してそれぞれの3次元座標を得る手法など、その方法は問わない。ここで判別する身体特徴点は、図2の身体特徴点312と一致するものである。実施の形態1では、例として図4に示すような頭から足まで16点の身体特徴点FP1〜FP16を弁別し、その3次元座標を取得する。図4は、動画データのとあるフレーム画像に対して身体特徴点を解析した例である。3次元座標の座標系は、図5に示す画像センサC1を中心とした座標系である。なお、弁別する身体特徴点の種類や数はこの例の限りではない。今後、この処理で得られた身体特徴点と3次元座標の時系列データをモーションデータMDと呼ぶ。すなわち、ジェスチャ解析部21は、動画データからモーションデータを取得するモーションデータ取得部として動作する。なお、上記でモーション入力部1は動画データを受け付けたが、モーションデータを受け付けても良い。この場合、ジェスチャ解析部21は、モーション入力部1からモーションデータを取得する。
特徴解析部22は、ジェスチャ解析部21からモーションデータMDとポーズデータPDを取得し、これらに基づきジェスチャを特徴付ける特徴データFDを算出する。特徴データFDの例を図9に示す。図9に示す特徴データFDは、ジェスチャ部位FD1,主な移動方向FD2,重要身体特徴点FD3,重要身体特徴点の配置特徴FD4,ポーズ間遷移時の関節角度FD5,移動速度FD6の6項目を有している。ジェスチャ部位FD1は、ジェスチャに関与する人体の部位を示す。主な移動方向FD2は、ジェスチャにおいてジェスチャ部位が移動する主な方向を示す。重要身体特徴点FD3は、ジェスチャを特徴づける身体特徴点を示し、詳しくは後述する。なお、複数部位のポーズデータが存在する場合には、各部位のポーズが発生するタイミングも特徴データの1項目とすることができる。
次に、候補ジェスチャ生成部4、ジェスチャ提示部5、入出力部6、ジェスチャ定義登録部7、ジェスチャ定義データベース8について説明する。
以下、候補ジェスチャ生成部4による候補ジェスチャの定義データの生成について具体的に説明する。
なお、上述したジェスチャ定義方法は、ユーザに対して候補ジェスチャの可否を選択させる例であったが、他の方法でジェスチャの定義を行っても良い。例えば、候補ジェスチャに対して直接的にユーザがパラメータの範囲を入力しても良い。また、パラメータごとに、変更をしない、あるいはパラメータを考慮しない旨をユーザが入力できるようにし、それを基にジェスチャ定義を生成してもよい。
実施の形態1に係るジェスチャ登録装置101は、ジェスチャ解析部21、特徴解析部22、人体動作モデルデータベース3、候補ジェスチャ生成部4、入出力部6およびジェスチャ定義登録部7を備えている。ジェスチャ解析部21は、ジェスチャのモーションデータを取得するモーションデータ取得部として動作する。また、ジェスチャ解析部21は、モーションデータに基づき、ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成する。特徴解析部22は、ポーズデータに基づき、各ポーズ時およびポーズ間遷移時におけるジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する。人体動作モデルデータベース3は、人体を構成する骨格の可動範囲を定義する。候補ジェスチャ生成部4は、一部のパラメータの制約条件を満たしつつその他のパラメータを変更し候補ジェスチャを生成する。また、入出力部6において候補ジェスチャを拒否するユーザの操作を受け付けると、新たな候補ジェスチャを生成し、候補ジェスチャに対するユーザの操作に基づき、前記その他のパラメータの制約条件を決定する。入出力部6は、候補ジェスチャをユーザに提示し、かつ候補ジェスチャに対するユーザの操作を受け付ける。ジェスチャ定義登録部7は、ジェスチャにおける各パラメータの制約条件を示すジェスチャ定義データをジェスチャ定義データベース8に登録する。以上の構成によれば、ユーザ(ジェスチャ登録者)が1つのモーションデータをジェスチャ登録装置101に入力すると、特徴解析部22で解析したモーションデータの基本的な特徴を残しつつ、他のパラメータを変更した候補ジェスチャがユーザに提示される。そして、候補ジェスチャに対するユーザの反応を踏まえて各パラメータの制約条件が決定されるので、ユーザは各パラメータの制約条件を漏れなく検討することができる。したがって、意図に沿った適切なジェスチャ定義を容易に登録することが出来る。
実施の形態1では、ユーザが1つの動画データを通してモーションデータを入力すると、ジェスチャ登録装置101はそれに対する候補ジェスチャをユーザに提示し、ユーザの反応を基にジェスチャ定義を作成した。実施の形態2では、ジェスチャ登録装置101の別のジェスチャ定義作成方法を説明する。すなわち、ジェスチャ登録装置101は複数の動画データを通して複数のモーションデータを受けると、当該複数のモーションデータが満たすジェスチャの制約条件を算出し、それを基に候補ジェスチャをユーザに提示する。ユーザは、登録したいジェスチャ定義に関し、考え得る複数個のモーションデータをジェスチャ登録装置に例示することで、意図した候補ジェスチャが提示され、簡単にジェスチャ定義を作成することができる。
モーション入力部1は、複数の動画データあるいは複数のモーションデータの入力を受け付け、ジェスチャ解析部21に送信する。本実施の形態では、2種類のモーションデータMD1,MD2が入力されるとして説明を行う。
実施の形態2に係るジェスチャ登録装置101において、ジェスチャ解析部21は、ジェスチャのモーションデータを複数取得するモーションデータ取得部として動作する。また、ジェスチャ解析部21はモーションデータ毎にポーズデータを生成する。また、特徴解析部22は、ポーズデータ毎にパラメータの制約条件を示す特徴データを算出する。そして、候補ジェスチャ生成部4は、全てのポーズデータにおける固定パラメータの制約条件の和を満たしつつ、変動パラメータを変更して候補ジェスチャのデータを生成する。以上の構成によれば、ユーザ(ジェスチャ登録者)が複数のモーションデータをジェスチャ登録装置102に入力すると、特徴解析部22で解析した各モーションデータの基本的な特徴をあわせ持ちながら、一部のパラメータを変更した候補ジェスチャがユーザに提示される。そして、候補ジェスチャに対するユーザの反応を踏まえて各パラメータの制約条件が決定されるので、ユーザは各パラメータの制約条件を漏れなく検討することができる。したがって、意図に沿った適切なジェスチャ定義を容易に登録することが出来る。また、予めユーザが複数のモーションデータを登録することにより、ユーザの意図に沿ったジェスチャ定義を容易に登録することができる。
開発者が複数のジェスチャを登録する場合には、それらが正しく区別されて認識されるように検討したうえで、それぞれのジェスチャ定義を設定することが必要となる。ジェスチャ同士の定義が被っていると、意図しないタイミングでジェスチャが認識されたり、認識されない場合が発生するからである。前者が発生するのは、あるジェスチャの開始ポーズまたは終了ポーズの定義(制約条件)が、他のジェスチャの終了ポーズまたは開始ポーズの定義(制約条件)と重複する場合である。例えば、あるジェスチャの終了ポーズと、他のジェスチャの開始ポーズとで制約条件が重複していれば、あるジェスチャが終了したと同時に他のジェスチャが開始してしまう。また、あるジェスチャの定義が他のジェスチャの定義の範囲に包含されてしまうことで、ジェスチャが認識されない場合が発生する。
図15は、実施の形態3に係るジェスチャ登録装置102の構成を例示するブロック図である。ジェスチャ登録装置102は、実施の形態1,2に係るジェスチャ登録装置101の構成に加えて、整合性判定部9を備える。
図16は、ジェスチャ登録装置102におけるジェスチャ定義登録処理のフローチャートである。以下、図16に沿って候補ジェスチャ生成処理を説明する。但し、ステップS2A以外の工程は図11に示すジェスチャ登録装置101のフローチャートと同様であるため、説明を省略する。
実施の形態3に係るジェスチャ登録装置102は、ジェスチャ登録装置101の構成に加えて整合性判定部9を備える。整合性判定部9は、ジェスチャ定義データベース8に登録されたジェスチャ定義データと、ジェスチャ解析部21(モーションデータ取得部)が取得したモーションデータのジェスチャとが重複するか否かを判断する。また、候補ジェスチャ生成部4は、整合性判定部9が重複しないと判断したモーションデータに対してのみ候補ジェスチャを生成する。これにより、重複するジェスチャ定義が登録され、ジェスチャが意図しないタイミングで認識され、または認識されないという問題を避けることができる。
ユーザが複数のジェスチャを登録する際に、登録済みのジェスチャ定義データと整合性がとれなかった場合、他のジェスチャを登録しなおす必要がある。このとき、他の候補となるジェスチャとしては、登録しようとしていたジェスチャのパラメータを修正する方法も考えられるが、同じ身体部位を用いて全く異なる動きを行うジェスチャや、他の身体部位を用いたジェスチャを登録することも考えられる。本実施の形態では、ジェスチャ同士の整合性がとれなかった場合に、後者のような候補ジェスチャを生成する方法について説明する。
図19は、実施の形態4に係るジェスチャ登録装置103の構成を例示するブロック図である。ジェスチャ登録装置103は、実施の形態3のジェスチャ登録装置102の構成に加えて、ジェスチャルールデータベース10を備える。
図20は、ジェスチャ登録装置103におけるジェスチャ定義登録処理のフローチャートである。以下、図20に沿ってジェスチャ定義登録処理を説明する。但し、ステップS2A,S9,10以外の工程は図11に示すジェスチャ登録装置101のフローチャートと同様であるため、説明を省略する。
実施の形態4に係るジェスチャ登録装置103は、ジェスチャ登録装置102の構成に加えて、ジェスチャ定義データベースに登録済みのジェスチャを代替する代替ジェスチャの生成ルールと、各身体部位を用いたジェスチャの定義とが登録された、ジェスチャルールデータベース10を備える。そして、候補ジェスチャ生成部4は、ジェスチャ解析部21が取得したモーションデータのジェスチャが、登録済みのジェスチャと重複すると整合性判定部9により判断された場合、候補ジェスチャに代えてジェスチャルールデータベースに基づく代替候補ジェスチャを生成する。取得したモーションデータが登録済みのジェスチャ定義と重複する場合には、代替候補ジェスチャを生成してユーザに提示するので、利便性の良いジェスチャ登録装置となる。
Claims (6)
- ジェスチャのモーションデータを取得するモーションデータ取得部と、
前記モーションデータに基づき、前記ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成するジェスチャ解析部と、
前記ポーズデータに基づき、各前記ポーズ時および前記各ポーズ間の遷移時における前記ジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する特徴解析部と、
人体を構成する骨格の可動範囲を定義した人体動作モデルデータベースと、
一部の前記パラメータの前記制約条件を満たしつつその他の前記パラメータを変更し、前記人体動作モデルデータベースに基づき骨格の可動範囲内の候補ジェスチャを生成する候補ジェスチャ生成部と、
前記候補ジェスチャをユーザに提示し、かつ前記候補ジェスチャに対する前記ユーザの操作を受け付ける入出力部と、を備え、
前記候補ジェスチャ生成部は、前記入出力部において前記候補ジェスチャを拒否する前記ユーザの操作を受け付けると新たな前記候補ジェスチャを生成し、かつ、前記候補ジェスチャに対する前記ユーザの操作に基づき、前記その他のパラメータの前記制約条件を決定し、
前記ジェスチャにおける各前記パラメータの前記制約条件を示すジェスチャ定義データをジェスチャ定義データベースに登録するジェスチャ定義登録部をさらに備える、
ジェスチャ登録装置。 - 前記モーションデータ取得部は、前記ジェスチャの前記モーションデータを複数取得し、
前記ジェスチャ解析部は、前記モーションデータ毎に前記ポーズデータを生成し、
前記特徴解析部は、前記ポーズデータ毎に前記パラメータの前記制約条件を示す前記特徴データを算出し、
前記候補ジェスチャ生成部は、全ての前記ポーズデータにおける前記一部のパラメータの前記制約条件の和を満たしつつ、前記その他のパラメータを変更して前記候補ジェスチャを生成する、
請求項1に記載のジェスチャ登録装置。 - 前記候補ジェスチャ生成部は、前記パラメータを固定パラメータと変動パラメータとに分け、前記固定パラメータの前記制約条件を満たしつつ、前記変動パラメータを変更して前記候補ジェスチャを生成し、
各前記ポーズ時における前記固定パラメータは、前記ジェスチャにおいて最も移動距離の長い前記身体特徴点の他の前記身体特徴点に対する配置特徴を含む、
請求項1又は2に記載のジェスチャ登録装置。 - 前記候補ジェスチャ生成部は、前記パラメータを固定パラメータと変動パラメータとに分け、前記固定パラメータの前記制約条件を満たしつつ、前記変動パラメータを変更して前記候補ジェスチャを生成し、
前記各ポーズ間の遷移時における前記固定パラメータは、前記ジェスチャにおいて最も移動距離の長い前記身体特徴点の移動方向を含む、
請求項1から3のいずれかに記載のジェスチャ登録装置。 - 前記ジェスチャ定義データベースに登録された前記ジェスチャ定義データと、前記モーションデータ取得部が取得した前記モーションデータの前記ジェスチャとが重複するか否かを判断する整合性判定部をさらに備え、
前記候補ジェスチャ生成部は、前記整合性判定部が重複しないと判断した前記モーションデータに対してのみ前記候補ジェスチャを生成する、
請求項1から4のいずれかに記載のジェスチャ登録装置。 - 前記ジェスチャ定義データベースに登録済みの前記ジェスチャを代替する代替ジェスチャの生成ルールと、各身体部位を用いた前記ジェスチャの定義とが登録された、ジェスチャルールデータベースをさらに備え、
前記候補ジェスチャ生成部は、前記モーションデータ取得部が取得した前記モーションデータの前記ジェスチャが、登録済みの前記ジェスチャと重複すると前記整合性判定部により判断された場合、前記候補ジェスチャに代えて前記ジェスチャルールデータベースに基づく代替候補ジェスチャを生成する、
請求項5に記載のジェスチャ登録装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261423A JP6091407B2 (ja) | 2013-12-18 | 2013-12-18 | ジェスチャ登録装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261423A JP6091407B2 (ja) | 2013-12-18 | 2013-12-18 | ジェスチャ登録装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015116308A true JP2015116308A (ja) | 2015-06-25 |
JP6091407B2 JP6091407B2 (ja) | 2017-03-08 |
Family
ID=53529598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013261423A Active JP6091407B2 (ja) | 2013-12-18 | 2013-12-18 | ジェスチャ登録装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6091407B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073520A1 (ja) * | 2015-10-26 | 2017-05-04 | 三郎 山内 | 対象認識システム、対象認識方法、プログラム及びコンピュータ記憶媒体 |
JP6293953B1 (ja) * | 2017-04-04 | 2018-03-14 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
JP2018092653A (ja) * | 2018-02-19 | 2018-06-14 | 株式会社ドワンゴ | 情報処理装置、情報処理方法およびプログラム |
WO2019116495A1 (ja) | 2017-12-14 | 2019-06-20 | 富士通株式会社 | 技認識プログラム、技認識方法および技認識システム |
JPWO2019049216A1 (ja) * | 2017-09-05 | 2020-07-30 | 富士通株式会社 | 採点方法、採点プログラムおよび採点装置 |
CN111694429A (zh) * | 2020-06-08 | 2020-09-22 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法、装置、电子设备及可读存储 |
JP2020533662A (ja) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
JP2021099666A (ja) * | 2019-12-23 | 2021-07-01 | 住友ゴム工業株式会社 | 学習モデルの生成方法 |
JP2021524113A (ja) * | 2019-01-18 | 2021-09-09 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 画像処理方法および装置、画像機器、ならびに記憶媒体 |
EP4027308A2 (en) | 2021-01-08 | 2022-07-13 | Fujitsu Limited | Information processing apparatus, output method, and information processing program |
JP7234324B1 (ja) | 2021-09-28 | 2023-03-07 | 三菱電機インフォメーションシステムズ株式会社 | 通知受付装置、通知受付方法及び通知受付プログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10302085A (ja) * | 1997-04-30 | 1998-11-13 | Yamaha Corp | Cgモデルの動作記録システム |
JPH117539A (ja) * | 1997-06-16 | 1999-01-12 | Toshiba Corp | アニメーション作成装置およびアニメーション作成方法 |
JP2005071208A (ja) * | 2003-08-27 | 2005-03-17 | Nippon Telegr & Teleph Corp <Ntt> | 処理情報入力装置、処理情報入力方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 |
JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
JP2005267604A (ja) * | 2004-02-18 | 2005-09-29 | Fuji Xerox Co Ltd | 動作分類支援装置および動作分類装置 |
JP2007272839A (ja) * | 2006-03-31 | 2007-10-18 | Nippon Syst Wear Kk | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
JP2010533006A (ja) * | 2007-03-01 | 2010-10-21 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 仮想世界とコミュニケーションを取るためのシステムおよび方法 |
JP2013218480A (ja) * | 2012-04-06 | 2013-10-24 | Kddi Corp | 動き生成装置及び方法 |
WO2014128773A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法 |
-
2013
- 2013-12-18 JP JP2013261423A patent/JP6091407B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10302085A (ja) * | 1997-04-30 | 1998-11-13 | Yamaha Corp | Cgモデルの動作記録システム |
JPH117539A (ja) * | 1997-06-16 | 1999-01-12 | Toshiba Corp | アニメーション作成装置およびアニメーション作成方法 |
JP2005071208A (ja) * | 2003-08-27 | 2005-03-17 | Nippon Telegr & Teleph Corp <Ntt> | 処理情報入力装置、処理情報入力方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 |
JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
JP2005267604A (ja) * | 2004-02-18 | 2005-09-29 | Fuji Xerox Co Ltd | 動作分類支援装置および動作分類装置 |
JP2007272839A (ja) * | 2006-03-31 | 2007-10-18 | Nippon Syst Wear Kk | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
JP2010533006A (ja) * | 2007-03-01 | 2010-10-21 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 仮想世界とコミュニケーションを取るためのシステムおよび方法 |
JP2013218480A (ja) * | 2012-04-06 | 2013-10-24 | Kddi Corp | 動き生成装置及び方法 |
WO2014128773A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073520A1 (ja) * | 2015-10-26 | 2017-05-04 | 三郎 山内 | 対象認識システム、対象認識方法、プログラム及びコンピュータ記憶媒体 |
JP6293953B1 (ja) * | 2017-04-04 | 2018-03-14 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
JP2018180647A (ja) * | 2017-04-04 | 2018-11-15 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
JPWO2019049216A1 (ja) * | 2017-09-05 | 2020-07-30 | 富士通株式会社 | 採点方法、採点プログラムおよび採点装置 |
JP7067561B2 (ja) | 2017-09-05 | 2022-05-16 | 富士通株式会社 | 採点方法、採点プログラムおよび採点装置 |
JP2020533662A (ja) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
JP7280865B2 (ja) | 2017-09-11 | 2023-05-24 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
US11557150B2 (en) | 2017-09-11 | 2023-01-17 | Conti Temic Microelectronic Gmbh | Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera |
WO2019116495A1 (ja) | 2017-12-14 | 2019-06-20 | 富士通株式会社 | 技認識プログラム、技認識方法および技認識システム |
US11776134B2 (en) | 2017-12-14 | 2023-10-03 | Fujitsu Limited | Non-transitory computer readable recording medium, element recognition method, and element recognition system |
JP2018092653A (ja) * | 2018-02-19 | 2018-06-14 | 株式会社ドワンゴ | 情報処理装置、情報処理方法およびプログラム |
JP7061694B2 (ja) | 2019-01-18 | 2022-04-28 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | 画像処理方法および装置、画像機器、ならびに記憶媒体 |
JP2021524113A (ja) * | 2019-01-18 | 2021-09-09 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 画像処理方法および装置、画像機器、ならびに記憶媒体 |
US11468612B2 (en) | 2019-01-18 | 2022-10-11 | Beijing Sensetime Technology Development Co., Ltd. | Controlling display of a model based on captured images and determined information |
US11741629B2 (en) | 2019-01-18 | 2023-08-29 | Beijing Sensetime Technology Development Co., Ltd. | Controlling display of model derived from captured image |
US11538207B2 (en) | 2019-01-18 | 2022-12-27 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, image device, and storage medium |
JP2021525431A (ja) * | 2019-01-18 | 2021-09-24 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 画像処理方法及び装置、画像デバイス並びに記憶媒体 |
JP2021099666A (ja) * | 2019-12-23 | 2021-07-01 | 住友ゴム工業株式会社 | 学習モデルの生成方法 |
JP7482471B2 (ja) | 2019-12-23 | 2024-05-14 | 住友ゴム工業株式会社 | 学習モデルの生成方法 |
JP2021103564A (ja) * | 2020-06-08 | 2021-07-15 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体 |
JP7273880B2 (ja) | 2020-06-08 | 2023-05-15 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体 |
US11532127B2 (en) | 2020-06-08 | 2022-12-20 | Beijing Baidu Netcom Science Technology Co., Ltd. | Virtual object driving method, apparatus, electronic device, and readable storage medium |
CN111694429A (zh) * | 2020-06-08 | 2020-09-22 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法、装置、电子设备及可读存储 |
EP4027308A2 (en) | 2021-01-08 | 2022-07-13 | Fujitsu Limited | Information processing apparatus, output method, and information processing program |
JP2023048165A (ja) * | 2021-09-28 | 2023-04-07 | 三菱電機インフォメーションシステムズ株式会社 | 通知受付装置、通知受付方法及び通知受付プログラム |
JP7234324B1 (ja) | 2021-09-28 | 2023-03-07 | 三菱電機インフォメーションシステムズ株式会社 | 通知受付装置、通知受付方法及び通知受付プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6091407B2 (ja) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091407B2 (ja) | ジェスチャ登録装置 | |
JP6642968B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
KR101761050B1 (ko) | 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법 | |
CN103718175B (zh) | 检测对象姿势的设备、方法和介质 | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
EP3136203B1 (en) | System and method of real-time interactive operation of user interface | |
Wen et al. | A robust method of detecting hand gestures using depth sensors | |
JP2018116599A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN102906670A (zh) | 信息处理设备和方法以及程序 | |
CN105589553A (zh) | 一种智能设备的手势控制方法和系统 | |
KR101760159B1 (ko) | 제스처 입력을 검출하기 위한 방법 및 장치 | |
CN104850219A (zh) | 估计附着物体的人体姿势的设备和方法 | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
CN107193384B (zh) | 基于Kinect彩色图像在鼠标和键盘模拟行为的切换方法 | |
KR20160141023A (ko) | 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치 및 방법 | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
JP2016157283A (ja) | 画像認識装置 | |
JP6289655B2 (ja) | 画面操作装置及び画面操作方法 | |
Yokota et al. | Intuitive Arm-Pointing based Home-Appliance Control from Multiple Camera Views | |
Rodriguez et al. | Robust vision-based hand tracking using single camera for ubiquitous 3D gesture interaction | |
KR101370830B1 (ko) | 사용자 인터페이스 구현 시스템 및 구현 방법 | |
JP2017211739A (ja) | ユーザインターフェース装置およびユーザインターフェースプログラム | |
Tran et al. | A hand gesture recognition library for a 3D viewer supported by kinect's depth sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6091407 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |