JP6400110B2 - カーソル制御装置及びカーソル制御方法 - Google Patents
カーソル制御装置及びカーソル制御方法 Download PDFInfo
- Publication number
- JP6400110B2 JP6400110B2 JP2016551393A JP2016551393A JP6400110B2 JP 6400110 B2 JP6400110 B2 JP 6400110B2 JP 2016551393 A JP2016551393 A JP 2016551393A JP 2016551393 A JP2016551393 A JP 2016551393A JP 6400110 B2 JP6400110 B2 JP 6400110B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- operator
- angle
- point
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 13
- 238000001514 detection method Methods 0.000 claims description 47
- 238000000605 extraction Methods 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 8
- 230000000694 effects Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
実施の形態1.
図1はこの発明の実施の形態1に係るカーソル制御装置3を含むシステム全体の構成を示す図である。
図1に示すシステムでは、モニタ1、モーションセンサ(特徴点検出センサ)2及びカーソル制御装置3が設けられている。
モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置(空間座標値)を検出するものであり、モニタ1に表示された画面を操作する操作者を検出することができる場所に設置される。このモーションセンサ2は、予め決められた空間内を撮像してカラー画像を取得するカメラと、上記空間内に存在する物体の深度を検出する深度センサとを有している。また、人のシルエットに対して各特徴点(頭部、肩、手、腰、足等)の位置を示すモデルを保持するデータベースも有している。そして、モーションセンサ2では、カメラにより撮像されたカラー画像と深度センサによる検出結果から上記空間内に存在する物体のシルエットを抽出する。そして、このシルエットをデータベースに保持されたモデルとマッチングさせることで、人を検出し、当該人の特徴点の位置を検出する。
この機能では、上記空間内の所定位置(例えば真ん中)に来た人を操作者と認識して追従する。具体的には、まず、操作者を検出する範囲を上記空間の一部の範囲(例えば真ん中)に限定する。そして、この検出範囲内に入った人を操作者として認識する。その後、検出範囲を上記空間全体に広げ、当該操作者の動きを追従し続ける。以後、他の人が検出範囲内に入ったとしても、操作者が検出範囲内にいる限りは、操作権を譲渡しない。その後、操作者が検出範囲の外に出た場合には、操作権を放棄したものとみなす。そして、再び検出範囲を狭め、新たな操作者の認識を待つ。
この手法では、図6に示すように、腕の長さがL1の場合には、ある角度θxだけ手を動かすと、手の水平方向の移動距離はX1となり、次式(1)よりカーソルの移動量はM1となる。なお、αは係数である。
M1=αX1 (1)
M2=αX2 (2)
したがって、操作者の体格によってカーソルの移動量が変わり、操作負担が変わることになる。
この手法では、図6に示すように、手を動かす角度θxによってカーソルの移動量M3が決まるため、腕の長さがL1であってもL2であってもカーソルの移動量M3は変化せず、操作負担は変わらない。なお、この場合でのカーソルの移動量M3は次式(3)となる。ここで、Dは手を動かす最大角度であり、Pは画面上の最大距離のピクセル数である。
M3=(θx/D)×P (3)
例えば、手を前方に動かす場合、肩を軸にして手を動かす人の他に、肘を軸にして手を動かす人もいる。そのため、手と肩の位置のみを抽出する場合、肘を軸にして手を動かす人については、操作者が意図する角度変化より検出結果が小さくなる場合がある。そこで、特徴点抽出部32が複数の基点の位置を抽出し、変換部34が、角度算出部33により算出された複数組の角度のうち、角度変化の大きい角度を用いるように構成してもよい。
例えば、工場で作業員が作業手袋をはめたままパソコン上の作業手順書を確認する場合、キーボードに触れることができないため、ジェスチャにより操作する方法が考えられる。このような場合にも本発明を適用でき、例えば動作点を指先とし、基点を掌とすることで、同様の効果を得ることができる。
Claims (5)
- 特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御装置において、
前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出部と、
前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出部と、
前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換部とを備えた
ことを特徴とするカーソル制御装置。 - 前記角度算出部により算出された今回の角度が、前の角度に対して閾値内である場合に、当該今回の角度を当該前の角度に置き換えるフィルタ部を備えた
ことを特徴とする請求項1記載のカーソル制御装置。 - 前記特徴点抽出部は、前記基点の位置が抽出できなくなった場合に、当該基点が前記動作点に重なったと判断して当該基点の位置を推定する
ことを特徴とする請求項1記載のカーソル制御装置。 - 前記特徴点抽出部は、基点となる特徴点の位置を複数抽出し、
前記変換部は、前記角度算出部により算出された複数組の角度のうち、角度変化の大きい角度を用いる
ことを特徴とする請求項1記載のカーソル制御装置。 - 特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面上のカーソルの位置を制御するカーソル制御方法において、
操作者検出部が、前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出する操作者検出ステップと、
特徴点抽出部が、前記操作者検出部により検出された操作者の特徴点のうち、動作点及び基点となる特徴点の位置を抽出する特徴点抽出ステップと、
角度算出部が、前記特徴点抽出部により抽出された動作点及び基点の位置を結ぶ線分と、基準軸とのなす水平方向及び垂直方向の角度を算出する角度算出ステップと、
変換部が、前記角度算出部により算出された角度を、前記カーソルの位置に変換する変換ステップとを有する
ことを特徴とするカーソル制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/076128 WO2016051520A1 (ja) | 2014-09-30 | 2014-09-30 | カーソル制御装置及びカーソル制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016051520A1 JPWO2016051520A1 (ja) | 2017-04-27 |
JP6400110B2 true JP6400110B2 (ja) | 2018-10-03 |
Family
ID=55629612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016551393A Active JP6400110B2 (ja) | 2014-09-30 | 2014-09-30 | カーソル制御装置及びカーソル制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6400110B2 (ja) |
WO (1) | WO2016051520A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108309A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
JP4575829B2 (ja) * | 2005-03-30 | 2010-11-04 | 財団法人エヌエイチケイエンジニアリングサービス | 表示画面上位置解析装置及び表示画面上位置解析プログラム |
JP2008065522A (ja) * | 2006-09-06 | 2008-03-21 | Seiko Epson Corp | 情報表示システム、及び、ポインティング制御方法 |
JP2013125985A (ja) * | 2011-12-13 | 2013-06-24 | Sharp Corp | 表示システム |
-
2014
- 2014-09-30 WO PCT/JP2014/076128 patent/WO2016051520A1/ja active Application Filing
- 2014-09-30 JP JP2016551393A patent/JP6400110B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2016051520A1 (ja) | 2016-04-07 |
JPWO2016051520A1 (ja) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI489317B (zh) | 電子裝置的操作方法及系統 | |
CN105223957B (zh) | 一种手势操控无人机的方法和装置 | |
JP5183398B2 (ja) | 入力装置 | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
US20150262002A1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP5175755B2 (ja) | ジェスチャ認識装置、その方法及びそのプログラム | |
US9008442B2 (en) | Information processing apparatus, information processing method, and computer program | |
TWI496094B (zh) | 手勢辨識模組及手勢辨識方法 | |
TWI403922B (zh) | 徒手人機介面操作系統及其方法 | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US10372223B2 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
US20180129875A1 (en) | Gesture identification with natural images | |
JP2014165660A (ja) | バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム | |
JP2017084335A (ja) | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 | |
JP2016224686A5 (ja) | ||
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6400110B2 (ja) | カーソル制御装置及びカーソル制御方法 | |
JP2017041079A (ja) | 動作認識装置 | |
JP6289655B2 (ja) | 画面操作装置及び画面操作方法 | |
KR101360322B1 (ko) | 다양한 손모양 검출 및 추적을 기반으로 한 원격 전자칠판 제어 장치 및 그 방법 | |
CN102411426A (zh) | 电子装置的操作方法 | |
JP2013109538A (ja) | 入力方法及び入力装置 | |
JP6514889B2 (ja) | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6400110 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |