JP7406817B2 - 客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 - Google Patents
客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Download PDFInfo
- Publication number
- JP7406817B2 JP7406817B2 JP2021122615A JP2021122615A JP7406817B2 JP 7406817 B2 JP7406817 B2 JP 7406817B2 JP 2021122615 A JP2021122615 A JP 2021122615A JP 2021122615 A JP2021122615 A JP 2021122615A JP 7406817 B2 JP7406817 B2 JP 7406817B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- vector
- motion
- control means
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 239000013598 vector Substances 0.000 claims description 385
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000007619 statistical method Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000025721 COVID-19 Diseases 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
- G05B19/0426—Programming the control sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35444—Gesture interface, controlled machine observes operator, executes commands
Description
以下では、本発明の具現のために重要な機能を遂行する客体制御支援システム100の内部構成および各構成要素の機能について詳察することにする。
以下では、前記で詳察したモーションベクターを決定する過程に対して詳察することにする。
以下では、本発明の一実施例に係る客体制御支援システム100が含まれたデバイスを利用する使用者に、本発明に係る客体制御が支援される状況を詳察することにする。本発明の一実施例に係る制御手段は使用者の手先(例えば、人差し指の先)であり得る。
以下では、本発明の一実施例に係る客体制御支援システム100が含まれたデバイスを利用する使用者に、本発明に係る客体制御が支援される他の状況を詳察することにする。本発明の一実施例に係る制御手段は使用者の手先(例えば、人差し指の先)であり得る。
本発明の一実施例に係る制御手段が制御対象領域と近接したり遠ざかる過程で、トリガーイベントの発生の有無または制御手段のモーション座標と制御対象領域の間の距離によって、それぞれの時点別に指示ベクターが決定(すなわち、複数の指示ベクターが決定)され得ることになる。以下では、このような場合に仮想の基準地点および制御位置が決定される具体的な状況を詳察することにする。
110:指示ベクター決定部
120:制御位置管理部
130:通信部
140:制御部
Claims (8)
- 客体制御を支援するための方法であって、
指示ベクターを決定する段階、および
制御手段の位置が変動すると、前記位置が変動する前の前記指示ベクターの延長線に基づいて特定される仮想の基準地点と前記位置が変動した後の前記制御手段のモーション座標を連結するベクターを参照して制御対象領域での制御位置を決定する段階を含み、
前記指示ベクターを決定する段階で前記指示ベクターは、
(i)前記制御手段のモーション座標のうち前記制御手段の移動に関するトリガーイベントが発生する時点での座標をトリガー座標として参照して第1座標を決定し、前記トリガー座標と前記モーション座標間の距離、前記トリガー座標と前記モーション座標によって特定される直線区間、前記第1座標と前記モーション座標間の距離および前記第1座標と前記モーション座標によって特定される直線区間のうち少なくとも一つを参照して第2座標を決定して、前記第1座標を終点とし前記第2座標を始点とするモーションベクター、
(ii)前記トリガー座標または前記第1座標を通り、前記制御対象領域に垂直な垂直ベクター、および
(iii)前記制御手段のモーション座標および使用者の身体座標に基づいて特定される指称ベクター
のうちいずれか一つに決定され、
前記制御手段は手、手先またはポインタであり、
前記トリガーイベントは前記制御手段の移動方向の転換、前記制御手段の移動停止を含み、
前記制御対象領域は少なくとも一つの客体がディスプレイされる領域であり、
前記仮想の基準地点は、前記制御手段の位置が変動する前の前記指示ベクターが向かう方向と反対方向の延長線上に存在する地点のうち、前記指示ベクターの始点または終点から所定の距離だけ離れた地点に決定される、方法。 - 前記指示ベクターを決定する段階で、前記制御手段のモーション座標と前記制御対象領域の間の距離が第2距離未満であり第3距離以上であるとき、前記モーションベクターを前記指示ベクターとして決定する、請求項1に記載の方法。
- 前記指示ベクターを決定する段階で、前記制御手段のモーション座標と制御対象領域の間の距離が前記第3距離未満であるか前記第1座標および前記第2座標に基づいて決定されるベクターが有効でない場合に、前記垂直ベクターを前記指示ベクターとして決定する、請求項2に記載の方法。
- 前記指示ベクターを決定する段階で、前記制御手段のモーション座標および前記制御対象領域との距離が前記第2距離以上である場合に、前記指称ベクターを前記指示ベクターとして決定する、請求項2に記載の方法。
- 前記指示ベクターを決定する段階で、前記制御手段の移動に関するトリガーイベントの発生の有無を特定するための方向は前記指示ベクターの類型により決定される、請求項1に記載の方法。
- 前記指示ベクターを決定する段階で、前記制御手段の移動に関するトリガーイベントの発生の有無を特定するための方向は前記制御手段のモーション座標と制御対象領域の間の距離を参照して決定される、請求項1に記載の方法。
- 請求項1に記載された方法を遂行するためのコンピュータプログラムを記録する、非一過性のコンピュータ読み取り可能記録媒体。
- 客体制御を支援するためのシステムであって、
指示ベクターを決定する指示ベクター決定部、および
制御手段の位置が変動すると、前記位置が変動する前の前記指示ベクターの延長線に基づいて特定される仮想の基準地点と前記位置が変動した後の前記制御手段のモーション座標を連結するベクターを参照して制御対象領域での制御位置を決定する制御位置管理部を含み、
前記指示ベクターを決定する段階で前記指示ベクターは、
(i)前記制御手段のモーション座標のうち前記制御手段の移動に関するトリガーイベントが発生する時点での座標をトリガー座標として参照して第1座標を決定し、前記トリガー座標と前記モーション座標間の距離、前記トリガー座標と前記モーション座標によって特定される直線区間、前記第1座標と前記モーション座標間の距離および前記第1座標と前記モーション座標によって特定される直線区間のうち少なくとも一つを参照して第2座標を決定して、前記第1座標を終点とし前記第2座標を始点とするモーションベクター、
(ii)前記トリガー座標または前記第1座標を通り、前記制御対象領域に垂直な垂直ベクター、および
(iii)前記制御手段のモーション座標および使用者の身体座標に基づいて特定される指称ベクター
のうちいずれか一つに決定され、
前記制御手段は手、手先またはポインタであり、
前記トリガーイベントは前記制御手段の移動方向の転換、前記制御手段の移動停止を含み、
前記制御対象領域は少なくとも一つの客体がディスプレイされる領域であり、
前記仮想の基準地点は、前記制御手段の位置が変動する前の前記指示ベクターが向かう方向と反対方向の延長線上に存在する地点のうち、前記指示ベクターの始点または終点から所定の距離だけ離れた地点に決定される、システム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0102814 | 2020-08-14 | ||
KR20200102814 | 2020-08-14 | ||
KR20200121843 | 2020-09-21 | ||
KR10-2020-0121843 | 2020-09-21 | ||
KR1020210005570A KR102448108B1 (ko) | 2020-08-14 | 2021-01-14 | 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR10-2021-0005570 | 2021-01-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022032985A JP2022032985A (ja) | 2022-02-25 |
JP7406817B2 true JP7406817B2 (ja) | 2023-12-28 |
Family
ID=77226762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021122615A Active JP7406817B2 (ja) | 2020-08-14 | 2021-07-27 | 客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220050432A1 (ja) |
EP (1) | EP4020136A1 (ja) |
JP (1) | JP7406817B2 (ja) |
CN (1) | CN114077309A (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157398A1 (en) | 2016-12-05 | 2018-06-07 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020126090A1 (en) * | 2001-01-18 | 2002-09-12 | International Business Machines Corporation | Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera |
US9501152B2 (en) * | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9501138B2 (en) * | 2014-05-05 | 2016-11-22 | Aquifi, Inc. | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface |
US10088971B2 (en) * | 2014-12-10 | 2018-10-02 | Microsoft Technology Licensing, Llc | Natural user interface camera calibration |
EP3309708A4 (en) * | 2015-06-10 | 2019-03-06 | Vtouch Co., Ltd. | METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM |
CN109074819B (zh) * | 2016-04-29 | 2023-05-16 | 维塔驰有限公司 | 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备 |
US10429949B2 (en) * | 2017-06-30 | 2019-10-01 | Htc Corporation | User interaction apparatus and method |
KR101980725B1 (ko) * | 2017-07-11 | 2019-08-28 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR102455382B1 (ko) * | 2018-03-02 | 2022-10-18 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
CN110874179B (zh) * | 2018-09-03 | 2021-09-14 | 京东方科技集团股份有限公司 | 指尖检测方法、指尖检测装置、指尖检测设备及介质 |
-
2021
- 2021-07-12 US US17/372,706 patent/US20220050432A1/en active Pending
- 2021-07-27 JP JP2021122615A patent/JP7406817B2/ja active Active
- 2021-08-06 EP EP21190151.7A patent/EP4020136A1/en active Pending
- 2021-08-12 CN CN202110924201.0A patent/CN114077309A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157398A1 (en) | 2016-12-05 | 2018-06-07 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
Also Published As
Publication number | Publication date |
---|---|
CN114077309A (zh) | 2022-02-22 |
EP4020136A1 (en) | 2022-06-29 |
JP2022032985A (ja) | 2022-02-25 |
US20220050432A1 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102517425B1 (ko) | 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법 | |
EP3090331B1 (en) | Systems with techniques for user interface control | |
EP2929424B1 (en) | Multi-touch interactions on eyewear | |
US10572012B2 (en) | Electronic device for performing gestures and methods for determining orientation thereof | |
US9176652B1 (en) | Method and system for dynamically defining scroll-wheel functionality on a touchpad | |
US20110148755A1 (en) | User interface apparatus and user interfacing method based on wearable computing environment | |
US20140043229A1 (en) | Input device, input method, and computer program | |
US10372223B2 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
WO2023173668A1 (zh) | 一种虚拟场景中的输入识别方法、设备及存储介质 | |
JP2023515525A (ja) | ウェアラブルシステムのための手のジェスチャ入力 | |
KR20200005243A (ko) | Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템 | |
JP7406817B2 (ja) | 客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 | |
JP7142387B2 (ja) | 客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 | |
KR102448108B1 (ko) | 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
KR101980725B1 (ko) | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
US11755124B1 (en) | System for improving user input recognition on touch surfaces | |
US10996763B2 (en) | System for and method of managing gestures in virtual reality | |
KR102636996B1 (ko) | 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템 | |
JP2023525196A (ja) | 滑りの影響を受けない視線追跡ユーザインターフェイス | |
KR102633495B1 (ko) | 손목과 트리거 제스처의 단계적 인식을 통한 앱 라이브러리 동작 방법 및 앱 라이브러리가 동작하는 머리 착용형 디스플레이 장치 | |
KR102539045B1 (ko) | 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법 | |
KR101549031B1 (ko) | 포인팅 기능을 제공하는 장치, 방법 및 기록매체 | |
US20220415094A1 (en) | Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium | |
KR102198867B1 (ko) | 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치 | |
Nagy et al. | Evaluation of AI-Supported Input Methods in Augmented Reality Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7406817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |