JP7062833B2 - 客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 - Google Patents

客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Download PDF

Info

Publication number
JP7062833B2
JP7062833B2 JP2021506605A JP2021506605A JP7062833B2 JP 7062833 B2 JP7062833 B2 JP 7062833B2 JP 2021506605 A JP2021506605 A JP 2021506605A JP 2021506605 A JP2021506605 A JP 2021506605A JP 7062833 B2 JP7062833 B2 JP 7062833B2
Authority
JP
Japan
Prior art keywords
motion
coordinate system
space coordinate
trace
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506605A
Other languages
English (en)
Other versions
JP2021518965A (ja
Inventor
ジョン キム ソク
ハン ジュン ジク
Original Assignee
ブイタッチ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブイタッチ・カンパニー・リミテッド filed Critical ブイタッチ・カンパニー・リミテッド
Publication of JP2021518965A publication Critical patent/JP2021518965A/ja
Application granted granted Critical
Publication of JP7062833B2 publication Critical patent/JP7062833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36504Adapt program to real coordinates, shape, dimension of tool, offset path

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

本発明は客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体に関する。
最近、拡張現実(AR:Augmented Reality)や仮想現実(VR:Virtual Reality)に関する関心が高まり関連技術分野の研究開発が活発に進行されるにつれて、現実空間や仮想現実空間で使用者の視線とその使用者のモーションに基づいてデバイス、仮想客体などを制御することを支援する技術が紹介されている。
図1は、使用者の視線およびその使用者のジェスチャーを利用して客体を制御する従来技術を例示的に示した図面である。
図1を参照すると、従来技術の一例にしたがって、使用者の視線10とその使用者の手先20が一致する延長線30をTV50と一致40させた後、使用者の手先20を右側60に移動させると、その右側に移動する手先20を認識して該当TV50のチャネルが次のチャネルに変更されるようにしたり、使用者の手先20を使用者側(すなわち、後進(back))70に移動させると、その使用者側に移動する手先20を認識して該当TV50の音量が減少するようにすることができる。
しかし、前記のような従来技術をはじめとしてこれまで紹介された技術によると、使用者の手先20などのような身体部位を通じて客体を制御しようとする使用者の意図を判断するにおいて、使用者の状況、特性(例えば、習慣、身体)等を全く考慮せず(例えば、使用者が客体に向かう方向、使用者が座っているかあるいは立っているかの可否、使用者の体と手がなす角度、主使用関節などに対して考慮せず)、初期に既設定された空間座標系に基づいて使用者のジェスチャーおよび意図を認識するため、使用者の身体的な特徴や使用者とカメラとの間の位置関係などの多様な要因により使用者のモーション(すなわち、動作)が使用者の意図と異なって誤認識される問題が発生する。
また、従来技術によると、使用者が行うモーションの方向がリアルタイムに変化する場合にも、既設定された空間座標系を基準として使用者のモーションを認識したり、既設定された空間座標系をその都度少しずつ補正しながら使用者のモーションを認識するしかなかったため、このような従来技術では使用者が行うモーションの類型や使用者とカメラとの間の位置関係が多様な方式で迅速に変わる実際の使用環境で使用者のモーションを正確に認識することが難しいという限界が存在する。
そこで、本発明者は、使用者が行うモーションの支配的な成分を示すことができるモーション基準空間座標系を動的に設定し、そのモーション基準空間座標系を基準として特定されるモーション跡またはその属性を分析することによって、使用者が行うモーションの意図を正確かつ迅速に認識できる技術を提案するところである。
本発明は前述した従来技術の問題点をすべて解決することのをその目的とする。
また、本発明は使用者が行うモーションの支配的な成分を示すことができるモーション基準空間座標系を動的に設定し、そのモーション基準空間座標系を基準として特定されるモーション跡またはその属性を分析することによって、使用者が行うモーションの意図を正確かつ迅速に認識することをさらに他の目的とする。
また、本発明は3次元の実世界空間で使用者が行うモーションを3次元より低い次元のモーション基準空間座標系を基準として認識することによって(すなわち、モーション認識に必要な次元を縮小させることによって)、使用者が行うモーションの意図をより効率的に認識することをさらに他の目的とする。
前記目的を達成するための本発明の代表的な構成は次の通りである。
本発明の一態様によると、客体の制御を支援するための方法であって、使用者が行うモーション跡を参照して前記モーションを支配的に示すことができる支配成分を決定し、前記支配成分を参照してモーション基準空間座標系を動的に設定する段階、および前記モーション基準空間座標系を基準として特定される前記跡および前記跡の属性のうち少なくとも一つを参照して前記モーションの意図を認識する段階を含む方法が提供される。
本発明の他の態様によると、客体の制御を支援するためのシステムであって、使用者が行うモーション跡を参照して前記モーションを支配的に示すことができる支配成分を決定し、前記支配成分を参照してモーション基準空間座標系を動的に設定する空間座標系管理部、および前記モーション基準空間座標系を基準として特定される前記跡および前記跡の属性のうち少なくとも一つを参照して前記モーションの意図を認識するモーション認識部を含むシステムが提供される。
この他にも、本発明を具現するための他の方法、他のシステムおよび前記方法を実行するためのコンピュータプログラムを記録する非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。
本発明によると、使用者が行うモーションの支配的な成分を示すことができるモーション基準空間座標系を動的に設定し、そのモーション基準空間座標系を基準として特定されるモーション跡またはその属性を分析することができるため、実際の使用環境で使用者が行うモーションの意図を正確かつ迅速に認識することができる効果が達成される。
本発明によると、3次元の実世界空間で使用者が行うモーションを3次元より低い次元のモーション基準空間座標系で認識することができるため(すなわち、モーション認識に必要な次元を縮小させることができるため)、使用者が行うモーションの意図をより効率的に認識することができる。
使用者の視線およびその使用者のジェスチャーを利用して客体を制御する従来技術を例示的に示した図面である。 本発明の一実施例により客体の制御を支援するための全体システムの概略的な構成を示す図面である。 本発明の一実施例に係る客体制御支援システムの内部構成を詳細に示す図面である。 本発明の一実施例によりモーション基準空間座標系が1次元に設定される場合を例示的に示す図面である。 本発明の一実施例により1次元に設定されるモーション基準空間座標系を基準として特定されるモーション跡またはその変化を参照してモーションの意図を認識する構成を例示的に示す図面である。 本発明の一実施例によりモーション基準空間座標系が2次元に設定される場合を例示的に示す図面である。 本発明の一実施例により2次元に設定されるモーション基準空間座標系を基準として特定されるモーション跡またはその変化を参照してモーションの意図を認識する構成を例示的に示す図面である。
100:通信網
200:客体制御支援システム
210:空間座標系管理部
220:モーション認識部
230:通信部
240:制御部
300:客体
後述する本発明についての詳細な説明は、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。このような実施例は当業者が本発明を十分に実施できるように詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、本明細書に記載されている特定の形状、構造および特性は本発明の精神と範囲を逸脱することなく一実施例から他の実施例に変更されて具現され得る。また、それぞれの実施例内の個別構成要素の位置または配置も本発明の精神と範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味で行われるものではなく、本発明の範囲は特許請求の範囲の請求項が請求する範囲およびそれと均等なすべての範囲を包括するものと理解されるべきである。図面で類似する参照符号は多様な側面にわたって同一または類似する構成要素を示す。
以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の多様な好ましい実施例に関して添付された図面を参照して詳細に説明する。
全体システムの構成
図2は、本発明の一実施例により客体の制御を支援するための全体システムの構成を例示的に示す図面である。
図2に図示された通り、本発明の一実施例に係る全体システムは通信網100、客体制御支援システム200および客体300を含んで構成され得る。
まず、本発明の一実施例に係る通信網100は有線通信や無線通信のような通信の様態にかかわらず構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)等の多様な通信網で構成され得る。好ましくは、本明細書で言う通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100は、これに限定されず、公知の有無線データ通信網、公知の電話網または公知の有無線テレビ通信網をその少なくとも一部において含んでもよい。
例えば、通信網100は無線データ通信網であって、無線周波数(RF;Radio Frequency)通信、Wi-Fi(WiFi)通信、セルラー(LTEなど)通信、ブルートゥース通信(さらに具体的には、低電力ブルートゥース(BLE;Bluetooth Low Energy))、赤外線通信、超音波通信などのような従来の通信方法を少なくともその一部分において具現するものであり得る。
次に、本発明の一実施例に係る客体制御支援システム200は、メモリ手段を具備しマイクロ・プロセッサを搭載して演算能力を備えたデジタルデバイスであり得る。このような客体制御支援システム200はサーバーシステムであり得る。
本発明の一実施例によると、客体制御支援システム200は、使用者が行うモーション跡を参照してモーションを支配的に(dominantly)示すことができる支配成分を決定し、前記決定される支配成分を参照してモーション基準空間座標系を動的に設定し、モーション基準空間座標系を基準として特定されるモーション跡およびモーション跡の属性のうち少なくとも一つを参照してモーションの意図を認識する機能を遂行することができる。
本発明で言うモーションは、使用者から行われるあらゆる動きを意味するものであって、該当モーションを認識または測定するために設定される基準時間または基準距離ごとに獲得されるデータ(位置、角度、方向など)に基づいて特定される複数の単位モーションを含む概念であるか、その複数の単位モーションそれぞれを指し示す概念であり得る。例えば、本発明の一実施例に係る使用者のモーションは、1/10秒ごとに測定されるデータに基づいて特定されるか、1cm以上の位置変化が発生するたびに特定され得る。
また、本発明の一実施例によると、使用者が行うモーション跡は、該当モーションの基準となる特徴点(例えば、使用者の指先部分、使用者が所持するポインタなど)を撮影した映像を構成する複数のフレーム(frame)に基づいて特定され得る。具体的には、本発明の一実施例によると、使用者が行うモーション跡は、モーションの基準となる特徴点の3次元空間座標値を空間座標系上に時間に沿って累積させることによって獲得され得る。
一方、本発明の一実施例によると、モーション跡は加速度センサ、ジャイロセンサなどの他のセンシング手段による測定データを時間に沿って累積させることによって特定されてもよい。
本発明に係る客体制御支援システム200の構成と機能については以下で詳述する。一方、客体制御支援システム200について前記のように説明したが、このような説明は例示的なものであり、客体制御支援システム200に要求される機能や構成要素の少なくとも一部が、必要に応じて制御の対象となる客体300または外部システム(図示されず)内で実現されたり、客体300または外部システム(図示されず)内に含まれてもよいことは当業者に自明である。
次に、本発明の一実施例によると、客体300は使用者によって行われるモーションを通じて制御され得る対象としての機能を遂行することができる。すなわち、本発明の一実施例により客体300は、客体制御支援システム200、他の客体300または外部システム(図示されず)から使用者のモーションによる制御操作を受信し、前記受信される制御操作にしたがって自身の動作または機能が制御されるようにすることができる。本発明の一実施例により客体300は、実世界に存在する実物客体であり得、仮想現実に存在したり実世界に対して拡張(augmented)、混合(mixed)または融合(merged)され得る仮想客体であり得る。
具体的には、本発明の一実施例に係る客体300は、客体制御支援システム200、他の客体300または外部システム(図示されず)に接続した後に通信できる機能を含むデバイスであり得、メモリ手段を具備しマイクロ・プロセッサを搭載して演算能力を備えたデバイスであればいくらでも本発明に係る客体300として採択され得る。具体的には、本発明の一実施例によると、客体300はスマートガラス、スマートウォッチ、スマートバンド、スマートリング、スマートネックレスなどのようなウェアラブルデバイスであるか、スマートフォン、スマートパッド、デスクトップコンピュータ、ノートブックコンピュータ、ワークステーション、PDA、ウェブパッド、移動電話機などのような多少伝統的なデバイスであり得る。また、本発明の一実施例により客体300はTV、スピーカー、電灯、エアコン、加湿器、タンス、窓、ブラインドなどのようなIoT(Internet of Things)デバイスでもよい。
また、本発明の一実施例に係る客体300は、客体制御支援システム200、他の客体300または外部システム(図示されず)と通信できる機能が備えられていないか、メモリ手段またはマイクロ・プロセッサが備えられていないまま、実世界で所定の物理的な位置を有する一般的な事物でもよい。例えば、温度計、写真、絵、人形、鏡のような一般的な事物が本発明の一実施例に係る客体300として採択され得る。
一方、本発明の一実施例によりデバイスである客体300には、本発明に係る機能を遂行するためのアプリケーションプログラムがさらに含まれていてもよい。このようなアプリケーションは該当デバイス内でプログラムモジュールの形態で存在することができる。このようなプログラムモジュールの性格は、客体制御支援システム200の空間座標系管理部210およびモーション認識部220と全般的に類似し得る。ここで、アプリケーションはその少なくとも一部が必要に応じてそれと実質的に同一または均等な機能を遂行できるハードウェア装置やファームウェア装置で置換されてもよい。
客体制御支援システムの構成
以下では、本発明の具現のために重要な機能を遂行する客体制御支援システム200の内部構成および各構成要素の機能について詳察する。
図3は、本発明の一実施例に係る客体制御支援システム200の内部構成を詳細に示す図面である。
図3に図示された通り、客体制御支援システム200は、空間座標系管理部210およびモーション認識部220、通信部230および制御部240を含んで構成され得る。本発明の一実施例によると、空間座標系管理部210およびモーション認識部220、通信部230および制御部240は、そのうち少なくとも一部が外部のシステムと通信するプログラムモジュールであり得る。このようなプログラムモジュールは運営システム、アプリケーションモジュールまたはその他のプログラムモジュールの形態で客体制御支援システム200に含まれ得、物理的には多様な公知の記憶装置に保存され得る。また、このようなプログラムモジュールは客体制御支援システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは本発明により後述する特定の業務を遂行したり、特定の抽象データの類型を実行するルーチン、サブルーチン、プログラム、客体、コンポーネント、データ構造などを包括するが、これに制限されはしない。
まず、本発明の一実施例によると、空間座標系管理部210は、使用者が行うモーション跡を参照して該当モーションを支配的に示すことができる支配成分を決定することができる。
具体的には、本発明の一実施例に係る空間座標系管理部210は、モーション跡から支配成分の方向および大きさを決定することができ、前記決定される支配成分の方向および大きさに基づいて後述するモーション基準空間座標系の次元数および基準座標軸を決定することができる。より具体的には、本発明の一実施例によると、前記次元数は臨界水準以上の大きさを有する支配成分の数に基づいて決定され得、前記基準座標軸は臨界水準以上の大きさを有する支配成分の方向に基づいて決定され得る。
例えば、本発明の一実施例に係る空間座標系管理部210は、特異値分解(Singular Value Decomposition)、固有値分解(Eigen Decomposition)、主成分分析(Principal Component Analysis)、潜在意味分析(Latent Semantic Analysis)および非負値行列因子分解(Non-negative Matrix Factorization)のうち少なくとも一つを利用してモーションの支配成分の方向および大きさを決定することができる。
以下では、主成分分析を利用してモーションの支配成分の方向および大きさを決定する実施例について詳察する。
本発明の一実施例によると、空間座標系管理部210は、主成分分析(Principal Component Analysis)を利用してモーション跡から主成分を導き出すことができ、前記導き出される主成分に基づいてモーションの支配成分の大きさおよび方向を決定することができる。本発明で言う主成分分析は、高次元のデータを低次元のデータに変換する分析方法であって、互いに関連可能性のある高次元空間の標本を線形関連性のない低次元空間の標本に変換するために直交変換が使われ得、主成分の次元数は元の標本の次元数より小さいか同じであり得る。
具体的には、本発明の一実施例に係る空間座標系管理部210は、3次元座標系でモーション跡を構成する複数の点に対して特異値分解を遂行して代表性を有する点を選別し、その選別された点を支配成分に該当するある座標軸に投影(projection)させた時、その分散が最も大きくなる座標軸を最初の主成分として決定し、その分散が二番目に大きくなる座標軸を二番目の主成分として決定することができる。
例えば、本発明の一実施例に係る空間座標系管理部210は、使用者が行うモーション跡に対して主成分分析を遂行するにおいて、(1)最初の主成分の変数比率PC1が臨界水準未満であると該当モーションの支配成分がないものと判断することができ(例えば、停止モーション)、(2)最初の主成分の変数比率PC1が臨界水準以上であり、二番目の主成分の変数比率PC2が臨界水準未満であると該当モーションの支配成分が一つであるものと判断することができ(例えば、前進、後進、上、下、左、右などのモーション)、(3)最初の主成分の変数比率PC1と二番目の主成分の変数比率PC2がすべて臨界水準以上であり、最初の主成分の変数比率に対する二番目の主成分の変数比率の相対値(PC2/PC1)が臨界水準以上であると該当モーションの支配成分が二つであるものと判断することができ(例えば、2次元平面上での回転、図形または文字を描くなどのモーション)、(4)最初の主成分の変数比率PC1、二番目の主成分の変数比率PC2および三番目の主成分の変数比率PC3がすべて臨界水準以上であると該当モーションの支配成分が三つであるものと判断することができる(例えば、螺旋形(spiral)に動くモーションなど)。
さらに、本発明の一実施例によると、空間座標系管理部210は、前記決定される支配成分を参照してモーション基準空間座標系を動的に設定することができる。具体的には、本発明の一実施例に係る空間座標系管理部210は、前記決定される支配成分の方向および大きさに基づいてモーション基準空間座標系の次元数および基準座標軸を決定することができる。
例えば、本発明の一実施例に係る空間座標系管理部210は、(1)モーションの支配成分がないものと決定される場合、モーション基準空間座標系が0次元の座標系であるものと決定することができ、(2)モーションの支配成分が一個であるものと決定される場合、モーション基準空間座標系が支配成分の方向に対応する基準座標軸に特定される1次元空間座標系であるものと設定することができ、(3)モーションの支配成分が二つであるものと決定される場合、モーション基準空間座標系が二つの支配成分の方向にそれぞれ対応する二つの基準座標軸に特定される2次元空間座標系であるものと設定することができ、(4)モーションの支配成分が三つであるものと決定される場合、モーション基準空間座標系が三つの支配成分の方向にそれぞれ対応する三つの基準座標軸に特定される3次元空間座標系であるものと設定することができる。
一方、本発明の一実施例によると、空間座標系管理部210は、使用者が行うモーションの支配成分を参照してモーション基準空間座標系を動的に設定することができるため、モーション基準空間座標系は使用者が行うモーションが変わるにつれて該当モーションの認識に適合な方向に(すなわち、適応的に)変わり得る。例えば、使用者が前進または後進のような1次元的なモーションを行う場合には一つの基準座標軸によって特定される1次元空間座標系がモーション基準空間座標系として設定され得、使用者が回転のような2次元的なモーションを行う場合には二つの基準座標軸(すなわち、2次元基準座標平面)によって特定される2次元空間座標系がモーション基準空間座標系として設定され得る。
以上、使用者が行うモーションの支配成分を決定するために主成分分析を利用する実施例について主に説明したが、本発明の範囲は必ずしも前記実施例に限定されるものではなく、モーションの支配成分を決定できる技術であればいくらでも他の技術を利用できることを明らかにしておく。本発明の他の実施例によると、空間座標系管理部210は、固有値分解(Eigen Decomposition)、潜在意味分析(Latent Semantic Analysis)、非負値行列因子分解(Non-negative Matrix Factorization)等の技術を利用してモーションの支配成分を決定することができる。
一方、本発明の一実施例によると、客体制御支援システム200は、使用者が行うモーション跡を参照して該当モーションの支配的な成分を示すことができるモーション基準空間座標系が設定されると、該当モーション基準空間座標系と関連したグラフィック要素を視覚的に提供することによって使用者の理解を助ける使用者インターフェース管理部(図示されず)をさらに含むことができる。例えば、本発明の一実施例に係る使用者インターフェース管理部(図示されず)は、モーション基準空間座標系が0次元に設定される場合には点(●)の形状のグラフィック要素を表示することができ、モーション基準空間座標系が1次元に設定される場合には矢印(->)の形状のグラフィック要素を表示することができ、モーション基準空間座標系が2次元に設定される場合には”@”の形状のグラフィック要素を表示することができる。そして、本発明の一実施例によると、前記のように表示されるグラフィック要素は使用者が行うモーションが変わるにつれて動的に変わり得る。
次に、本発明の一実施例によると、モーション認識部220は、モーション基準空間座標系を基準として特定されるモーション跡およびモーション跡の属性のうち少なくとも一つを参照してモーションの意図を認識することができる。
図4は、本発明の一実施例によりモーション基準空間座標系が1次元に設定される場合を例示的に示す図面である。
図4を参照すると、本発明の一実施例に係る空間座標系管理部210は、使用者が指先で行うモーション跡500の支配成分に該当する基準座標軸510を決定し、前記決定される基準座標軸510によって特定される1次元空間座標系をモーション基準空間座標系として設定することができる。ここで、本発明の一実施例によると、使用者から遠ざかる方向が基準座標軸510の正の方向であるものと決定され得る。
一方、本発明の他の実施例に係る空間座標系管理部210は、基準座標軸510と直交し地表面と平行な第1補助座標軸520をさらに決定し、基準座標軸510および第1補助座標軸520の両方に直交する第2補助座標軸530をさらに決定することによって、基準座標軸510、第1補助座標軸520および第2補助座標軸530によって特定される3次元空間座標系をモーション基準空間座標系として設定してもよい。
引き継ぎ、図4を参照すると、本発明の一実施例に係るモーション認識部220は、前記のように設定されるモーション基準空間座標系の基準座標軸510を基準として特定されるモーション跡500およびその変化を参照して該当モーションを分析することができ、その分析結果に基づいて該当モーションの意図を認識することができる。
図5は、本発明の一実施例により1次元に設定されるモーション基準空間座標系を基準として特定されるモーション跡またはその変化を参照してモーションの意図を認識する構成を例示的に示す図面である。
図5を参照すると、本発明の一実施例に係るモーション認識部220は、モーション基準空間座標系の基準座標軸510を基準として特定されるモーション跡またはその属性を参照して該当モーションの意図を認識することができる。
例えば、本発明の一実施例に係るモーション認識部220は、基準座標軸を基準とする時、モーション跡の速度(変位)が正の値を有し急激に減少する区間が現れると(すなわち、基準座標軸を基準とする時、前進してから停止する跡が現れると)、使用者が自身の前に存在するある客体に対して押す(press)モーションを行ったものと認識することができる。
他の例として、本発明の一実施例に係るモーション認識部220は、基準座標軸を基準とする時、モーション跡の速度が負の値を有し急激に減少する区間が現れると(すなわち、基準座標軸を基準とする時、後進する跡が現れると)、使用者が自身の前に存在するある客体に対して離す(release)モーションを行ったものと認識することができる。
さらに他の例として、本発明の一実施例に係るモーション認識部220は、基準座標軸を基準とする時、モーション跡の速度が正の値を有してから急激に減少して負の値に転換する区間が現れると(すなわち、基準座標軸を基準とする時、前進してから後進する跡が現れると)、使用者が自身の前に存在するある客体に対して軽く叩く(tap)モーションを行ったものと認識することができる。
一方、図4および図5において、使用者を基準とする時、前後方向に動くモーションを認識する実施例について主に説明したが、本発明は必ずしも図4および図5の実施例に限定されるものではなく、使用者を基準とする時、上下方向または左右方向に動くモーションを認識する実施例もいくらでも可能であることを明らかにしておく。
図6は、本発明の一実施例によりモーション基準空間座標系が2次元に設定される場合を例示的に示す図面である。
図6を参照すると、本発明の一実施例に係る空間座標系管理部210は、使用者が指先で行うモーション跡700の支配成分に該当する二つの基準座標軸を決定することができ、前記決定される第1基準座標軸710および第2基準座標軸720の組み合わせ(すなわち、基準座標平面)によって特定される2次元空間座標系をモーション基準空間座標系として設定することができる。
一方、本発明の他の実施例に係る空間座標系管理部210は、第1基準座標軸710および第2基準座標軸720の両方と直交する補助座標軸730をさらに決定することによって、第1基準座標軸710、第2基準座標軸720および補助座標軸730によって特定される3次元空間座標系をモーション基準空間座標系として設定してもよい。
引き継ぎ、図6を参照すると、本発明の一実施例に係るモーション認識部220は、前記のように設定されるモーション基準空間座標系の基準座標平面を基準として特定されるモーション跡700およびその変化を参照して該当モーションを分析することができ、その分析結果に基づいて該当モーションの意図を認識することができる。
図7は、本発明の一実施例により2次元に設定されるモーション基準空間座標系を基準として特定されるモーション跡またはその変化を参照してモーションの意図を認識する構成を例示的に示す図面である。
図7を参照すると、本発明の一実施例に係るモーション認識部220は、モーション基準空間座標系の基準座標平面740を基準として特定されるモーション跡の回転方向、回転角度、回転速度などの属性を参照して該当モーションの意図を認識することができる。
例えば、本発明の一実施例に係るモーション認識部220は、基準座標平面を基準とする時、モーション跡が時計回り方向または反時計回り方向に回転する区間が現れると(すなわち、モーション跡が基準座標平面上で回転する軌跡を描くものとして現れると)、使用者が自身の前に存在するある客体に対して回転(rotate)またはスワイプ(swipe)モーションを行ったものと認識することができる。
一方、図6および図7において、使用者を基準とする時、使用者と向かい合い地表面に対しては垂直な基準座標平面によって支配的な成分が示され得る実施例について主に説明したが、本発明は必ずしも図6および図7の実施例に限定されるものではなく、図6および図7の実施例でとは異なる方向の基準座標平面によって支配的な成分が示され得る実施例もいくらでも可能であることを明らかにしておく。
一方、本発明の一実施例によると、モーション認識部220は、モーション基準空間座標系を基準としてモーションの意図を認識するにおいて、該当モーションが有効なモーションであるかどうかを決定することができる。具体的には、本発明の一実施例に係るモーション認識部220は、過去に(または最も最近に)認識されたモーションの属性および現在認識されているモーションの属性のうち少なくとも一つを参照してモーションの有効性を決定することができる。
図4および図5を参照してさらに具体的に説明すると、本発明の一実施例に係るモーション認識部220は、基準座標軸を基準として特定されるモーション跡の属性(移動方向、移動量、移動速度など)を参照して該当モーションが有効なモーションであるかどうかを決定することができる。
例えば、図4および図5において、本発明の一実施例に係るモーション認識部220は、基準座標軸を基準とする時、モーション跡が移動速度が臨界水準以上である場合に該当モーションが有効なモーションであるものと決定することができる。
他の例として、図4および図5において、本発明の一実施例に係るモーション認識部220は、時間的に連続して行われる順方向移動モーションおよび逆方向移動モーションの間の移動量の相対比が臨界水準(例えば、40%)以上である場合に、モーションの移動方向の転換が有効なものと決定することができる。
図6および図7を参照してさらに具体的に説明すると、本発明の一実施例に係るモーション認識部220は、基準座標平面を基準として特定されるモーション跡の属性(回転軸、回転方向、回転角度、回転半径、回転速度など)を参照して該当モーションが有効なモーションであるかどうかを決定することができる。
例えば、図6および図7において、本発明の一実施例に係るモーション認識部220は、基準座標平面を基準とする時、モーション跡が2秒以内に270度以上回転した場合に該当モーションが有効に1回転をしたモーションであるものと決定することができ、基準座標平面を基準とする時、モーション跡が1秒以内に135度以上回転した場合に該当モーションが有効に1/2回転をしたモーションであるものと決定することができる。
他の例として、図6および図7において、本発明の一実施例に係るモーション認識部220は、時間的に連続して行われる順方向回転モーションおよび逆方向回転モーションの間の回転量の相対比が臨界水準(例えば、40%)以上の場合にモーションの回転方向の転換が有効なものと決定することができる。
さらに他の例として、本発明の一実施例に係るモーション認識部220は、モーション跡のうち基準座標平面と距離が遠い異常値(outlier)が占める比率が臨界水準以上であると、該当モーションが基準座標平面を外れたものと決定することができる。
次に、本発明の一実施例に係る通信部230は空間座標系管理部210およびモーション認識部220からの/へのデータの送受信を可能とさせる機能を遂行することができる。
最後に、本発明の一実施例に係る制御部240は空間座標系管理部210、モーション認識部220および通信部230間のデータの流れを制御する機能を遂行することができる。すなわち、本発明に係る制御部240は客体制御支援システム200の外部からの/へのデータの流れまたは客体制御支援システム200の各構成要素間のデータの流れを制御することによって、空間座標系管理部210、モーション認識部220および通信部230でそれぞれ固有機能を遂行するように制御することができる。
以上では、使用者の身体部位を利用して行われるモーションから使用者の意図が判断される実施例について主に説明されているが、本発明は必ずしも使用者の身体部位を利用することに限定されるものではなく、本発明の目的を達成できる範囲内で使用者がモーション認識手段などを利用する場合にもその使用者のモーションの意図が判断され得ることを明らかにしておく。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で具現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるかコンピュータソフトウェア分野の当業者に公知となっている使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、およびROM、RAM、フラッシュメモリなどのような、プログラム命令語を保存し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語コードだけでなくインタープリタなどを使ってコンピュータによって実行され得る高級言語コードも含まれる。ハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールに変更され得、その逆も同じである。
以上、本発明が具体的な構成要素などのような特定の事項と限定された実施例および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限定されるものではなく、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正と変更が可能である。
したがって、本発明の思想は前記説明された実施例に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なまたはこれから等価的に変更されたすべての範囲は本発明の思想の範疇に属するものと言える。

Claims (7)

  1. 客体の制御を支援するための方法であって、
    使用者が行うモーションの支配的な成分である支配成分示すことができるモーション基準空間座標系を動的に設定する段階、および
    前記モーション基準空間座標系を基準として特定される前記モーションのであるモーション跡および前記モーション跡の属性のうち少なくとも一つを参照して前記モーションの意図を認識する段階
    を含み、
    前記設定する段階は、前記モーション跡から前記支配成分の方向および大きさを決定し、決定した前記支配成分の方向および大きさに基づいて前記モーション基準空間座標系の次元数および基準座標軸を決定し、
    前記モーション基準空間座標系の次元数は、臨界水準以上の大きさを有する支配成分の数に基づいて決定され、
    前記モーション基準空間座標系の基準座標軸は、臨界水準以上の大きさを有する支配成分の方向に基づいて決定される方法。
  2. 前記モーション跡は前記モーションに対する測定データを時間に沿って累積させることによって特定される請求項1に記載の方法。
  3. 前記設定する段階は、特異値分解(Singular Value Decomposition)、固有値分解(Eigen Decomposition)、主成分分析(Principal Component Analysis)、潜在意味分析(Latent Semantic Analysis)および非負値行列因子分解(Non-negative Matrix Factorization)のうち少なくとも一つを利用して前記支配成分の方向および大きさを導き出す請求項に記載の方法。
  4. 前記モーション基準空間座標系は、前記支配成分に対応する基準座標軸によって特定されるか、前記基準座標軸および前記基準座標軸を基準として設定される補助座標軸によって特定される請求項1に記載の方法。
  5. 前記認識する段階は、過去に認識されたモーションの属性および現在認識されているモーションの属性のうち少なくとも一つを参照してモーションの有効性を決定する請求項1に記載の方法。
  6. 請求項1に記載された方法を実行するためのコンピュータプログラムを記録する非一過性のコンピュータ読み取り可能記録媒体。
  7. 客体の制御を支援するためのシステムであって、
    使用者が行うモーションの支配的な成分である支配成分を示すことができるモーション基準空間座標系を動的に設定する空間座標系管理部、および
    前記モーション基準空間座標系を基準として特定される前記モーションのであるモーション跡および前記モーション跡の属性のうち少なくとも一つを参照して前記モーションの意図を認識するモーション認識部
    を含み、
    前記空間座標系管理部は、前記モーション跡から前記支配成分の方向および大きさを決定し、決定した前記支配成分の方向および大きさに基づいて前記モーション基準空間座標系の次元数および基準座標軸を決定し、
    前記モーション基準空間座標系の次元数は、臨界水準以上の大きさを有する支配成分の数に基づいて決定され、
    前記モーション基準空間座標系の基準座標軸は、臨界水準以上の大きさを有する支配成分の方向に基づいて決定されるシステム。
JP2021506605A 2018-09-19 2019-09-17 客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Active JP7062833B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180112447A KR102155378B1 (ko) 2018-09-19 2018-09-19 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR10-2018-0112447 2018-09-19
PCT/KR2019/011999 WO2020060157A1 (ko) 2018-09-19 2019-09-17 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Publications (2)

Publication Number Publication Date
JP2021518965A JP2021518965A (ja) 2021-08-05
JP7062833B2 true JP7062833B2 (ja) 2022-05-06

Family

ID=69887595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506605A Active JP7062833B2 (ja) 2018-09-19 2019-09-17 客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Country Status (6)

Country Link
US (1) US11886167B2 (ja)
EP (1) EP3770730A4 (ja)
JP (1) JP7062833B2 (ja)
KR (1) KR102155378B1 (ja)
CN (1) CN112020694B (ja)
WO (1) WO2020060157A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11474690B2 (en) 2020-08-14 2022-10-18 VTouch Co., Ltd. Method, system and non-transitory computer-readable recording medium for non-contact control
KR102477006B1 (ko) * 2020-08-14 2022-12-14 주식회사 브이터치 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN114422762B (zh) * 2021-12-25 2023-10-13 深圳市幕工坊科技有限公司 投影幕动作控制系统
KR20230102557A (ko) * 2021-12-30 2023-07-07 주식회사 브이터치 사용자 입력을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US20230341944A1 (en) * 2022-04-26 2023-10-26 Oura Health Oy Ring-inputted commands

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037410A (ja) 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> 感情表現抽出処理装置及びプログラム
JP2010108273A (ja) 2008-10-30 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20120254809A1 (en) 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for motion gesture recognition
JP2013175043A (ja) 2012-02-24 2013-09-05 Tokyo Univ Of Agriculture & Technology 動作主識別方法、動作主識別システム、動作主識別プログラム及び情報記憶媒体
US20130278501A1 (en) 2012-04-18 2013-10-24 Arb Labs Inc. Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis
US20160092504A1 (en) 2014-09-27 2016-03-31 Intel Corporation Recognition of Free-form Gestures from Orientation Tracking of a Handheld or Wearable Device
JP2016151841A (ja) 2015-02-17 2016-08-22 レノボ・シンガポール・プライベート・リミテッド ステレオ・カメラによる物体の存在の判別方法、デバイス制御システム、およびコンピュータ・プログラム
JP2016521894A5 (ja) 2014-06-13 2017-07-06
US20170277942A1 (en) 2016-03-22 2017-09-28 Intel Corporation Identifying local coordinate system for gesture recognition
WO2018080142A1 (ko) 2016-10-24 2018-05-03 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP2018518784A (ja) 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100118317A (ko) * 2009-04-28 2010-11-05 삼성전자주식회사 휴대단말의 제스처 인식 방법 및 시스템
KR101858531B1 (ko) * 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101334585B1 (ko) * 2012-05-29 2013-12-05 주식회사 브이터치 프로젝터를 통해 표시되는 정보를 이용하여 가상터치를 수행하는 원격 조작 장치 및 방법
KR101441882B1 (ko) * 2012-11-12 2014-09-22 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
WO2014106823A2 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
CN103914242A (zh) * 2013-01-05 2014-07-09 纬创资通股份有限公司 触控屏幕上的指针控制方法
US9020194B2 (en) 2013-06-14 2015-04-28 Qualcomm Incorporated Systems and methods for performing a device action based on a detected gesture
WO2015008164A2 (en) * 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
CN105353873B (zh) * 2015-11-02 2019-03-15 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
JP2017207385A (ja) 2016-05-19 2017-11-24 富士通株式会社 3次元認識装置、3次元認識方法、及び3次元認識プログラム
KR20180045745A (ko) * 2016-10-26 2018-05-04 삼성에스디에스 주식회사 이동체에서의 객체 검출 장치 및 방법
KR101850410B1 (ko) * 2016-12-26 2018-04-20 한국생산기술연구원 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037410A (ja) 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> 感情表現抽出処理装置及びプログラム
JP2010108273A (ja) 2008-10-30 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20120254809A1 (en) 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for motion gesture recognition
JP2013175043A (ja) 2012-02-24 2013-09-05 Tokyo Univ Of Agriculture & Technology 動作主識別方法、動作主識別システム、動作主識別プログラム及び情報記憶媒体
US20130278501A1 (en) 2012-04-18 2013-10-24 Arb Labs Inc. Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis
JP2016521894A5 (ja) 2014-06-13 2017-07-06
US20160092504A1 (en) 2014-09-27 2016-03-31 Intel Corporation Recognition of Free-form Gestures from Orientation Tracking of a Handheld or Wearable Device
JP2016151841A (ja) 2015-02-17 2016-08-22 レノボ・シンガポール・プライベート・リミテッド ステレオ・カメラによる物体の存在の判別方法、デバイス制御システム、およびコンピュータ・プログラム
JP2018518784A (ja) 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置
US20170277942A1 (en) 2016-03-22 2017-09-28 Intel Corporation Identifying local coordinate system for gesture recognition
WO2018080142A1 (ko) 2016-10-24 2018-05-03 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
CN112020694A (zh) 2020-12-01
US20210026333A1 (en) 2021-01-28
EP3770730A4 (en) 2021-12-15
JP2021518965A (ja) 2021-08-05
WO2020060157A1 (ko) 2020-03-26
EP3770730A1 (en) 2021-01-27
KR102155378B1 (ko) 2020-09-14
US11886167B2 (en) 2024-01-30
CN112020694B (zh) 2024-02-20
KR20200033040A (ko) 2020-03-27

Similar Documents

Publication Publication Date Title
JP7062833B2 (ja) 客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
US11868543B1 (en) Gesture keyboard method and apparatus
CN111989537B (zh) 用于在无约束环境中检测人类视线和手势的系统和方法
US9696859B1 (en) Detecting tap-based user input on a mobile device based on motion sensor data
WO2016188318A1 (zh) 一种3d人脸重建方法、装置及服务器
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
US10572012B2 (en) Electronic device for performing gestures and methods for determining orientation thereof
KR101833253B1 (ko) 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치
KR102619061B1 (ko) 무인 비행 장치의 제어 방법 및 무인 비행 장치를 제어하는 전자 장치
JP7094280B2 (ja) 客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
US9411412B1 (en) Controlling a computing device based on user movement about various angular ranges
US10649615B2 (en) Control interface for a three-dimensional graphical object
US20150169119A1 (en) Major-Axis Pinch Navigation In A Three-Dimensional Environment On A Mobile Device
KR20170097884A (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
CN113289327A (zh) 移动终端的显示控制方法及装置、存储介质及电子设备
US20240221328A1 (en) Method and Device for Sketch-Based Placement of Virtual Objects
CN112351188B (zh) 根据对象显示图形元素的装置和方法
US9377866B1 (en) Depth-based position mapping
US9146631B1 (en) Determining which hand is holding a device
KR102191061B1 (ko) 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR101980725B1 (ko) 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
Wang et al. Intuitional 3D museum navigation system using Kinect
KR102398404B1 (ko) 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US20150153715A1 (en) Rapidly programmable locations in space
KR20240005953A (ko) 증강 현실 경험의 시동 시간 감소

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220420

R150 Certificate of patent or registration of utility model

Ref document number: 7062833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150