JP2020500356A - 仮想コントローラのための機能割当て - Google Patents

仮想コントローラのための機能割当て Download PDF

Info

Publication number
JP2020500356A
JP2020500356A JP2019520892A JP2019520892A JP2020500356A JP 2020500356 A JP2020500356 A JP 2020500356A JP 2019520892 A JP2019520892 A JP 2019520892A JP 2019520892 A JP2019520892 A JP 2019520892A JP 2020500356 A JP2020500356 A JP 2020500356A
Authority
JP
Japan
Prior art keywords
controller
virtual
function
physical
virtual controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019520892A
Other languages
English (en)
Other versions
JP6859433B2 (ja
Inventor
コバヤシ,トニー
デュ・ボワ,ポール
ウィンストン,ローレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020500356A publication Critical patent/JP2020500356A/ja
Application granted granted Critical
Publication of JP6859433B2 publication Critical patent/JP6859433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

方法は、コンピュータシステムにおいて仮想コントローラを物理的なコントローラと対応付けることと、第1の機能を仮想コントローラに割当てて物理的なコントローラを用いて第1の機能の性能を提供することと、物理的なコントローラを用いて行われたジェスチャを検出することと、ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除する、または、第2の機能を仮想コントローラに割当てることとを備える。

Description

関連の出願の相互参照
本特許出願は、2017年1月19日に出願された「仮想コントローラのための機能割当て」と題された米国仮特許出願第62/448,172号の優先権を主張する、2017年10月26日に出願された「仮想コントローラのための機能割当て」と題された米国特許出願第15/794,265号の継続出願であって、その優先権を主張するものであり、その開示が本明細書に引用により援用される。
また、本特許出願は、2017年1月19日に出願された米国仮特許出願第62/448,172号の優先権を主張するものであり、その開示が本明細書に引用により援用される。
技術分野
本特許明細書は一般に、1つ以上の仮想コントローラのための機能割当てに関する。
背景
仮想現実(VR)プログラムの中には、ユーザが操作してVRプログラムのアスペクトを制御可能な1つ以上の物理的なコントローラを使用するものがある。異なる機能をコントローラに割当てることができ、これによって、ユーザは、左右の手をそれぞれ用いて異なるタスクを実行できる。しかしながら、ユーザは、システムが割当てた手と反対側の手を使用したい場合がある。とりわけ、設定が変更可能になるまではユーザは「誤った」手を用いてプログラムと相互作用しなければならない場合、このような変更を行うためには、ユーザは、煩雑なことがあるVRプログラムの設定メニューを検索する必要がある。ユーザの好みにかかわらず、物理的に同一のコントローラを使用して起動時に機能を割り当て可能なシステムもあれば、左手または右手用の物理的に異なるコントローラを有し、ユーザが物理的なコントローラを切替えることによって再割当てを行うことが困難、または不可能なシステムもある。
概要
第1の態様では、方法は:コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと;第1の機能を仮想コントローラに割当てて、物理的なコントローラを用いて第1の機能の性能を提供することと;物理的なコントローラを用いて行われたジェスチャを検出することと;ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除する、または、第2の機能を仮想コントローラに割当てることとを備える。
一般的に、本明細書で説明する物理的なコントローラおよび他の物理的なコントローラは、手持ち式のコントローラである、ユーザの手で持つためのコントローラであり得る。物理的なコントローラは、たとえばコントローラの平行移動および/または回転運動によって、および/または、ボタン、スイッチ、検出器、およびコントローラ上にまたはコントローラによって設けられた他の制御要素の使用によって、ユーザがコンピュータシステムに入力を行うことができるように適合されていることが一般的である。そのため、本特許明細書で説明する仮想コントローラおよび他の仮想コントローラは、物理的なコントローラのユーザに対して提示される仮想現実空間において提示される仮想または論理的コントローラであり得る。仮想空間における仮想コントローラの位置および/または移動は、一般的に、物理的なコントローラの位置および/または移動に対応し得る、または応答し得る。本特許明細書で説明するジェスチャおよび他のジェスチャは、一般的に、物理的なコントローラの、したがって一般に仮想空間における仮想コントローラの特定の平行運動および/または回転運動および/または軌跡によって提供され得る。
実施形態例は、以下の特徴のいずれかまたは全てを含み得る。
仮想コントローラが第1の仮想コントローラとして定義され、物理的なコントローラが第1の物理的なコントローラとして定義される場合、方法は、コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、第2の機能を第2の仮想コントローラに割当てることとを備え得る。ジェスチャの検出に応じて、第1の機能は第1の仮想コントローラからの割当てを解除され第2の仮想コントローラに割当てられ得、第2の機能は第2の仮想コントローラからの割当てを解除され第1の仮想コントローラに割当てられ得る。
第1の機能は、仮想ペインティングプログラムにおいてブラシ機能を含み得、第2の機能は、仮想ペインティングプログラムにおいてパレット機能を含み得、ジェスチャの検出は、仮想ペインティングプログラムにおいてブラシ機能およびパレット機能のスワッピングを引き起こす。
ジェスチャは、第1および第2の物理的なコントローラを用いてなされ得る。たとえば、ジェスチャは、第1および第2の物理的なコントローラが互いに近づけられその後互いに遠ざけられること、または、第1および第2の物理的なコントローラのそれぞれの端部が互いに近づけられその後互いに遠ざけられることを含み得る。
第1および第2の物理的なコントローラのそれぞれの端部は、第1および第2の物理的なコントローラのそれぞれの底端部であり得る。たとえば、各コントローラは、ニュートラルポジションで通常の手持ち使用において方向付けられている場合、上端部および底端部を有していると定義され得る。たとえば、上端部はユーザの親指および人差し指により近く、底端部はユーザの小指により近い。
第1および第2の物理的なコントローラは、互いに同一であり得る、または、実質的に同じであり得る。
この方法はさらに、コンピュータシステムにおけるデフォルトとして、ジェスチャの検出に応じて、仮想コントローラからの第1の機能の割当ての解除、または、第2の機能の仮想コントローラとの対応付けを記憶することを備え得る。
仮想コントローラは、コンピュータシステムによって生成された仮想空間において定義され得、第1の機能はジェスチャの検出に応じて仮想コントローラからの割当てを解除される。この方法はさらに、仮想空間においてポイントを定義することと、ジェスチャの検出に応じて第1の機能をポイントと対応付けることとを備える。第2の機能は、ジェスチャの検出が検出される前に、仮想コントローラに既に割当てられ得る。
また、これに関連して、仮想コントローラは第1の仮想コントローラとして定義され得、物理的なコントローラは第1の物理的なコントローラとして定義され得る。この方法はさらに、コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと;第2の機能を第2の仮想コントローラに割当てることとを備える。
この方法はさらに、第2の機能を第1の仮想コントローラにも割当てることを備え得る。たとえば、第1の機能は仮想ペインティングプログラムにおいてパレット機能を含み得、第2の機能は仮想ペインティングプログラムにおいてブラシ機能を含み、第1の仮想コントローラからの第1の機能の割当ての解除によって、第1および第2の物理的なコントローラの双方を使用して仮想ペインティングプログラムにおいてブラシ機能を実行可能である。
上述で説明され以下でより詳細に論じられるさまざまな態様において、ジェスチャは、たとえば、物理的なコントローラ上に位置し得るセンサを用いて検出され得る。説明される方法はさらに、センサによって生成されたセンサデータから、物理的なコントローラに関する速度および位置情報を推定することを備え得る、および/または、センサデータから物理的なコントローラについての方位データを推定することを備え得る。
本発明はまた、説明される方法の実行のために、コンピュータプログラムコードを保持する1つ以上のコンピュータ可読媒体を提供する。たとえば、本発明は、非一時的な記憶媒体において有形に具現化されたコンピュータプログラム製品を提供する。コンピュータプログラム製品は、実行されると、プロセッサに:コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと;第1の機能を仮想コントローラに割当てて、物理的なコントローラを用いて第1の機能の性能を提供することと;物理的なコントローラを用いて行われたジェスチャを検出することと;ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除する、または、第2の機能を仮想コントローラに割当てることとを含む操作を行わせる命令を含む。
本発明はまた、説明される方法の実行のために配置された装置を提供する。たとえば、本発明は:プロセッサと;非一時的な記憶媒体において有形に具現化されたコンピュータプログラム製品とを備えるシステムを提供する。コンピュータプログラム製品は、実行されると、プロセッサに:コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと;第1の機能を仮想コントローラに割当てて、物理的なコントローラを用いて第1の機能の性能を提供することと;物理的なコントローラを用いて行われたジェスチャを検出することと;ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除する、または、仮想コントローラに第2の機能を割当てることとを含む操作を行わせる命令を含む。
このようなシステムは、関連する方法を実現するために必要とされる1つ以上の物理的なコントローラも備え得る。
仮想コントローラのための機能割当ての例を示す図である。 仮想コントローラのための機能割当ての例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 システムの例を示す図である。 方法の例を示す図である。 方法の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 仮想コントローラのための機能割当ての他の例を示す図である。 ここで説明する技術を実現するために使用可能なコンピュータデバイスおよびモバイルコンピュータデバイスの例を示す図である。
さまざまな図における同様の参照符号は、同様の要素を示す。
詳細な説明
本特許明細書は、仮想コントローラのための機能割当ての例について説明する。従来、仮想現実(VR)アプリケーションを使用している、または使用しようとしている人は、VRシステムの2つ以上の物理的なコントローラ間で、少なくとも1つの機能の再割当てまたは再対応付けが可能である。いくつかの実施形態では、人は、あらかじめ定義されたジェスチャを実行して、再割当てまたは再対応付けを開始可能である。たとえば、人は、物理的なコントローラのそれぞれの端部を互いに近づけ、その後互いに遠ざけて、1つ(または複数)の機能を再割当てしなければならないという意図の信号を送ることができる。これは、たとえばメニューシステムを検索するよりも、コントローラ間でVR機能の再割当てを行うより簡単で、より早く、および/または、より直感的な方法であり得る。
図1A〜図1Bは、仮想コントローラのための機能割当ての例を示す図である。ここで、仮想コントローラは、VRプログラムによって生成される仮想空間100に示されている。たとえば、仮想空間100は、VRプログラムに接続されたVRヘッドセット(たとえば、ヘッドマウントディスプレイ)を着用した人が見ることができる。ここで、1つ以上の制御装置104を有する仮想コントローラ102は、仮想空間100において見ることができる。たとえば、1つ(または複数)の制御装置104は、対応する物理的なコントローラ(図示せず)上でアクセス可能な物理的制御装置に対応可能である。仮想コントローラ102の形状は、物理的なコントローラの形状に対応、または類似し得る。同様に、1つ以上の制御装置108を有する他の仮想コントローラ106も仮想空間100に示されている。
VRプログラムを操作する人はそれぞれの手に物理的なコントローラの各々を持つことができる。たとえば、仮想コントローラ102のための物理的なコントローラを右手に持ち、仮想コントローラ106のための物理的なコントローラを左手に持つ。他の例として、コントローラは、人の体のある部分に取り付け可能である。コントローラは、その位置、速度および/または方位について追跡可能である。人が手または体の他の部分を使用して1つ(または複数)のコントローラを移動させるとき、仮想コントローラ102および/または106は、それに応じて仮想空間100内で移動可能である。
この例では、仮想空間100はVRプログラム内のペインティング環境と対応付けられている。図1Aでは、仮想コントローラ102は、それ自体に割当てられたブラシ機能を有する。たとえば、仮想コントローラ102上の先端部110は、当該コントローラのためにブラシ機能が利用可能であることを示す。人は仮想コントローラ102に対応する物理的なコントローラを移動させることによって、仮想空間100内にブラシストロークを生成することができる。たとえば、ここでは、ブラシストローク112は、仮想コントローラ102を用いて仮想空間100内に生成されている。
さらに、仮想コントローラ106は、それ自体に割当てられたVRプログラムの他の機能を有する。ここでは、仮想ツールボックス114が、仮想コントローラ106を少なくとも部分的に取り囲むように、仮想空間100内に模式的に示されている。たとえば、仮想ツールボックス114は、それ自体が割当てられた仮想コントローラ、ここでは仮想コントローラ106に対して固定可能であり、それによって、仮想ツールボックス114は、当該仮想コントローラと共に仮想空間100内で移動する。仮想ツールボックス114は、利用可能な1つ以上の仮想機能を含み得る。
ここで、仮想ツールボックス116上のホイール116は、ペインティング環境のブラシ機能のためのパレットに対応する。したがって、ホイール116は、ペインティング環境において1つ以上のパレット機能のために使用可能である。たとえば、先端部110をホイール116の選択された部分に接触させて特定の色、テクスチャ、パターン、および/または他のペイント特徴をペイントブラシに割当てることが可能である。たとえば、ブラシストローク112の1つ以上の特徴は、ホイール116を使用して制御可能である。1つ以上の他の機能を、ツールボックス114と対応付けることが可能である。ここでは、機能118が模式的に示されている。これらは、ペインティング環境の他の機能、たとえば、異なるマーク付け実行(ペンなど)の選択および/または現在のマーク付け実行(濃さなど)のあるアスペクトの変更などに関連し得る。
いくつかの実施形態例では、仮想コントローラ102は、現在支配的なコントローラであると考えることができる。なぜなら、仮想空間100にマーク付けを行うという比較的要求がより厳しい操作のために使用されるからである。これに対して、仮想コントローラ106は、現在非支配的なコントローラであると考えることができる。なぜなら、その目的は主に、仮想コントローラ102によって使用されるべき1つ以上のツールを提供すること、および/または、仮想コントローラ102の機能を増大させることであり得るからである。
VRプログラムは、仮想空間100内で機能の割当ておよび/または機能の割当ての解除を行う1つ以上の方法を提供可能である。いくつかの実施形態例では、スワッピング機能120によって模式的に示されるように、仮想コントローラ102と106との間で機能をスワップ可能である。たとえば、これは、ユーザが手で物理的なコントローラを物理的に切替えることを必要とせずに、一方の手から他方の手に支配的なコントローラを切替えるために使用可能である。スワッピング機能120は、仮想コントローラ102および/または106に対応する物理的なコントローラの1つ以上を用いて、あらかじめ定義されたジェスチャを行うことによって引き起こされ得る。
人がそのようなあらかじめ定義されたジェスチャを実行し、システムがこれをスワッピング機能120を起動する信号と解釈したとする。図1Bは、スワッピング機能120を実行後の仮想空間100の例を示す図である。仮想コントローラ102および106は、ジェスチャが行われる前ではなく行われた後に異なる位置になり得る例もあるが、現在、ほぼ図1Aのような位置にある。しかしながら、VRプログラム内の機能は、ジェスチャに応じて再割当てされている。たとえば、先端部110はもはや仮想コントローラ102には割当てられておらず、仮想コントローラ106に現在割当てられている。同様に、ツールボックス114およびそれと対応付けられたツールはもはや仮想コントローラ106に割当てられておらず、仮想コントローラ102に現在割当てられている。マーク付け実行として定義されたときに仮想コントローラ102を用いて生成されたブラシストローク112が、依然として仮想空間100で可視状態である。人はそこで、マーク付け実行として、仮想コントローラ106を用いて仮想空間100に1つ以上のマーク付けを行うことが可能である。たとえば、人は、仮想コントローラ106を用いて他のブラシストローク122を生成可能である。これに対して、仮想コントローラ102は、ホイール116、1つ(または複数)の機能118、および/または仮想ツールボックス114と対応付けられた他の機能のために現在使用可能である。
スワッピング機能120は、仮想空間100内で機能の割当てまたは機能の割当ての解除を行う便利な方法を提供可能である。たとえば、人がVRプログラムを起動すると図1Aの構成が割当てられると仮定する。すなわち、ブラシ機能が、右側の物理的なコントローラを用いた起動に現在利用可能である。これはデフォルト設定であってもよい、または、起動されると主装置(たとえば、VRプログラムを実行するコンピュータ筐体)に対する物理的なコントローラの空間位置に基づいていてもよい。さらに、人が右手ではなく左手を使用したペイントを好むと仮定する。そのため、人は、スワッピング機能120を起動して仮想コントローラ102から仮想コントローラ106へブラシ機能を便利に再割当て可能である(左手を用いて作動される)、かつ、残りの機能を仮想コントローラ102に再割当て可能である(右手を用いて作動される)。このスワッピング(または他の再割当てもしくは割当て解除)がシステムによって行われると、その結果として生じる1つ(または複数)の割当てを、VRプログラムのためにデフォルトとして記憶可能である。たとえば、同じユーザが次にVRプログラムを起動すると、図1Bに示すように割当てが行われ得る。1つ以上の機能の割当てまたは再割当ては、行われなくてもよい、または逆でもよい。たとえば、ユーザがあらかじめ定義されたジェスチャ(または他のジェスチャ)を再度行うと、システムは過去に行われた割当てを取り消してもよい、または逆にしてもよい。
すなわち、コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることを備える方法を行うことができる。たとえば、仮想コントローラ102を、ユーザが右手に持つ物理的なコントローラ(図示せず)と対応付けることができる。この方法は、第1の機能を仮想コントローラに割当てて、物理的なコントローラを用いて第1の機能の性能を与えることを備え得る。たとえば、先端部110によって例示されるブラシ機能を、仮想コントローラ102に割当てることができる。この方法は、物理的なコントローラを用いて行われるジェスチャを検出することを備え得る。たとえば、ユーザは、あらかじめ定義されたジェスチャを行ってスワッピング機能120を起動可能である。この方法は、ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除すること、または、第2の機能を仮想コントローラに割当てることを備え得る。たとえば、仮想コントローラ102から先端部110の割当てを解除可能である。他の例として、仮想ツールボックス114を仮想コントローラ102に割当て可能である。
図2A〜図2Fは、仮想コントローラのための機能割当ての他の例を示す図である。ここでは、仮想コントローラ202および204が仮想空間204において示されている。たとえば、仮想空間204を、VRヘッドセットを用いてまたは他の方法で眺めることができる。現在、仮想コントローラ202は、「D」というラベルによって示されるように、支配的なコントローラである。このラベルは、ここでは例示のために用いられており、仮想空間204において可視である必要はない。支配的なコントローラとして定義されたことにより、少なくとも1つの機能が仮想コントローラ202に割当て可能である。
ユーザが左側のコントローラから右側のコントローラへ優勢を切替えたいと思っていると仮定する。ユーザは、仮想コントローラ200および202と対応付けられた物理的なコントローラ(図示せず)のうちの1つ以上を用いて、あらかじめ定義されたジェスチャを行うことが可能である。図2Aの矢印206は、ユーザがここで仮想コントローラ200および202を相互に離し始めたことを示す。
図2Bでは、それぞれの矢印208は、ユーザが仮想コントローラ200および202を反対方向に向けたことを示す。たとえば、仮想コントローラ200および202のそれぞれの端部210は、現在向かい合っている。任意の端部を使用可能であり、このような端部はコントローラの上端部および/または底端部を含むが、これに限定されるわけではない。
図2Cでは、それぞれの矢印212は、ユーザが仮想コントローラ200および202を互いに向けて、ここでは実質的に水平に移動させることを示す。これは、仮想コントローラ200および202のそれぞれの端部210が相互に接触するまで、またはほぼ接触するまで行うことができる。いくつかの実施形態例では、動きは、仮想コントローラ200および202が最初に少なくとも最小距離だけ離された場合に認識可能であり、その後、これらの装置の互いに向かう動きが開始される。たとえば、これによって、ユーザが意図せずにジェスチャを行うことを避けることができる。
図2Dでは、矢印214は、ユーザがその後仮想コントローラ200および202を互いに遠ざけることを示す。いくつかの実施形態例では、これは、図2Cの互いに近づけられる態様の方向とは実質的に反対方向に行うことができる。いくつかの実施形態例では、仮想コントローラ200および202が少なくとも最小距離だけ遠ざけられると、動きを認識可能である。たとえば、これによって、ユーザが意図せずにジェスチャを行うことを避けることができる。
矢印206、208、212および/または214によって示される動きは、システムによって、仮想コントローラ200および202のうちの1つ以上に対する機能の割当ておよび/または機能の割当て解除と対応付けられた、あらかじめ定義されたジェスチャのユーザによる意図された行為であると解釈可能である。たとえば、ジェスチャは、仮想コントローラ200および202と対応付けられた物理的なコントローラが互いに近づけられその後互いに遠ざけられることを含み得る。他の例として、ジェスチャは、物理的なコントローラのそれぞれの端部が互いに近づけられその後互いに遠ざけられることを含み得る。そのような1つ(または複数)のジェスチャの検出に応じて、システムは割当て/割当て解除を行い得る。
たとえば、優勢をある仮想コントローラから他の仮想コントローラへと切替えることができる。図2Eは、仮想コントローラ200が現在支配的なコントローラであることを示す。これに対して、仮想コントローラ202は、もはや支配的なコントローラではない。たとえば、これは、人が1つ以上のVRプログラムにおいて仮想コントローラの利き手を切替える便利な方法であり得る。
図2Fは、それぞれの矢印216によって示されるように、ユーザが仮想コントローラ200および202をより直立のまたは前方の方位に向けることを示す図である。いくつかの実施形態例では、これにより、ユーザが1つ(または複数)の仮想コントローラに割当てられた1つ以上の機能の実行を開始するために、1つ(または複数)の仮想コントローラを適切な位置に設けうる。たとえば、ユーザは現在支配的な仮想コントローラ200を用いて仮想空間204において1つ以上の機能を実行可能である。
少なくとも1つの物理的なコントローラを用いたジェスチャの性能は、1つ以上の方法で検出可能である。物理的なコントローラ上にまたはこの内部に、および/または、物理的なコントローラの位置および移動を検出可能な他の場所に配置可能なセンサを使用可能である。たとえば、システムの他のコンポーネントは、1つ(または複数)の物理的なコントローラの位置、速度、および/または方位を検出できるように、1つ(または複数)のセンサを含み得る。
いくつかの実施形態例では、仮想空間204ならびに仮想コントローラ200および202を生成するVRシステムは、ユーザに提示されるように各フレームが仮想空間の瞬間に対応するフレームに基づいて、動作可能である。フレームごとに、1つ以上の物理的なコントローラの位置をシステムによって決定可能である。物理的なコントローラが移動中の場合、その位置は、あるフレームから次のフレームへと変化し得る。そのようなフレームデータに基づいて、システムは、物理的なコントローラについての1つ以上の特徴を決定可能である。たとえば、物理的なコントローラの速度および位置は、2つ以上のフレームにわたるセンサデータから推定可能である。他の例として、物理的なコントローラの方位(その端部が指し示す方位など)を、センサデータから推定可能である。たとえば、そのような速度、位置および/または方向情報を使用してジェスチャを検出可能であり、これらは例示されたものを含むが、上述の例示に限定されるわけではない。
図3は、システム300の例を示す図である。ここでは、システム300は、VR機能を生成するVRシステムである。すなわち、たとえばユーザがVRヘッドセットおよび1つ以上の物理的なコントローラを使用して相互作用するように、VRシステム300を使用して1つ以上のVRアプリケーションを実行可能である。特に、VRシステム300は、1つ以上のVR空間302を生成可能である。たとえば、仮想空間100(図1A〜図1B)および/または仮想空間204(図2A〜図2F)を生成可能である。
ここでは、VRシステム300は、その内部に定義された複数のVR機能304を有する。ある機能は、VRプログラムによって提供されるべきタイプの機能と関連し得る。グラフィックスまたは他のビジュアルアートに関連するVRプログラムでは、VR機能304はブラシ機能およびパレット機能を含み得るが、これら2つはただの例に過ぎない。
また、VRシステム300は、その内部に定義された複数のVRコントローラ306を有し得る。いくつかの実施形態例では、仮想コントローラ306のうちの1つ以上は、ユーザがVRコントローラ306を操作可能な物理的なコントローラに視覚的に類似している。たとえば、VRコントローラ306は、仮想コントローラ102および106(図1A〜図1B)および/または仮想コントローラ200および202(図2A〜図2F)を含み得る。VR機能304は、割当て機能308によって、VRコントローラ306のそれぞれに割当てられる。たとえば、VRコントローラ306のうちの1つは、VR機能304のうちの1つ以上をそれ自体に割当て可能である。VR機能304は、(たとえば、図1Aの仮想コントローラ102上の先端部110のように)対応するVRコントローラ306の視覚的な機能として示すことができる。割当ては、ユーザによって、および/または、システムによって変更可能である。たとえば、ユーザは、あらかじめ定義されたジェスチャを実行して仮想コントローラに関連するスワッピング機能を起動することができる。スワッピング機能は、割当て機能308の一部である。
VRシステム300は、複数の物理的なコントローラ310を含み得る。いくつかの実施形態例では、物理的なコントローラは、位置、速度および/または方位の観点から1つ以上の点においてVRシステムによって追跡される物理的なデバイスであるが、これに限定されるわけではない。たとえば、物理的なコントローラ310は、仮想コントローラ102および106(図1A〜図1B)ならびに/または仮想コントローラ200および202(図2A〜図2F)を操作するために使用される物理的なコントローラを含み得る。VRコントローラ306は、対応付け機能312によって物理的なコントローラ310のそれぞれと対応付けられる。たとえば、VRコントローラ306のうちの1つが物理的なコントローラ310のうちの1つ以上と対応付けられ得る。その後物理的なコントローラ310を使用して、それ自体が対応付けられたVRコントローラ306を操作可能である。この対応付けは、ユーザおよび/またはシステムによって変更可能である。
物理的なコントローラ310は、基本的に互いに同一であり得る。たとえば、各コントローラは他の物理的なコントローラと実質的に同じハードウェア構成(たとえば、その電子機器回路および外観の要素)を有し得、生成された信号(たとえば、固有の識別子)のいくつかの特徴によって区別可能である。他の実施形態例では、物理的なコントローラ310のうちの2つ以上は互いにいくつかの物理的な相違を有し得る。たとえば、ある物理的なコントローラ310は、右手で持たれるように構成された外観要素を有し得、他の物理的なコントローラ310は、左手で持たれるように構成された外観要素を有し得る。
検出システム314を使用可能である。検出システム314は、VRシステム300および/または物理的なコントローラ310の一部であり得る、または、他のユニットと相互作用する別のコンポーネントであり得るが、これは単なる例に過ぎない。検出システム314は、1つ以上のセンサ316を使用して物理的なコントローラ310のうちの少なくとも1つに関するいくつかの特徴を決定することに基づいている。この決定は、検出システム314と物理的なコントローラ310との間の結合318を用いて模式的に示されている。たとえば、1つ(または複数)のセンサ316は物理的なコントローラ310の上にまたはこの内部に位置決め可能であり、その位置、速度および/または方向を反映する信号を生成可能である。他の例として、1つ(または複数)のセンサ316は、ユーザがVRシステム300を使用している空間内で(たとえば、室内で)位置決め可能であり、1つまたは複数の態様で1つ(または複数)の物理的なコントローラ310の特徴を検出可能である。センサは、1つ以上の好適なセンシング技術を用いて動作可能である。たとえば、光学、オーディオ、電磁気信号または他の形態の通信を使用可能であるが、これらに限定されるわけではない。
検出システム314は、1つ(または複数)の物理的なコントローラ310に関するセンサデータに基づいて1つ以上の信号を生成可能である。いくつかの実施形態例では、位置、速度、および/または方位の推定を行うことができる。たとえば、この推定は、検出システム314によって行うことが可能であり、信号320によって割当て機能308に与えることが可能である。他の例として、信号320は1つ(または複数)の物理的なコントローラ310に関する生センサデータを含み、VRシステム300は、(たとえば、割当て機能308によって)1つまたは複数のタイプの推定を行うことが可能である。したがって、VRコントローラ306のうちの少なくとも1つに対する仮想機能304のうちの1つ以上の割当てを、信号320に基づいて更新可能である。
図4〜図5は、方法400および500の例を示す図である。これらの方法は、VRシステム300(図3)を含むコンピュータシステムにおいて実行可能であるが、これに限定されるわけではない。いくつかの実施形態例では、非一時的な記憶媒体に有形に記憶可能なコンピュータプログラム製品に命令が記憶されている。命令は、実行されると、プロセッサに方法400および/または500の動作を行わせことができる。1つ以上の追加のステップが行われてもよく、または行われるステップの数はより少なくてもよい。他の例として、2つ以上の動作を異なる順番で行うことができる。
方法400から始め、410において、仮想コントローラがコンピュータシステム内の物理的なコントローラと対応付けられる。420において、第1の機能が仮想コントローラに割当てられる。この割当てにより、物理的なコントローラを使用して第1の機能の性能が与えられる。430において、物理的なコントローラを用いて行われたジェスチャが検出される。440において、ジェスチャの検出に応じて、第1の機能は仮想コントローラから割当てを解除される、または、第2の機能が仮想コントローラに割当てられる。
次に方法500に進み、510において、センサデータを受信可能である。このセンサデータは、1つ以上の物理的なコントローラと関連し得る。520において、1つ(または複数)の物理的なコントローラに関する速度データをセンサデータから推定可能である。530において、1つ(または複数)の物理的なコントローラに関する位置データをセンサデータから推定可能である。540において、1つ(または複数)の物理的なコントローラに関する方位データをセンサデータから推定可能である。550において、1つ(または複数)の物理的なコントローラを用いてなされた1つ以上のジェスチャを検出可能である。これは図2A〜図2Fにおいて例示されたジェスチャを含み得るが、これらに限定されるわけではない。
図6A〜図6Cは、仮想コントローラのための機能割当ての他の例を示す図である。ここでは、仮想空間600は現在、仮想コントローラ602を含む。仮想コントローラ602を、物理的なコントローラ(図示せず)を用いて操作可能である。仮想コントローラ602は、それ自体に割当てられた1つ以上の機能を有しており、それらの機能のうちの一部は、仮想空間600において可視であるグリッド604によって模式的に示されている。たとえば、グリッド604は、ユーザが物理的なコントローラを用いて仮想コントローラ602を操作することによって現在行うことが可能な少なくとも1つの機能を示す。ここで、ユーザが仮想コントローラ602からグリッド604によって示される1つ(または複数)の機能を一時的に取り除こうとしていると仮定する。この目的のために、ユーザは、仮想空間600において定義されるポイント606を使用可能である。
いくつかの実施形態例では、ユーザは、仮想コントローラ602の少なくとも物理的なコントローラを用いて、あらかじめ定義されたジェスチャを行い得る。ジェスチャが行われたとシステムが認識すると、システムは代わりに、仮想コントローラ602の1つ以上の機能をポイント606に割当て可能である。図6Bは、グリッド604が仮想コントローラ602に現在割当てられているのではなく仮想空間600内のポイント606に現在割当てられていることを示す。この動作は、たとえば、ユーザがあらかじめ定義されたジェスチャを再度行うと元に戻せる。
仮想コントローラ602に割当てられた1つ以上の機能は、グリッド604が仮想コントローラ602からの割当てを解除された後も留まることが可能である。ここで、仮想コントローラ602には依然として先端部608が設けられている。先端部608は、グリッド604の割当て解除の前に仮想コントローラ602に割当てておくこともできる。たとえば、ペインティングを特徴とするVRプログラムにおいて、先端部608は、たとえばブラシ機能によって、仮想コントローラ602を用いてペイント(描画)する能力を模式的に示し得る。したがって、ユーザは、システムが仮想コントローラ602から他の1つ(または複数)の機能の割当てを解除した後も、仮想コントローラ602を使用してペイントまたは描画する能力を依然として有しうる。これによって、実用的な柔軟性がもたらされ得る。たとえば、図6Cは、システムが、仮想コントローラ602を操作するものではなく、他の物理的なコントローラを使用して操作される他の仮想コントローラ610を有し得ることを示す図である。仮想コントローラ610は、それ自体の対応する先端部612を有し得る。したがって、ユーザは現在、仮想空間600における仮想ペインティングのために、仮想コントローラ602および610のいずれか、または仮想コントローラ602および610の双方を同時に使用可能である。どこかの時点で、グリッド604の1つ(または複数)の機能を使用するために、ユーザは、必要とされるジェスチャを行ってポイント606から1つ(または複数の)機能の割当てを解除可能であり、代わりに、1つ(または複数)の機能を仮想コントローラ602および610のうちの少なくとも1つに割当てることが可能である。
図7は、ここで説明する技術を実現するために使用可能なコンピュータデバイス およびモバイルコンピュータデバイスの例を示す図である。図7は、ここで説明する技術と共に使用可能な、汎用コンピュータデバイス700および汎用モバイルコンピュータデバイス750の例を示す図である。コンピューティングデバイス700は、様々な形式のデジタルコンピュータ、たとえば、ラップトップ、デスクトップ、タブレット、ワークステーション、パーソナルデジタルアシスタント、テレビ、サーバ、ブレードサーバ、メインフレーム、および他の好適なコンピューティングデバイスを表すように意図されている。コンピューティングデバイス750は、様々な形式のモバイルデバイス、たとえば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、および他の類似のコンピューティングデバイスを表すように意図されている。ここで示すコンポーネント、これらの接続および関係、ならびにこれらの機能は、例示に過ぎないことが意図されており、本特許明細書で説明される発明および/または請求項の実施を限定するように意図されたものではない。
コンピューティングデバイス700は、プロセッサ702、メモリ704、記憶装置706、メモリ704と高速拡張ポート710とに接続する高速インターフェース708、および低速バス714と記憶装置706とに接続する低速インターフェース712を備える。プロセッサ702は、半導体を利用したプロセッサであり得る。メモリ704は、半導体を利用したメモリであり得る。コンポーネント702、704、706、708、710、および712の各々は、さまざまなバスを用いて相互接続されており、共通のマザーボードにまたは他の好適な態様で必要に応じて搭載可能である。プロセッサ702は、コンピューティングデバイス700内での実行のための命令を処理し得る。これらの命令は、高速インターフェース708に接続されたディスプレイ716などの、外部入出力デバイス上のGUIのために図形情報を表示するようにメモリ704または記憶装置706に記憶された命令を含む。他の実施形態例では、複数のプロセッサおよび/または複数のバスは、必要に応じて、複数のメモリおよび複数のタイプのメモリと共に使用可能である。また、複数のコンピューティングデバイス700は、必要な動作の一部を提供する各デバイスと接続され得る(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)。
メモリ704は、コンピューティングデバイス700内の情報を記憶する。ある実施形態例では、メモリ704は、1つまたは複数の揮発性メモリユニットである。他の実施形態例では、メモリ704は、1つまたは複数の不揮発性メモリユニットである。また、メモリ704は、磁気ディスクまたは光学ディスクなど、他の形式のコンピュータ可読媒体であり得る。
記憶装置706は、コンピューティングデバイス700のために大容量記憶装置を提供可能である。ある実施形態例では、記憶装置706は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の類似の固体状態記憶装置デバイス、またはストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスの配列であり得る、またはこれらを含み得る。コンピュータプログラム製品は、情報担体において有形に具現化可能である。また、コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を行う命令も含み得る。情報担体は、メモリ704、記憶装置706、またはプロセッサ702上のメモリなど、コンピュータ可読媒体またはマシン可読媒体である。
高速コントローラ708はコンピューティングデバイス700のための帯域幅集中操作を処理する一方で、低速コントローラ712は、より低い帯域幅集中操作を処理する。機能のこのような割当ては、例示にすぎない。ある実施形態例では、高速コントローラ708は、メモリ704、ディスプレイ716(たとえば、グラフィックプロセッサまたはアクセラレータを介して)、および、さまざまな拡張カード(図示せず)を受け付け可能な高速拡張ポート710に接続される。本実施形態例では、低速コントローラ712は、記憶装置706および低速拡張ポート714に接続される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、たとえばネットワークアダプタを介して、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力デバイス、または、スイッチもしくはルータなどのネットワーキングデバイスに接続可能である。
コンピューティングデバイス700は、図に示すように、多くの異なる形式で実現可能である。たとえば、標準的なサーバ720として、またはそのようなサーバのグループにおいて何度も実現可能である。また、ラックサーバシステム724の一部としても実現可能である。さらに、ラップトップコンピュータ722などのパーソナルコンピュータにおいて実現可能である。代替的に、コンピューティングデバイス700からのコンポーネントは、デバイス750などのモバイルデバイス(図示せず)における他のコンポーネントと組み合わせ得る。このようなデバイスの各々は、コンピューティングデバイス700、750のうちの1つ以上を含み得、システム全体を、互いに通信する複数のコンピューティングデバイス700、750で構成し得る。
コンピューティングデバイス750は、他のコンポーネントのうち、プロセッサ752、メモリ764、ディスプレイ754などの入出力デバイス、通信インターフェース766、およびトランシーバ768を含む。また、デバイス750には、追加のストレージを提供するために、マイクロドライブまたは他のデバイスなどの記憶デバイスが設けられ得る。コンポーネント750、752、764、754、766、および768の各々は、さまざまなバスを用いて相互接続され、これらのコンポーネントのうちの複数は、共通のマザーボードにまたは必要に応じて他の態様で搭載され得る。
プロセッサ752は、メモリ764に記憶された命令を含む、コンピューティングデバイス750内の命令を実行可能である。プロセッサは、別々の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現可能である。プロセッサは、たとえば、ユーザインターフェース、デバイス750によって実行されるアプリアケーション、およびデバイス750による無線通信の制御など、デバイス750の他のコンポーネントの協調をもたらし得る。
プロセッサ752は、ディスプレイ754に接続された制御インターフェース758およびディスプレイインターフェース756を介してユーザと通信可能である。ディスプレイ754は、たとえば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)もしくはOELD(有機発光ダイオード)ディスプレイ、または他の好適なディスプレイ技術であり得る。ディスプレイインターフェース756は、ディスプレイ754を駆動してユーザにグラフィカル情報および他の情報を提示するための好適な回路を含み得る。制御インターフェース758は、ユーザからのコマンドを受信し得、プロセッサ752に送信するためにコマンドを変換し得る。さらに、外部インターフェース762は、デバイス750の他のデバイスとの近距離通信が可能になるように、プロセッサ752との通信において提供され得る。外部インターフェース762は、たとえば、いくつかの実施形態例では有線通信を提供し得る、または他の実施形態例では無線通信を提供し得る、かつ、複数のインターフェースも使用し得る。
メモリ764は、コンピューティングデバイス750内の情報を記憶する。メモリ764は、1つもしくは複数のコンピュータ可読媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットのうちの1つまたは複数として実現可能である。また、拡張メモリ774を、拡張インターフェース772を通じてデバイス750に設ける、および接続することが可能であり、このインターフェースは、たとえば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含み得る。このような拡張メモリ774は、デバイス750のために追加の記憶空間を提供し得る、または、デバイス750のためにアプリケーションまたは他の情報を記憶し得る。具体的に、拡張メモリ774は、上述の処理の実行または補足を行う命令を含み得、セキュアな情報も含み得る。そのため、たとえば、拡張メモリ774はデバイス750のためのセキュリティーモジュールとして提供可能であり、デバイス750のセキュアな使用を許可する命令でプログラム可能である。さらに、セキュアなアプリケーションは、追加の情報と共にSIMMカードを介して提供され得、たとえば、ハッキング不可能な態様でSIMMカードに識別情報を置く。
メモリは、たとえば、以下で説明するように、フラッシュメモリおよび/またはNVRAMメモリを含み得る。一実施形態例では、コンピュータプログラム製品は、情報担体において有形に具現化される。コンピュータプログラム製品は、実行されると、上述のような1つまたは複数の方法を行う命令を含む。情報担体は、たとえばトランシーバ768もしくは外部インターフェース762を介して受信可能なメモリ764、拡張メモリ774、またはプロセッサ752上のメモリなどの、コンピュータ可読媒体またはマシン可読媒体である。
デバイス750は、必要に応じてデジタル信号処理回路を含み得る通信インターフェース766を介して無線通信可能である。通信インターフェース766は、とりわけ、GSM(登録商標)音声電話、SMS、EMSもしくはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなどの、さまざまなモードまたはプロトコールで通信を提供し得る。このような通信は、たとえば、無線周波トランシーバ768を通じて発生し得る。さらに、近距離通信は、ブルートゥース、WiFiまたは他のそのようなトランシーバ(図示せず)を使用することによって発生し得る。さらに、GPS(全地球測位システム)レシーバモジュール770は、追加のナビゲーション関連無線データおよび位置関連無線データをデバイス750に提供し得る。これらの情報は、デバイス750上で実行されているアプリケーションによって必要に応じて使用され得る。
デバイス750は、ユーザからの音声情報を受信して利用可能なデジタル情報に変換し得るオーディオコーデック760を用いて、可聴的に通信することも可能である。同様に、オーディオコーデック760は、たとえばデバイス750のハンドセットにおいてスピーカを通して、ユーザのために可聴音を生成することも可能である。このような音は、電話音声コールからの音を含み得る、記録された音(たとえば、ボイスメッセージ、ミュージックファイルなど)を含み得る、および、デバイス750上で動作するアプリケーションによって生成された音も含み得る。
コンピューティングデバイス750は、図に示すように、複数の異なる形式で実現可能である。たとえば、携帯電話780として実現可能である。また、スマートフォン782、パーソナルデジタルアシスタント、または他の類似のモバイルデバイスの一部としても実現可能である。
ユーザは、追跡されたコントローラ784を用いてコンピューティングデバイスと相互作用可能である。いくつかの実施形態例では、コントローラ784は、手、足、頭および/または胴体などのユーザの体の移動を追跡可能であり、追跡された動きに対応する入力を生成することも可能である。入力は、たとえば3次元など、動きの1つ以上の次元で移動に対応し得る。たとえば、追跡されたコントローラは、VRアプリケーションにおいて1つ以上の仮想コントローラと対応付けられた、VRアプリケーション用の物理的なコントローラであり得る。他の例として、コントローラ784は、データグローブを含み得る。
ここで説明するシステムおよび技術のさまざまな実施形態例は、デジタル電子回路、集積回路、特別に設計されたASICs(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組合せで実現可能である。これらのさまざまな実施形態例は、特定のまたは一般の目的でもよい、記憶システムとの間でデータおよび命令を送受信するように接続された少なくとも1つのプログラム可能なプロセッサ、少なくとも1つの入力デバイス、ならびに少なくとも1つの出力デバイスを含むプログラム可能なシステム上で実行可能なおよび/または解釈可能な1つ以上のコンピュータプログラムにおける実施形態例を含み得る。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られている)は、プログラム可能なプロセッサのための機械命令を含み、ハイレベル手順のおよび/またはオブジェクト指向のプログラミング言語および/またはアセンブリ/機械言語で実現可能である。ここで使用されているように、「機械可読媒体」「コンピュータ可読媒体」という用語は、機械可読信号として機械命令を受信する機械可読媒体を含むプログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラム製品、装置および/またはデバイス(たとえば、磁気ディスク、光学ディスク、メモリ、プログラム可能論理デバイス(PLDs))を表す。「機械可読信号」という用語は、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される信号を表す。
ユーザとの相互作用を提供するために、ここで説明されるシステムおよび技術は、情報をユーザに表示するためのディスプレイデバイス(たとえば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、ユーザが入力をコンピュータに提供可能なキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)を有するコンピュータ上で実現可能である。他の種類のデバイスを使用してユーザとの相互作用を提供することも可能である。たとえば、ユーザに提供されるフィードバックはいかなる形式の感覚フィードバック(たとえば、視覚的なフィードバック、聴覚的なフィードバック、または触覚的なフィードバック)でもよい、かつ、ユーザからの入力は、聴覚的な入力、音声入力、または触覚的な入力を含むいかなる形式でも受信可能である。
ここで説明されるシステムおよび技術は、バックエンドコンポーネント(たとえば、データサーバ)を含む、または、ミドルウェアコンポーネント(たとえば、アプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、それを通じて、ユーザがここで説明されるシステムおよび技術の実現と相互作用可能なグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータ)を含むコンピューティングシステムにおいて実現可能である。システムのコンポーネントは、デジタルデータ通信(たとえば、通信ネットワーク)のいかなる形式でもまたは媒体によっても相互接続可能である。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットが挙げられる。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、通常互いに離れており、通信ネットワークを介して相互接続することが一般的である。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行され相互にクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
いくつかの実施形態例では、図7に示すコンピューティングデバイスは、仮想現実(VRヘッドセット785)と相互作用するセンサを含み得る。たとえば、コンピューティングデバイス750または図7に示す他のコンピューティングデバイスに含まれる1つ以上のセンサは、入力をVRヘッドセット785へ、または一般に、入力をVR空間へ提供可能である。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および環境光センサを含み得るが、これらに限定されるわけではない。コンピューティングデバイス750は、これらのセンサを用いてVR空間内のコンピューティングデバイスの絶対位置および/または検出された回転を求めることができ、これはその後、VR空間への入力として使用可能である。たとえば、コンピューティングデバイス750は、コントローラ、レーザーポインタ、キーボード、武器など、仮想オブジェクトとしてVR空間に組込むことができる。VR空間に組込まれると、ユーザによるコンピューティングデバイス/仮想オブジェクトの位置決めによって、ユーザは、コンピューティングデバイスを位置決めして、VR空間内で特定の態様で仮想オブジェクトを眺めることができる。たとえば、仮想オブジェクトがレーザポインタを表す場合、ユーザは、それがあたかも実際のレーザポインタであるかのようにコンピューティングデバイスを操作可能である。ユーザは、コンピューティングデバイスを、たとえば左右、上下、円形に移動させることが可能であり、レーザプリンタを使用する態様と類似の態様でデバイスを使用可能である。
いくつかの実施形態例では、コンピューティングデバイス750に備えられる、またはこれに接続する1つ以上の入力デバイスを、VR空間への入力として使用可能である。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能を有するイヤホンもしくはイヤーバッド、ゲームコントローラ、または他の接続可能な入力デバイスを含み得るが、これらに限定されるわけではない。コンピューティングデバイスがVR空間に組込まれるとコンピューティングデバイス750に含まれる入力デバイスと相互作用するユーザは、VR空間において特定のアクションを発生させ得る。
いくつかの実施形態例では、コンピューティングデバイス750のタッチスクリーンは、VR空間内のタッチパッドとして提供され得る。ユーザは、コンピューティングデバイス750のタッチスクリーンと相互作用可能である。たとえばVRヘッドセット785において、相互作用は、VR空間のタッチパッドにおいて提供される動きとして提供される。提供される動きは、VR空間のオブジェクトを制御可能である。
いくつかの実施形態例では、コンピューティングデバイス750に含まれる1つ以上の出力デバイスは、VR空間のVRヘッドセット785のユーザへ出力および/またはフィードバックを提供可能である。出力およびフィードバックは、視覚的、触覚的、可聴的であり得る。出力および/またはフィードバックは、振動、1つ以上のライトまたはストロボのオンオフまたは点滅および/またはフラッシュ、警告音の再生、チャイムの鳴動、歌の再生、および音声ファイルの再生を含み得るが、これらに限定されるわけではない。出力デバイスは、振動モータ、振動コイル、圧電素子、静電素子、発光ダイオード(LEDs)、ストロボ、およびスピーカを含み得るが、これらに限定されるわけではない。
いくつかの実施形態例では、コンピューティングデバイス750は、コンピュータによって生成された3D環境における他のオブジェクトとして表示され得る。ユーザによるコンピューティングデバイス750との相互作用(たとえば、回転、揺れ、タッチスクリーンとの接触、タッチスクリーンを横断する指のスワイプ)は、VR空間におけるオブジェクトとの相互作用として解釈可能である。VR空間におけるレーザポインタの例では、コンピューティングデバイス750は、コンピュータによって生成される3D環境における仮想レーザーポインタとして表示される。ユーザがコンピューティングデバイス750を操作すると、VR空間におけるユーザは、レーザポインタの移動が見える。ユーザは、コンピューティングデバイス750上のまたはVRヘッドセット785上のVR空間におけるコンピューティングデバイス750との相互作用からフィードバックを受信する。
複数の実施形態について説明を行ったが、本発明の精神および範囲内でさまざまな修正が可能であることが理解されるであろう。
さらに、図面に示される論理の流れは、望ましい結果を得るために、図示された特定の順序または順番を必要とするものではない。さらに、上述の流れに他のステップを設けることが可能である、または、上述の流れからステップを削除することが可能である、および、説明されたシステムに他のコンポーネントを追加可能である、または、説明されたシステムからコンポーネントを削除可能である。そのため、他の実施形態は、以下の特許請求の範囲内である。
ここで、仮想ツールボックス114上のホイール116は、ペインティング環境のブラシ機能のためのパレットに対応する。したがって、ホイール116は、ペインティング環境において1つ以上のパレット機能のために使用可能である。たとえば、先端部110をホイール116の選択された部分に接触させて特定の色、テクスチャ、パターン、および/または他のペイント特徴をペイントブラシに割当てることが可能である。たとえば、ブラシストローク112の1つ以上の特徴は、ホイール116を使用して制御可能である。1つ以上の他の機能を、ツールボックス114と対応付けることが可能である。ここでは、機能118が模式的に示されている。これらは、ペインティング環境の他の機能、たとえば、異なるマーク付け実行(ペンなど)の選択および/または現在のマーク付け実行(濃さなど)のあるアスペクトの変更などに関連し得る。
図2A〜図2Fは、仮想コントローラのための機能割当ての他の例を示す図である。ここでは、仮想コントローラ200および202が仮想空間204において示されている。たとえば、仮想空間204を、VRヘッドセットを用いてまたは他の方法で眺めることができる。現在、仮想コントローラ202は、「D」というラベルによって示されるように、支配的なコントローラである。このラベルは、ここでは例示のために用いられており、仮想空間204において可視である必要はない。支配的なコントローラとして定義されたことにより、少なくとも1つの機能が仮想コントローラ202に割当て可能である。

Claims (21)

  1. コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと、
    第1の機能を前記仮想コントローラに割当てて、前記物理的なコントローラを用いて前記第1の機能の性能を提供することと、
    前記物理的なコントローラを用いて行われたジェスチャを検出することと、
    前記ジェスチャの検出に応じて、前記仮想コントローラから前記第1の機能の割当てを解除する、および/または、第2の機能を前記仮想コントローラに割当てることとを備える、方法。
  2. 前記仮想コントローラは第1の仮想コントローラであり、前記物理的なコントローラは第1の物理的なコントローラであり、前記方法はさらに、
    前記コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、
    前記第2の機能を前記第2の仮想コントローラに割当てることとを備える、請求項1に記載の方法。
  3. 前記ジェスチャの検出に応じて、前記第1の機能は前記第1の仮想コントローラからの割当てを解除され、前記第1の機能は前記第2の仮想コントローラに割当てられ、前記第2の機能は前記第2の仮想コントローラからの割当てを解除され、前記第2の機能は前記第1の仮想コントローラに割当てられる、請求項2に記載の方法。
  4. 前記第1の機能は仮想ペインティングプログラムにおいてブラシ機能を含み、前記第2の機能は前記仮想ペインティングプログラムにおいてパレット機能を含み、前記ジェスチャの検出は前記仮想ペインティングプログラムにおいて前記ブラシ機能および前記パレット機能のスワッピングを引き起こす、請求項3に記載の方法。
  5. 前記ジェスチャは前記第1および第2の物理的なコントローラを用いてなされる、請求項2〜4のいずれか1項に記載の方法。
  6. 前記ジェスチャは、前記第1および第2の物理的なコントローラが互いに近づけられその後互いに遠ざけられることを含む、請求項5に記載の方法。
  7. 前記ジェスチャは、前記第1および第2の物理的なコントローラのそれぞれの端部が互いに近づけられその後互いに遠ざけられることを含む、請求項5に記載の方法。
  8. 前記第1および第2の物理的なコントローラの前記それぞれの端部は、前記第1および第2の物理的なコントローラの底端部である、請求項7に記載の方法。
  9. 前記第1および第2の物理的なコントローラは互いに同一である、請求項2〜8のいずれか1項に記載の方法。
  10. 前記コンピュータシステムにおけるデフォルトとして、前記ジェスチャの検出に応じて、前記仮想コントローラからの前記第1の機能の割当ての解除、または、前記第2の機能の前記仮想コントローラとの対応付けを記憶する、前述の請求項のいずれか1項に記載の方法。
  11. 前記仮想コントローラは前記コンピュータシステムによって生成された仮想空間において定義され、前記第1の機能は前記ジェスチャの検出に応じて前記仮想コントローラからの割当てを解除され、前記方法はさらに、前記仮想空間においてポイントを定義することと、前記ジェスチャの検出に応じて、前記第1の機能を前記ポイントと対応付けることとを備える、請求項1に記載の方法。
  12. 前記第2の機能は、前記ジェスチャが検出される前に前記仮想コントローラに既に割当てられている、請求項11に記載の方法。
  13. 前記仮想コントローラは第1の仮想コントローラであり、前記物理的なコントローラは第1の物理的なコントローラであり、前記方法はさらに、
    前記コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、
    前記第2の機能を前記第2の仮想コントローラに割当てることとを備える、請求項11または12に記載の方法。
  14. 前記第2の機能を前記第1の仮想コントローラにも割当てることをさらに備える、請求項13に記載の方法。
  15. 前記第1の機能は仮想ペインティングプログラムにおいてパレット機能を含み、前記第2の機能は前記仮想ペインティングプログラムにおいてブラシ機能を含み、前記第1の仮想コントローラからの前記第1の機能の割当ての解除によって、前記第1および第2の物理的なコントローラの双方を使用して前記仮想ペインティングプログラムにおいて前記ブラシ機能を実行できる、請求項14に記載の方法。
  16. 前記ジェスチャはセンサを用いて検出される、前述の請求項のいずれか1項に記載の方法。
  17. 前記センサは前記物理的なコントローラ上に位置する、請求項16に記載の方法。
  18. 前記センサによって生成されたセンサデータから、前記物理的なコントローラに関する速度および位置情報を推定することをさらに備える、請求項16または17に記載の方法。
  19. 前記センサデータから前記物理的なコントローラに関する方位データを推定することをさらに備える、請求項16〜18のいずれか1項に記載の方法。
  20. 非一時的な記憶媒体において有形に具現化された、実行されるとプロセッサに請求項1〜19のいずれか1項に記載の操作を行わせる命令を含むコンピュータプログラム製品。
  21. プロセッサと、
    実行されると前記プロセッサに請求項1〜19のいずれか1項に記載の操作を行わせる命令を含む、非一時的な記憶媒体において有形に具現化されたコンピュータプログラム製品とを備える、システム。
JP2019520892A 2017-01-19 2017-10-30 仮想コントローラのための機能割当て Active JP6859433B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762448172P 2017-01-19 2017-01-19
US62/448,172 2017-01-19
US15/794,265 2017-10-26
US15/794,265 US10459519B2 (en) 2017-01-19 2017-10-26 Function allocation for virtual controller
PCT/US2017/059029 WO2018136126A1 (en) 2017-01-19 2017-10-30 Function allocation for virtual controller

Publications (2)

Publication Number Publication Date
JP2020500356A true JP2020500356A (ja) 2020-01-09
JP6859433B2 JP6859433B2 (ja) 2021-04-14

Family

ID=62838710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019520892A Active JP6859433B2 (ja) 2017-01-19 2017-10-30 仮想コントローラのための機能割当て

Country Status (6)

Country Link
US (1) US10459519B2 (ja)
EP (1) EP3571571B1 (ja)
JP (1) JP6859433B2 (ja)
KR (1) KR102290933B1 (ja)
CN (1) CN109716267B (ja)
WO (1) WO2018136126A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065421B1 (ko) * 2017-08-10 2020-01-13 엘지전자 주식회사 모바일 기기 및 모바일 기기를 활용한 가상현실 기기 컨트롤러 구동 방법.
US11861136B1 (en) * 2017-09-29 2024-01-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with virtual reality environments
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350838A (ja) * 2005-06-17 2006-12-28 Fujitsu Ltd 情報処理装置およびプログラム
JP2010245796A (ja) * 2009-04-06 2010-10-28 Sony Corp 映像表示装置および方法、映像表示システム、並びにプログラム
JP2011227628A (ja) * 2010-04-16 2011-11-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR20130027006A (ko) * 2009-11-13 2013-03-14 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
JP2013522766A (ja) * 2010-03-16 2013-06-13 インターフェイズ・コーポレーション 対話型表示システム
WO2014080829A1 (ja) * 2012-11-22 2014-05-30 シャープ株式会社 データ入力装置
WO2016029183A1 (en) * 2014-08-22 2016-02-25 Sony Computer Entertainment Inc. Glove interface object

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070155589A1 (en) 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
US20060097453A1 (en) 2002-12-04 2006-05-11 Philip Feldman Game controller with force sensing input devices and method of measuring applied forces to game controller input devices to interact with a gaming application
JP5204381B2 (ja) * 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US20110276891A1 (en) * 2010-05-06 2011-11-10 Marc Ecko Virtual art environment
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
US20130265240A1 (en) * 2012-04-06 2013-10-10 At&T Intellectual Property I, Lp Method and apparatus for presenting a virtual touchscreen
US9254437B2 (en) 2012-04-25 2016-02-09 Electronic Entertainment Design And Research Interactive gaming analysis systems and methods
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US11826636B2 (en) * 2013-07-12 2023-11-28 Chris Argiro Depth sensing module and mobile device including the same
CN103442244A (zh) 2013-08-30 2013-12-11 北京京东方光电科技有限公司 3d眼镜、3d显示系统及3d显示方法
JP2015114836A (ja) * 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
US9937415B1 (en) * 2013-12-17 2018-04-10 Amazon Technologies, Inc. Virtual controller for touchscreen
FR3016451B1 (fr) * 2014-01-10 2017-06-23 Inria Inst Nat De Rech En Informatique Et En Automatique Systeme d'interaction avec des objets virtuels
WO2015149163A1 (en) * 2014-04-03 2015-10-08 Macro Technology Ltd. Co-extrusion die with rectangular feed channel
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
US10286308B2 (en) * 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
WO2016094568A1 (en) * 2014-12-10 2016-06-16 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
EP3262437B1 (en) * 2015-02-27 2024-04-10 Valve Corporation Controller visualization in virtual and augmented reality environments
US10102674B2 (en) 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
WO2017082457A1 (ko) * 2015-11-11 2017-05-18 엘지전자 주식회사 Hmd 및 그 hmd의 제어 방법
CN105892675A (zh) 2016-04-26 2016-08-24 乐视控股(北京)有限公司 基于手柄控制虚拟现实头盔的方法、装置及系统
KR102086941B1 (ko) * 2016-05-12 2020-03-11 서크 코퍼레이션 정전식 센싱을 이용한 컨트롤러 예감
CN106325735A (zh) * 2016-07-19 2017-01-11 钟林 一种利用方位手势触摸操作电子游戏的方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350838A (ja) * 2005-06-17 2006-12-28 Fujitsu Ltd 情報処理装置およびプログラム
JP2010245796A (ja) * 2009-04-06 2010-10-28 Sony Corp 映像表示装置および方法、映像表示システム、並びにプログラム
KR20130027006A (ko) * 2009-11-13 2013-03-14 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
JP2013522766A (ja) * 2010-03-16 2013-06-13 インターフェイズ・コーポレーション 対話型表示システム
JP2011227628A (ja) * 2010-04-16 2011-11-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2014080829A1 (ja) * 2012-11-22 2014-05-30 シャープ株式会社 データ入力装置
WO2016029183A1 (en) * 2014-08-22 2016-02-25 Sony Computer Entertainment Inc. Glove interface object

Also Published As

Publication number Publication date
EP3571571A1 (en) 2019-11-27
JP6859433B2 (ja) 2021-04-14
US10459519B2 (en) 2019-10-29
CN109716267B (zh) 2022-11-29
WO2018136126A1 (en) 2018-07-26
US20180203502A1 (en) 2018-07-19
KR20190059946A (ko) 2019-05-31
EP3571571A4 (en) 2020-11-04
CN109716267A (zh) 2019-05-03
EP3571571B1 (en) 2023-10-25
KR102290933B1 (ko) 2021-08-19

Similar Documents

Publication Publication Date Title
US11181986B2 (en) Context-sensitive hand interaction
JP6895390B2 (ja) 仮想現実においてハンドヘルド電子装置を追跡するためのシステム
JP6633256B1 (ja) 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成
US10642344B2 (en) Manipulating virtual objects with six degree-of-freedom controllers in an augmented and/or virtual reality environment
CN109074154B (zh) 增强和/或虚拟现实中的悬停触摸输入补偿
KR102233807B1 (ko) 가상 현실 시스템을 위한 입력 제어기 안정화 기법
CN111373349B (zh) 用于在增强现实环境中导航的方法、设备及存储介质
KR102338835B1 (ko) 증강 및/또는 가상 현실 환경에서의 세션 종료 검출
KR102251252B1 (ko) 가상 현실에서의 위치 지구본
JP7030854B2 (ja) 仮想現実システム内の仮想コントローラの位置および向きの追跡
JP2023526270A (ja) 低電力セミパッシブ相対6自由度トラッキング
JP2020500356A (ja) 仮想コントローラのための機能割当て
CN110520826B (zh) 增强和/或虚拟现实环境中的智能命令合批
EP3582080A1 (en) Systems and methods for integrating haptics overlay in augmented reality
WO2023283145A1 (en) Method and device for dynamically selecting an operation modality for an object
KR20240036582A (ko) 물리적 객체와의 사용자 인터페이스에 대한 상호작용들을 관리하기 위한 방법 및 디바이스

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250