JP6883394B2 - Programs, computers and methods - Google Patents
Programs, computers and methods Download PDFInfo
- Publication number
- JP6883394B2 JP6883394B2 JP2016152763A JP2016152763A JP6883394B2 JP 6883394 B2 JP6883394 B2 JP 6883394B2 JP 2016152763 A JP2016152763 A JP 2016152763A JP 2016152763 A JP2016152763 A JP 2016152763A JP 6883394 B2 JP6883394 B2 JP 6883394B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- controller
- virtual space
- output data
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 10
- 230000033001 locomotion Effects 0.000 claims description 46
- 230000009471 action Effects 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 description 38
- 238000001514 detection method Methods 0.000 description 30
- 238000006073 displacement reaction Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 238000010009 beating Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 240000005561 Musa balbisiana Species 0.000 description 1
- 235000021015 bananas Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ヘッドマウントディスプレイとコントローラとを連動させてヘッドマウントディスプレイ上の表示を画面操作するシステム、方法、及びプログラムに関し、より詳細には、ヘッドマウントディスプレイと、外部ネットワークとの通信機能を有するコントローラとを連動させて画面操作するシステムに関する。 The present invention relates to a system, a method, and a program for interlocking a head-mounted display and a controller to operate a screen on a display on the head-mounted display, and more particularly, having a communication function between the head-mounted display and an external network. It relates to a system that operates the screen in conjunction with a controller.
ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザに画像を提示することが可能なヘッドマウントディスプレイ(HMD)が知られている。従来のHMDのコントローラは本体装置を介してインターネットなどの外部ネットワークと接続されるため、コントローラ自体が外部ネットワークと通信することはない。また、従来のコントローラは、HMDに接続するための専用のコントローラを必要とする。 There is known a head-mounted display (HMD) that is attached to the user's head and can present an image to the user by a display or the like placed in front of the eyes. Since the conventional HMD controller is connected to an external network such as the Internet via the main unit, the controller itself does not communicate with the external network. In addition, the conventional controller requires a dedicated controller for connecting to the HMD.
さらに、従来、HMDにおける表示画像の各種操作に用いるコントローラは、ボタン、キーによる操作が主流であり、センサディスプレイは備えていない。そのようなコントローラは、最近では、動きを検出可能なセンサ(例えば加速度センサ)を内蔵し、コントローラの動きを検出する装置が開発されている。 Further, conventionally, the controller used for various operations of the display image in the HMD is mainly operated by buttons and keys, and does not have a sensor display. Recently, such a controller has a built-in sensor capable of detecting motion (for example, an acceleration sensor), and a device for detecting the motion of the controller has been developed.
上記背景技術に係るシステムにおいては、コントローラ自体が外部ネットワークに接続する機能を備えていないため、コントローラ自体がインターネットに接続する際には必ず本体装置に接続していた。 In the system related to the above background technology, since the controller itself does not have a function of connecting to an external network, the controller itself is always connected to the main unit when connecting to the Internet.
また、従来のHMDと接続されるコントローラはボタン、キー、動きを検出可能なセンサからの入力による操作が可能であるが、センサディスプレイを備えていないため、直感的なより細かい操作を行うことができなかった。特にボタン、キーによる操作の場合、HMDを装着して完全に仮想空間にユーザが没入していると、ユーザが操作しようとしている現在の状態(ユーザの指がどのキー、ボタンに置かれているか)を、ユーザは認識することができないため、ユーザの指が所望のキーやボタンから外れていると、ユーザが所望しない操作が行われていた。 In addition, the controller connected to the conventional HMD can be operated by input from a sensor that can detect buttons, keys, and movements, but since it does not have a sensor display, it is possible to perform more intuitive and detailed operations. could not. Especially in the case of button and key operation, if the user is completely immersed in the virtual space with the HMD attached, the current state that the user is trying to operate (which key or button the user's finger is placed on) ) Can not be recognized by the user. Therefore, when the user's finger is removed from the desired key or button, an operation undesired by the user is performed.
また、1つの操作画面を同じ空間に位置する複数のユーザで共有して操作する場合に、従来のシステムでは複数のコントローラが1つの本体装置に接続されるため、本体装置への負荷が高かった。また従来のシステムでは、1つの操作画面を、別個の空間に位置する複数のユーザで共有して操作する場合に、複数のコントローラはそれぞれ空間毎に別々の本体装置に接続し、ネットワークを介して各本体装置をサーバに接続して通信していた。この場合、複数のコントローラに対し別個の本体装置が必要となる。 Further, when one operation screen is shared and operated by a plurality of users located in the same space, the load on the main body device is high because a plurality of controllers are connected to one main body device in the conventional system. .. Further, in the conventional system, when one operation screen is shared and operated by a plurality of users located in different spaces, the plurality of controllers are connected to different main units for each space and via a network. Each main unit was connected to the server for communication. In this case, a separate main unit is required for a plurality of controllers.
さらに、HMDの操作に専用のコントローラが必要となる場合、ユーザは、HMD操作の都度専用のコントローラを持ち運ぶ必要があった。 Further, when a dedicated controller is required for the operation of the HMD, the user needs to carry a dedicated controller for each HMD operation.
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、HMDと外部との通信機能を備えたコントローラとを連動させるシステムを提供することにある。さらに、本発明は、そのコントローラは外部との通信機能を備えていることから、本体装置に接続する際に、外部サーバから接続に必要なソフトウェアをダウンロードすることができるため、本体装置に専用である必要はなく、一般に流通している端末、例えば携帯端末、スマートフォンを用いることができる。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a system for linking an HMD and a controller having a communication function with the outside. Further, in the present invention, since the controller has a communication function with the outside, when connecting to the main body device, software necessary for the connection can be downloaded from the external server, so that the controller is dedicated to the main body device. It is not necessary to have a terminal, and a generally distributed terminal such as a mobile terminal or a smartphone can be used.
(1)本発明は、
生成画像をヘッドマウントディスプレイへ出力するシステムであって、該システムは、
実行中のアプリケーションの内容に応じて求められるユーザ操作を判定する操作判定部と、
コントローラからの出力データから、前記求められるユーザ操作に対応する出力データを検出する入力検出部と、
検出された前記出力データに基づき表示オブジェクトの動作を判定する動作判定部と、
判定された表示オブジェクトの前記動作、及び前記検出された出力データに基づいて、表示オブジェクトの表示パラメータを演算して、仮想空間上に表示される表示オブジェクトの画像を生成する表示演算部と、
仮想空間上の画像に生成された表示オブジェクトの画像を配置した画像を生成して前記システムに接続されたヘッドマウントディスプレイへ出力する画像生成出力部と、
を備えており、
前記コントローラの通信部がインターネットを介してサーバから受信したコントローラ側インタフェースプログラムと、前記システムのシステム側インタフェースプログラムにより、前記コントローラと前記システムが接続されていることを特徴とする、システムに関係する。
(1) The present invention
A system that outputs the generated image to a head-mounted display.
An operation judgment unit that determines the user operation required according to the content of the running application,
An input detection unit that detects output data corresponding to the required user operation from the output data from the controller, and
An operation determination unit that determines the operation of the display object based on the detected output data,
A display calculation unit that calculates the display parameters of the display object based on the determined operation of the display object and the detected output data to generate an image of the display object displayed in the virtual space.
An image generation output unit that generates an image in which an image of a display object generated in an image in virtual space is arranged and outputs it to a head-mounted display connected to the system, and an image generation output unit.
Is equipped with
The present invention relates to a system, wherein the controller and the system are connected by a controller-side interface program received from a server by a communication unit of the controller and a system-side interface program of the system.
本発明によれば、外部ネットワークとの通信機能を備えたコントローラを利用することで、コントローラは本体装置に接続していなくとも、コントローラ自体が外部サーバから入手可能な様々な情報、動画、画像、音声、その他情報(例えば地図情報、気象情報、株価情報、アプリケーション)を入手し、HMDに提示される仮想空間に反映することができる。さらに、本発明は、そのコントローラは外部との通信機能を備えていることから、本体装置に接続する際に、外部サーバから本体装置との接続に必要なソフトウェアをダウンロードすることができるため、本体装置に専用である必要はない。従って、本発明によれば、近年、一般的に普及しているスマートフォンなどの携帯端末をHMDのコントローラとして利用することができ、ユーザは専用のコントローラを必要とせずにHMDを操作することができる。 According to the present invention, by using a controller having a communication function with an external network, various information, moving images, images, and the like can be obtained from the external server even if the controller itself is not connected to the main unit. Voices and other information (for example, map information, weather information, stock price information, applications) can be obtained and reflected in the virtual space presented to the HMD. Further, in the present invention, since the controller has a communication function with the outside, when connecting to the main body device, software necessary for connecting to the main body device can be downloaded from the external server, so that the main body It does not have to be dedicated to the device. Therefore, according to the present invention, a mobile terminal such as a smartphone, which has become popular in recent years, can be used as an HMD controller, and the user can operate the HMD without requiring a dedicated controller. ..
(2)また、本発明は、コントローラからの出力データは、前記コントローラのセンサディスプレイからのユーザによる操作入力に基づいて生成された出力データであることができる。さらに、本発明は、操作入力は、スワイプ操作、タップ操作、又はピンチイン・ピンチアウト操作であることができる。 (2) Further, in the present invention, the output data from the controller can be output data generated based on the operation input by the user from the sensor display of the controller. Further, in the present invention, the operation input can be a swipe operation, a tap operation, or a pinch-in / pinch-out operation.
本発明によれば、センサディスプレイを備えたコントローラを利用することで、ユーザはHMDに対し直感的で詳細なさまざまな操作(スワイプ操作、タップ操作、ピンチ操作)を行うことができる。ユーザは、HMDを装着して完全に仮想空間に没入していると、ユーザが操作しようとしている現在の状態(ユーザの指がどのキー、ボタンに置かれているか)を、ユーザは認識することができない。本発明によるコントローラはセンサディスプレイを備えており、ユーザは直感的な様々な操作を行うことができる。 According to the present invention, by using the controller provided with the sensor display, the user can perform various intuitive and detailed operations (swipe operation, tap operation, pinch operation) on the HMD. When the user wears the HMD and is completely immersed in the virtual space, the user recognizes the current state (which key or button the user's finger is placed on) that the user is trying to operate. I can't. The controller according to the present invention includes a sensor display, and the user can perform various intuitive operations.
(3)また、本発明は、コントローラからの出力データは、前記コントローラのマイクからのユーザによる音声入力に基づいて生成された出力データであることができる。さらに、本発明は、仮想空間上に表示される表示オブジェクトの画像は、ユーザによる音声入力に基づいて変化することができる。 (3) Further, in the present invention, the output data from the controller can be output data generated based on the voice input by the user from the microphone of the controller. Further, according to the present invention, the image of the display object displayed in the virtual space can be changed based on the voice input by the user.
本発明によれば、マイクを備えたコントローラを利用することで、ユーザはHMDに対して直感的な操作(音声入力)を行うことにより、HMDに表示させる画像を変化させることができる。 According to the present invention, by using a controller provided with a microphone, the user can change the image to be displayed on the HMD by performing an intuitive operation (voice input) on the HMD.
(4)また、本発明は、コントローラからの出力データは、前記コントローラの加速度センサ又はジャイロセンサからのユーザによる動作入力に基づいて生成された出力データであることができる。 (4) Further, in the present invention, the output data from the controller can be output data generated based on the operation input by the user from the acceleration sensor or the gyro sensor of the controller.
本発明によれば、加速度センサ又はジャイロセンサを備えたコントローラを利用することで、コントローラの振り幅や振る周期、速度、強さを検出することによりユーザによる直感的な様々な操作が可能となる。 According to the present invention, by using a controller provided with an acceleration sensor or a gyro sensor, various intuitive operations by the user can be performed by detecting the swing width, swing cycle, speed, and strength of the controller. ..
(5)また、本発明は、コントローラからの出力データは、コントローラのメモリに格納されている画像と、前記コントローラのセンサディスプレイからのユーザによる操作入力に基づいて生成された出力データを含み、動作判定部は画像により表示オブジェクトを決定して、検出された前記出力データに基づき表示オブジェクトの動作を判定することを特徴とすることができる。さらに、本発明においてコントローラはスマートフォンであることができる。 (5) Further, in the present invention, the output data from the controller includes an image stored in the memory of the controller and output data generated based on an operation input by the user from the sensor display of the controller, and operates. The determination unit can determine the display object based on the image and determine the operation of the display object based on the detected output data. Further, in the present invention, the controller can be a smartphone.
本発明によれば、コントローラがスマートフォンなどのユーザが常に携帯している携帯端末の場合、ユーザが過去に撮った画像、動画、音声が格納されており、ユーザがスマートフォンに格納されたユーザ自身が過去に撮った画像、動画、音声を利用してHMDに反映させることができる。さらに、コントローラがスマートフォンなどのユーザが常に携帯している携帯端末である場合に、ユーザは、HMD操作の都度専用のコントローラを持ち運ぶことなく、ユーザが常に携帯しているスマートフォンをHMD操作のコントローラとして利用することができる。 According to the present invention, when the controller is a mobile terminal such as a smartphone that is always carried by the user, images, videos, and sounds taken by the user in the past are stored, and the user himself / herself stored in the smartphone Images, videos, and sounds taken in the past can be reflected in the HMD. Further, when the controller is a mobile terminal such as a smartphone that the user always carries, the user does not carry a dedicated controller each time the HMD operation is performed, and the smartphone that the user always carries is used as the controller for the HMD operation. It can be used.
(6)また、本発明は、コントローラからの出力データは、コントローラのGPSからのコントローラの位置情報と、コントローラのセンサディスプレイからのユーザによる操作入力に基づいて生成された出力データを含み、表示演算部は、位置情報、及び判定された表示オブジェクトの動作に基づいて、表示オブジェクトの表示パラメータを演算して、仮想空間上に表示される表示オブジェクトの画像を生成することを特徴とすることができる。 (6) Further, in the present invention, the output data from the controller includes the position information of the controller from the GPS of the controller and the output data generated based on the operation input by the user from the sensor display of the controller, and the display calculation is performed. The unit can be characterized in that the display parameters of the display object are calculated based on the position information and the determined operation of the display object to generate an image of the display object displayed in the virtual space. ..
本発明によれば、コントローラの現在置かれている位置情報に対応してHMDに提示する仮想空間上に表示される表示オブジェクトの画像を変更することが可能となる。 According to the present invention, it is possible to change the image of the display object displayed on the virtual space presented to the HMD according to the current position information of the controller.
(7)また、本発明は、前記操作判定部は、実行中のアプリケーションの内容に応じて求められる複数のユーザ操作を判定し、
入力検出部は、コントローラからの出力データから、前記求められる複数のユーザ操作に対応する出力データをそれぞれ検出し、
動作判定部は、検出された出力データのうち第1の出力データに基づき表示オブジェクトの動作を判定し、検出された出力データのうち第2の出力データに基づき表示オブジェクトの動作を変換することを特徴とする。
(7) Further, in the present invention, the operation determination unit determines a plurality of user operations required according to the content of the application being executed.
The input detection unit detects output data corresponding to the plurality of required user operations from the output data from the controller, respectively.
The operation determination unit determines the operation of the display object based on the first output data of the detected output data, and converts the operation of the display object based on the second output data of the detected output data. It is a feature.
本発明によれば、加速度センサ、ジャイロセンサを備えることで、コントローラに対する1つの操作入力(例えばタップ操作)に対応する表示オブジェクトの動作(表示オブジェクトがジャンプ)を端末のシェイクといった簡単な切り換え操作で瞬時に別の表示オブジェクトの動作(表示オブジェクトがスライディング)へ変換することができる。ユーザはHMDを装着し仮想空間に没入している場合に、操作中のコントローラを直接視認することができない。加速度センサ、ジャイロセンサにより、ユーザは端末のシェイクといった簡単で直感的な操作で確実に瞬時に表示オブジェクトの動作を変換することができる。 According to the present invention, by providing an acceleration sensor and a gyro sensor, the operation of a display object (display object jumps) corresponding to one operation input (for example, tap operation) to the controller can be performed by a simple switching operation such as shaking the terminal. It can be instantly converted to the behavior of another display object (display object is sliding). When the user wears the HMD and is immersed in the virtual space, the user cannot directly see the controller being operated. The accelerometer and gyro sensor allow the user to reliably and instantly convert the movement of the displayed object with a simple and intuitive operation such as shaking the terminal.
(8) また、本発明は、生成画像をヘッドマウントディスプレイへ出力させる方法を、プロセッサに実行させるためのプログラムであって、該方法は、
実行中のアプリケーションの内容に応じて求められるユーザ操作を判定する操作判定ステップと、
コントローラからの出力データから、前記求められるユーザ操作に対応する出力データを検出する入力検出ステップと、
検出された前記出力データに基づき表示オブジェクトの動作を判定する動作判定ステップと、
判定された表示オブジェクトの前記動作、及び前記検出された出力データに基づいて、表示オブジェクトの表示パラメータを演算して、仮想空間上に表示される表示オブジェクトの画像を生成する表示演算ステップと、
仮想空間上の画像に生成された表示オブジェクトの画像を配置した画像を生成して前記システムに接続されたヘッドマウントディスプレイへ出力する画像生成出力ステップと、
を備えており、
前記コントローラの通信部によりインターネットを介してサーバから受信したコントローラ側インタフェースプログラムと、前記システムのシステム側インタフェースプログラムとにより、前記コントローラと前記システムが接続されていることを特徴とする、プログラムに関係する。
(8) Further, the present invention is a program for causing a processor to execute a method of outputting a generated image to a head-mounted display.
An operation judgment step that determines the user operation required according to the content of the running application, and
An input detection step that detects output data corresponding to the required user operation from the output data from the controller, and
An operation determination step that determines the operation of the display object based on the detected output data, and
A display calculation step that calculates the display parameters of the display object based on the determined operation of the display object and the detected output data to generate an image of the display object displayed in the virtual space.
An image generation output step of generating an image in which an image of a display object generated in an image in virtual space is arranged and outputting it to a head-mounted display connected to the system, and an image generation output step.
Is equipped with
It is related to a program, characterized in that the controller and the system are connected by a controller-side interface program received from a server via the Internet by the communication unit of the controller and a system-side interface program of the system. ..
(9)また、本発明は、生成画像をヘッドマウントディスプレイへ出力するシステムの制御方法であって、
実行中のアプリケーションの内容に応じて求められるユーザ操作を判定する操作判定ステップと、
コントローラからの出力データから、前記求められるユーザ操作に対応する出力データを検出する入力検出ステップと、
検出された前記出力データに基づき表示オブジェクトの動作を判定する動作判定ステップと、
判定された表示オブジェクトの前記動作、及び前記検出された出力データに基づいて、表示オブジェクトの表示パラメータを演算して、仮想空間上に表示される表示オブジェクトの画像を生成する表示演算ステップと、
仮想空間上の画像に生成された表示オブジェクトの画像を配置した画像を生成して前記システムに接続されたヘッドマウントディスプレイへ出力する画像生成出力ステップと、
を備えており、
前記コントローラの通信部によりインターネットを介してサーバから受信したコントローラ側インタフェースプログラムと、前記システムのシステム側インタフェースプログラムとにより、前記コントローラと前記システムが接続されていることを特徴とする、方法に関係する。
(9) Further, the present invention is a control method for a system that outputs a generated image to a head-mounted display.
An operation judgment step that determines the user operation required according to the content of the running application, and
An input detection step that detects output data corresponding to the required user operation from the output data from the controller, and
An operation determination step that determines the operation of the display object based on the detected output data, and
A display calculation step that calculates the display parameters of the display object based on the determined operation of the display object and the detected output data to generate an image of the display object displayed in the virtual space.
An image generation output step of generating an image in which an image of a display object generated in an image in virtual space is arranged and outputting it to a head-mounted display connected to the system, and
Is equipped with
The present invention relates to a method characterized in that the controller and the system are connected by a controller-side interface program received from a server via the Internet by the communication unit of the controller and a system-side interface program of the system. ..
この発明の上記の、及び他の特徴及び利点は、この発明の実施例の以下のより特定的な説明、添付の図面、及び請求の範囲から明らかになるであろう。 The above and other features and advantages of the present invention will become apparent from the following more specific description of the embodiments of the present invention, the accompanying drawings and the claims.
以下、本実施形態について説明する。図1は、本発明の一実施例に従った、システムのシステム構成図を示す。
このシステムでは、コントローラ100と本体装置120がWi−Fi、又はBluetoothなどの無線ネットワークを介して接続され、本体装置120とヘッドマウントディスプレイ140はWi−Fi、又はBluetoothなどの無線又は有線のネットワークを介して接続される。コントローラ100は、さらに、アンテナ110を備えており、本体装置を介さずにインターネット等のネットワークに接続してサーバ160と通信することができる。サーバ160は、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成された公知のサーバコンピュータによって実現されるものであり、コントローラ100との間でデータの送受信を行う。また、サーバ160は、コントローラが複数ある場合は、コントローラ間で行う通信を管理するものである。
Hereinafter, this embodiment will be described. FIG. 1 shows a system configuration diagram of a system according to an embodiment of the present invention.
In this system, the
コントローラの構成
コントローラ100は、少なくとも1つのプロセッサ102、少なくとも1つのインタフェース104、少なくとも1つのメモリ106、少なくとも1つのセンサディスプレイ108、及びアンテナ110を含むことができる。コントローラ100は、例えば、公知のスマートフォン、携帯端末によって実現することができる。コントローラ100は、ユーザ自らが保持、装着しており、ユーザの操作に応じた各種操作入力、及びユーザの動きに応じてユーザの動作入力、音声入力を検出することができる。
コントローラ側プロセッサ102は、コントローラ側インタフェースプログラム106Aの実行、各機能部への命令の指示などの各種処理を行うように構成される。コントローラ側インタフェースプログラム106Aは、後述するユーザコントローラの送信部、受信部(図2)を機能させるためのものである。
The controller-
コントローラ側インタフェースプログラム106Aは、後述する送信部204を機能させることにより、ネットワーク180を介してコントローラ100から本体装置120への出力データの送信を行う。また、後述する受信部206を機能させることにより、本体装置120からコントローラ100へユーザが仮想空間で経験する画像等の経験情報を含む各種データの受信を行うことができる。
The controller-
コントローラ側インタフェース104は、ネットワーク180を介して本体装置120への出力データの送信、及び本体装置120からのデータの受信を行うインタフェースであり、コントローラ側インタフェースプログラム106Aを実装することにより実現される。より詳細には、コントローラ側インタフェース104は、コントローラに内蔵された各種センサから得られたデータ、コントローラのメモリに格納された画像等の出力データを本体装置へ送信し、及び/又はユーザがヘッドマウント装置を装着して、仮想空間に没入している際に、ユーザが仮想空間で経験した画像、動画等の経験情報を本体装置から受信するインタフェースである。
The controller-
コントローラ側メモリ106は、コントローラ側インタフェースプログラム106Aを格納する。また、コントローラ側メモリ106は、ユーザにより過去に撮像された画像、動画、及び過去に格納されたメモ情報等の各種データ、及びユーザの操作、動作に応じて生じる各種センサから得られたデータを格納することができる。
The controller-
センサディスプレイ108は、タッチセンサであり、ユーザからのスワイプ操作、ピンチイン・ピンチアウト操作、タップ操作を検出する。センサディスプレイを備えることにより、加速度センサ、ジャイロセンサ、キー、ボタンのみを備えたコントローラではできなかったユーザからのスワイプ操作、ピンチイン・ピンチアウト操作を検出することが可能になる。ユーザはスワイプ、ピンチイン・ピンチアウト操作により、直感的な細かい操作を行うことができる。さらに、ユーザは仮想空間に没入している場合に、操作中のコントローラのキー、ボタンから指が外れることがあり、このような場合一度ヘッドマウント装置を外して外界位置を確認しなければならなかった。センサディスプレイによるスワイプ操作、タップ操作、又はピンチ操作は、キー、ボタンの位置を確認しなくとも、直感的に操作することができる。
The
コントローラ100はアンテナ110を備え、コントローラ100自体がインターネットなどの外部ネットワークとの通信機能を有している。コントローラ100は、外部ネットワークを介して入手可能な様々な情報、気象情報、地図情報、アプリケーション等をアプリケーション実行中に本体装置に負荷をかけることなくリアルタイムに取得して、本体装置で実行しているアプリケーション、HMDへの表示画面に反映することが可能となる。また、コントローラは、アンテナ110により、インターネット等のネットワークを介して、予めサーバ160からユーザコントローラへコントローラ側インタフェースプログラム106Aをダウンロードし、ユーザコントローラへインストールすることができる。ユーザはコントローラ100へコントローラ側インタフェースプログラム106Aをインストールすることにより、ヘッドマウント装置に専用のコントローラを用いることなく任意のコントローラ、例えばスマートフォンを用いて、コントローラと、本体装置との接続が可能となり、コントローラからの出力データをヘッドマウント装置のディスプレイ表示へ反映させることができる。
The
コントローラ100は、さらにユーザからの音声入力を検出するマイク、ユーザによる動作入力を検出する加速度センサ、ジャイロセンサ、及びボタン、キー、カメラ、GPS、バイブレーション装置(図示せず)を備えることができる。
The
マイクはコントローラを保持・装着しているユーザによるユーザの発声等を検出する。マイクを備えることによって、ユーザの発声した言葉をHMDへ表示される表示オブジェクトに反映させることができる。また、メモリに格納されている音声認識アプリケーションを用いて、ユーザの発声した言葉を音声認識して、例えば、本体装置において実行されているゲームアプリケーション上で、呪文を唱えると扉が開くなどの動作を表示オブジェクトに行わせることができる。 The microphone detects the user's utterance and the like by the user holding and wearing the controller. By providing a microphone, the words spoken by the user can be reflected in the display object displayed on the HMD. In addition, the voice recognition application stored in the memory is used to voice-recognize the words spoken by the user, and for example, an operation such as opening the door when a spell is cast on a game application running on the main unit. Can be done by the display object.
加速度センサ、ジャイロセンサは、コントローラを保持・装着しているユーザの動き、例えばユーザがコントローラを振り回す動作、物を投げる動作を検出することができる。さらに、加速度センサによりユーザの歩数を検出することができる。また、加速度センサ、ジャイロセンサ、及びセンサディスプレイを備えることで、コントローラに対する1つの操作入力(例えばタップ操作)に対応する表示オブジェクトの動作(表示オブジェクトがジャンプ)を端末のシェイクといった簡単な切り換え操作で瞬時に別の表示オブジェクトの動作(表示オブジェクトがスライディング)へ変換することができる。特にタップ操作は、HMDを装着しているユーザにとって簡単な操作であるので、アプリケーション上で様々な表示オブジェクトの動作、例えば撃つ、斬る、ジャンプする動作をタップ操作に対して割り当てる。ユーザはHMDを装着し仮想空間に没入している場合に、操作中のコントローラを直接視認することができない。加速度センサ、ジャイロセンサにより、ユーザは端末のシェイクといった簡単で直感的な操作で確実に瞬時に表示オブジェクトの動作を変換することができる。 The acceleration sensor and the gyro sensor can detect the movement of the user holding and wearing the controller, for example, the movement of the user swinging the controller and the movement of throwing an object. Further, the accelerometer can detect the number of steps of the user. In addition, by providing an acceleration sensor, a gyro sensor, and a sensor display, the operation of the display object (display object jumps) corresponding to one operation input (for example, tap operation) to the controller can be performed by a simple switching operation such as shaking the terminal. It can be instantly converted to the behavior of another display object (display object is sliding). In particular, since the tap operation is a simple operation for the user wearing the HMD, the movements of various display objects on the application, such as shooting, slashing, and jumping, are assigned to the tap operation. When the user wears the HMD and is immersed in the virtual space, the user cannot directly see the controller being operated. The accelerometer and gyro sensor allow the user to reliably and instantly convert the movement of the displayed object with a simple and intuitive operation such as shaking the terminal.
ボタン、キーはユーザコントローラを保持・装着しているユーザによる操作入力を受け付ける。
カメラにより、ユーザが写真や動画を撮ることができ、撮られた写真や動画はユーザコントローラのメモリに格納される。ユーザにより過去に撮像された画像や動画をヘッドマウントディスプレイに表示された仮想空間に反映することができる。
Buttons and keys accept operation input by the user holding and wearing the user controller.
The camera allows the user to take a picture or video, and the picture or video taken is stored in the memory of the user controller. Images and moving images captured in the past by the user can be reflected in the virtual space displayed on the head-mounted display.
GPSは、コントローラを保持・装着しているユーザの位置を検出する。従って、例えば検出されたユーザの位置に応じて、ヘッドマウントディスプレイの画面表示を生成することができる。例えば、ユーザが北海道に位置する場合に、ユーザがHMDに表示される仮想空間内で操作する表示オブジェクトのキャラクタを北海道のキャラクタとすることができる。 GPS detects the position of the user holding and wearing the controller. Therefore, for example, the screen display of the head-mounted display can be generated according to the detected position of the user. For example, when the user is located in Hokkaido, the character of the display object operated by the user in the virtual space displayed on the HMD can be the character of Hokkaido.
バイブレーション装置は、例えば、ヘッドマウント装置を装着して、ゲームをプレイしているユーザが、ヘッドマウントディスプレイに表示されている仮想空間内で攻撃などを受けた際に、ゲームに連動させてコントローラをバイブレーションすることができる。仮想空間内でアプリケーション実行中にユーザが経験した情報は、本体装置側インタフェースプログラム126Aによりネットワーク180を介してインタフェースプログラム106Aへ送信される。そして、コントローラ側インタフェースプログラム106Aが受信したユーザが経験した情報に基づいて、バイブレーション装置がコントローラをバイブレーションさせる。コントローラがバイブレーションすることで、ユーザは一層仮想空間に没入することができる。
The vibration device is, for example, equipped with a head-mounted device, and when a user playing a game is attacked in the virtual space displayed on the head-mounted display, the controller is linked to the game. You can vibrate. The information experienced by the user during the execution of the application in the virtual space is transmitted to the
本体装置の構成
本体装置120は、ユーザコントローラ100、ヘッドマウントディスプレイ140との間でデータの送受信を行うものであり、少なくとも1つのプロセッサ122、少なくとも1つのインタフェース124、少なくとも1つのメモリ126を含むことができる。
Configuration of main unit The
本体装置側プロセッサ122は、各機能部への命令の指示、ゲームなど各種アプリケーションの実行、本体装置側インタフェースプログラム126Aの実行、画像生成出力処理を行うための画像生成プログラム126Bの実行、音生成処理などの各種処理を行うように構成される。
The
本体装置側インタフェース124は、コントローラ100からネットワークを介して送信された出力データの受信、本体装置120からネットワークを介して所定のデータを送信、及びHMD140へ表示オブジェクトを配置した生成画像を出力する入出力インタフェースである。
The
本体装置側メモリ126は本体装置側インタフェースプログラム126A、画像生成プログラム126B、及び本体装置のプロセッサにより実行される各種機能を実現するためのプログラム、データを格納する。
The main body
本体装置側インタフェースプログラム126Aは後述する入力検出部304(図3)を機能させるためのものである。本体装置側インタフェースプログラム126Aを実行することにより、本体装置120はコントローラ100から送信された出力データを検出して受信、及び本体装置120からコントローラ100へ各種データを送信する。本体装置側インタフェースプログラム126Aは、予め本体装置にインストールされている。例えば、本体装置側インタフェースプログラム126Aは、本体装置に接続されたインターネット、イントラネット等のネットワーク(図示せず)を介して、予め本体装置へダウンロードし、又は記録媒体を用いてインストールすることができる。本体装置側インタフェースプログラム126Aをインストールし、コントローラに後述するコントローラ側インタフェースプログラム106Aをインストールすることで、ユーザはヘッドマウント装置に専用のコントローラを用いることなく任意のコントローラ、例えば携帯端末、スマートフォンを用いて、ユーザコントローラ100からのユーザ入力等をHMDへ反映させたり、HMD上の表示、及び操作中のアプリケーション情報をユーザコントローラへ送信したりすることができる。さらに、本体装置側インタフェースプログラム126Aが複数のコントローラからの出力データをそれぞれ取得し、識別できる構成にすることにより複数のコントローラを1の本体装置120と接続することもできる。
The
画像生成プログラム126Bは、後述する操作判定部302、動作判定部306、表示演算部308、画像生成出力部310を機能させるためのものである。
HMD140は、本体装置120に接続されており、本体装置120から出力された生成画像を表示する。HMD140は、ユーザの保持するコントローラのセンサディスプレイ(図6の602)、ボタン、キー等を仮想的に表示するようにしても良い。
The
The
コントローラの機能的構成
図2は、コントローラ100の機能的構成を示す図である。同図に示すように、コントローラ100は、操作部202、送信部204、受信部206、通信部208、撮像部210、又はこれらの機能の一部を備えることができる。これらの機能は、ユーザコントローラ100のメモリ106に格納された所定のプログラムがプロセッサ102によって実行されることにより実現される。ユーザコントローラの送信部、受信部はコントローラ側プロセッサによりコントローラ側インタフェースプログラム106Aを実行することにより実現できる。該インタフェースプログラム106Aはコントローラのアンテナ130を用いてインターネットを介してサーバ160より予めダウンロードされ、コントローラ100にインストールされている。
Functional configuration of the controller FIG. 2 is a diagram showing a functional configuration of the
操作部202は、コントローラに設けられている各種のセンサから、ユーザによりコントローラに対して行われた所定の動作・操作に関する入力を取得する。各種のセンサとは、ディスプレイセンサ、加速度センサ、ジャイロセンサ、マイクセンサ、GPSセンサである。また各種のセンサには、ボタン、キー等の他の操作部からの入力を組み合わせる(例えばコントローラのボタンを押しながらコントローラを振る動作を行う操作入力等)ことができる。ユーザがコントローラを動かすと、操作部は、加速度センサ、ジャイロセンサから該動作に対する加速度、角速度を取得する。ユーザがコントローラのセンサディスプレイに対してスワイプ操作、ピンチイン・ピンチアウト操作、タップ操作を行うと、操作部はセンサディスプレイから、それら操作の種類及び/又はそれら操作に関する各種データ、例えばディスプレイへの接触(タップ)、接触時間(長押し/タップ)、所定時間内の接触回数(連打、1回押し)、ディスプレイへの連続した接触の変位量(スワイプ距離、ピンチ距離)、接触変位方向(スワイプ方向、ピンチ方向)、接触変位速度(スワイプ速度、ピンチ速度)を取得する。ユーザがコントローラのマイクに対して発声すると、操作部202はマイクからユーザ音声入力を取得する。次に、操作部202はこれらの情報(加速度・角速度、操作入力情報、音声入力情報、位置情報)を逐次メモリへ格納する。
The
ここで、本実施例においては加速度センサ、ジャイロセンサから得られた加速度、角速度を動作入力情報と称し、ユーザがセンサディスプレイ上でスワイプ操作、タップ操作、ピンチ操作を行った際にセンサディスプレイから得られるセンサディスプレイへの接触、ディスプレイへの連続した接触の変位量、接触変位方向、接触変位速度を操作入力情報と称する。 Here, in this embodiment, the acceleration and the angular velocity obtained from the acceleration sensor and the gyro sensor are referred to as motion input information, and are obtained from the sensor display when the user performs a swipe operation, a tap operation, or a pinch operation on the sensor display. The displacement amount of the contact with the sensor display, the displacement amount of the continuous contact with the display, the contact displacement direction, and the contact displacement speed are referred to as operation input information.
送信部204は、メモリに格納されたこれらの情報を、本体装置からのリクエストに応じてネットワーク180を介して入力検出部304へ出力データとして送信する。出力データは、操作部202からのコントローラ100に対して行われた所定の動作・操作に関する動作入力情報、操作入力情報、音声入力情報、位置情報、コントローラ100のメモリ106に格納されている画像や動画、又はこれらの組み合わせに対応する。
The
コントローラ100は本体装置120から送信される情報を受信する受信部206を備えることができる。受信部206は、ユーザがHMDを装着して仮想空間に没入している際に、ユーザが仮想空間内で経験した情報を受信する。例えば、ゲームをプレイしているユーザが、HMD140に表示されている仮想空間内で攻撃などを受けた際に、その攻撃された情報を受信する。そしてコントローラ側プロセッサは、受信した攻撃された情報に基づいてバイブレーション機能を実行し、コントローラをバイブレーションすることができる。また、受信部206はゲームのプレイ中の映像を本体装置より受信することができる。コントローラ側プロセッサ102は、受信した映像をコントローラのメモリへ格納したり、コントローラ側ディスプレイ108へ表示したりすることができる。
The
通信部208は、様々なデータ、例えば、プログラムをサーバ160からダウンロードしたり、ユーザの操作中映像をサーバ160にアップロードしたり、コントローラが複数ある場合に他のコントローラと直接通信するためのものであり、通常、インターネットを通じて通信を行う。通信部208を備えることにより、コントローラ100は本体装置と接続されていなくとも、外部サーバ160に接続することが可能である。従って、コントローラは本体装置120に接続されていなくとも、インターネットに接続可能な環境があれば、任意の場所でコントローラ側インタフェースプログラム106Aをインストール、アップデートすることができる。また、コントローラ100は、インターネットから取得可能な様々な情報(気象情報、株価情報、地図情報)を取得して、ユーザの操作中画面や、ユーザ操作中のゲーム内容に反映することができる。また、コントローラは、コントローラが複数ある場合に、本体装置を介さずに通信部を介して他のコントローラと通信することができる。
The
撮像部210は、実空間における画像や動画を撮ることができる。撮像部を備えることにより、ユーザにより予め撮像された画像や動画を、ユーザの操作中画面や、プレイ中のゲーム画面に反映することができる。
The
ユーザコントローラ100は更にGPS(図示せず)を備えることができる。GPSを備えることにより、GPSにより取得されたコントローラの位置情報をユーザ操作中の画面に反映することができる。例えば、コントローラが北海道に位置する場合に、HMDに表示される仮想空間内でユーザが操作する表示オブジェクトのキャラクタを北海道のキャラクタとしたり、HMDに表示される仮想空間のユーザ操作画面を北海道の背景としたりすることができる。
The
本体装置の機能的構成
図3は、本体装置120の機能的構成を示す図である。同図に示すように、本体装置120は、操作判定部302、入力検出部304、動作判定部306、表示演算部308、画像生成出力部310を備える。これらの機能は、本体装置におけるメモリに格納された所定のプログラムがプロセッサによって実行されることにより実現される。
Functional configuration of the main unit FIG. 3 is a diagram showing a functional configuration of the
操作判定部302は、まず、本体装置で実行中のアプリケーションの内容に基づいて、アプリケーションにより入力が求められるユーザ操作が何かを決定する。求められるユーザ操作とは、実行中のアプリケーションの内容、実行中のアプリケーションにおいてユーザが現在操作している状況等に基づいて定められ、実行中のアプリケーションが入力を許可する、コントローラに対するユーザ操作のことである。例えば、ユーザが仮想空間内で戦闘ゲームを行い、敵と戦闘中の操作状態では、その操作状態に対応する求められるユーザ操作は例えば、「殴る」、「撃つ」、「攻撃をかわす」である。
The
次に、入力検出部304は、ネットワーク180を介してコントローラ100のメモリに格納された出力データのうち、求められるユーザ操作に対応する出力データを取得する。例えば、求められるユーザ操作が「殴る」である場合に、該求められるユーザ操作に対応する出力データは、操作入力情報(タップ操作によるディスプレイへの接触)である。出力データは所定時間内における接触回数を含むこともできる。そして、入力検出部304は検出した出力データを動作判定部306へ出力する。このように、入力検出部304は、実行中のアプリケーションにおいて求められるユーザ操作が「殴る」である場合に、出力データの操作入力情報のうち、タップ操作に対応する、ディスプレイへの接触のみを検出して取得する。動作判定部306は、求められるユーザ操作に対応しない出力データ、例えば、求められるユーザ操作が「殴る」である場合に、音声入力を無視することができる。
Next, the
このように、入力検出部304は、ネットワーク180を介してコントローラの送信部204から送信された様々な情報、ユーザによる動作入力情報(加速度センサ、ジャイロセンサから得られた加速度、角速度)、操作入力情報(スワイプ操作、ピンチイン・ピンチアウト操作の種類、及び/又はセンサディスプレイへの接触、ディスプレイへの連続した接触の変位量、接触変位方向、接触変位速度)、音声入力情報(マイクセンサから得られる音声、音量)、画像、動画、位置情報又はこれらの組み合わせである情報のうち、操作判定部302により決定された求められるユーザ操作に対応するデータをコントローラからの出力データとして検出する。
In this way, the
また、入力検出部304は、所定のタイミングで所定時間の間、出力データを検出するようにしてもよい。さらに入力検出部304は、出力データを受信するタイミング間隔を変更することができる。例えば、表示オブジェクトに仮想空間内で扉のノブを回すといった粗い操作を行わせる場合は、検出するタイミング間隔を長くして1秒間に15回の入力検出を行い、仮想空間内で表示オブジェクトに自動車を運転させるなどのハンドルの細かい動きを逐次画面に反映させることの必要な動作を行わせる場合は、検出するタイミング間隔を短くして1秒間に60回の入力検出を行うことができる。
Further, the
実行中のアプリケーションの内容、実行中のアプリケーションの内容に対応する求められるユーザ操作と、求められるユーザ操作に対応する出力データとの関係は表1に例示的に示される。表1に示されるアプリケーションの内容、求められるユーザ操作、出力データは単なる例示に過ぎず、当業者であれば他のユーザ操作状態、他のユーザ操作が存在することは容易に理解できるであろう。 Table 1 exemplifies the relationship between the content of the running application, the required user operation corresponding to the content of the running application, and the output data corresponding to the required user operation. The contents of the application, the required user operations, and the output data shown in Table 1 are merely examples, and those skilled in the art will easily understand that other user operation states and other user operations exist. ..
次に動作判定部306は、求められるユーザ操作に応じて、入力検出部304により検出された出力データに基づき、ヘッドマウントディスプレイに表示される表示オブジェクトに行わせる動作を判定する。例えば、求められるユーザ操作が「殴る」である場合に、出力データに含まれるディスプレイへの接触感知、接触回数に応じて、仮想空間内で表示オブジェクトに行わせる動作(殴る、殴る頻度)を判定する。表示オブジェクトとは、ユーザによる仮想空間上で操作対象となるオブジェクトであり、例えばユーザがゲームを行っている場合はゲームキャラクタやゲームアイテムであり、ユーザが撮像した画像、動画を表示している場合は、それらの画像、動画である。
Next, the
例えば、動作判定部306は、求められるユーザ操作が「画像のスライド」である場合に、出力データの操作入力情報のうち、スワイプ操作の方向、変位量、変位速度を取得する。そして、動作判定部は、ディスプレイへのスワイプ操作の方向、変位量、変位速度に応じて、表示オブジェクトに行わせる動作(画像のスライド)を判定する。
For example, the
例えば、動作判定部306は、求められるユーザ操作が「2つの表示オブジェクトをくっつける」である場合に、出力データの操作入力情報のうち、ディスプレイへのピンチイン操作(又はスワイプ操作)の方向、変位量、変位速度を取得する。そして、動作判定部は、ディスプレイへのピンチイン操作の方向、変位量、変位速度に応じて、表示オブジェクトに行わせる動作(2つの表示オブジェクトを1つに結合させる)を判定する。動作判定部はユーザによるディスプレイへのピンチイン操作の方向、変位量、変位速度に応じて、表示オブジェクトを移動させる方向、移動させる速度を決定することができる。
For example, when the required user operation is "to attach two display objects", the
例えば、動作判定部306は、求められるユーザ操作が「ハンドル操作」である場合に、出力データの動作入力情報のうち、加速度、角速度を取得する。なお、「ハンドル操作」は細かい操作が必要となることから、動作判定部は一定時間に加速度、角速度を取得する回数を多くすることができる。そして、動作判定部は、加速度、加速度に応じて、表示オブジェクトに行わせる動作(表示オブジェクトの方向を変える)を判定する。
For example, the
例えば、動作判定部306は、求められるユーザ操作が「振り回す」である場合に、出力データの動作入力情報のうち、加速度、角速度を取得する。なお、「振り回す」操作は粗い検知で十分な場合、動作判定部は一定時間に加速度、角速度を取得する回数を少なくすることができる。そして、動作判定部は、加速度、加速度に応じて、表示オブジェクトに行わせる動作(表示オブジェクトを動かす・振り回す)を判定する。動作判定部は加速度、角速度に応じて、表示オブジェクトを振り回す強さ、方向を決定することができる。
For example, the
例えば、動作判定部306は、求められるユーザ操作が「投げる」である場合に、出力データの動作入力情報のうち、加速度、角速度を取得する。そして、動作判定部は、加速度、角速度に応じて、表示オブジェクトに行わせる動作(表示オブジェクトを投げる)を判定する。さらに、動作半値部は加速度、角速度に応じて、表示オブジェクトを投げる強さ、方向を決定したりすることができる。
For example, the
例えば、動作判定部306は、求められるユーザ操作が「大声を出す」である場合に、出力データのうち、音声入力情報を取得する。そして、動作判定部は、音量に応じて、表示オブジェクトに行わせる動作(表示オブジェクトを拡大)を判定する。さらに、動作判定部は音量に応じて、表示オブジェクトを拡大する大きさを決定したりすることができる。
For example, the
次に、表示演算部308は、動作判定部306が判定した動作、及び該動作に対応付けられた表示オブジェクトに対する操作データに基づいて、表示オブジェクトの表示演算を行い、これにより表示オブジェクトの画像を生成する。操作データとは、表示オブジェクトを動かす際の、加速度、角速度、変位量、変位速度、方向等を含む。いわゆる3次元の画像を生成する場合には、表示オブジェクトの各頂点のデータ(頂点のワールド座標系での位置座標、色データ)を含む表示パラメータを演算し、演算された表示パラメータに基づいて、表示オブジェクトの画像をフレーム毎に順次生成する。
Next, the
画像生成出力部310は、起動しているヘッドマウント装置のディスプレイに表示されている画面に、演算された表示オブジェクトを配置した画像をフレーム毎に生成し、その画面へ出力する。HMDは画像生成出力部より出力された画像を表示する。
The image
図4は、ユーザのスワイプ操作に基づいて生成された本実施例に従ったHMDに表示される画面400の一例である。入力検出部より取得した出力データがスワイプ操作である場合に、スワイプした方向へ、操作対象である表示オブジェクト(図5Aでは6つの画像)をスライドする。図4に示すように、ユーザの操作するセンサディスプレイに対応する表示(402、404)を仮想的にHMD上へ表示することで、HMDを装着しているユーザが完全に仮想空間に没入している場合でも、ユーザは、ユーザが行っている、又は行おうとしている操作を確実に把握することができる。
FIG. 4 is an example of the
図5A、Bは、ユーザのタップ操作に基づいて生成された本実施例に従ったHMDに表示される画面(500A、500B)の一例である。入力検出部より受け取った出力データがタップ操作に対応する場合に、操作対象である表示オブジェクト(図5Aでは手502、図5Bでは銃504)は撃つ・殴る動作を行う。例えば、ユーザがコントローラ100のセンサディスプレイをタップするたびに、表示オブジェクトは撃つ・殴る動作を行う。さらに出力データに一定時間内にタップされた回数が含まれる場合に、そのタップ回数に応じてオブジェクトが撃つ・殴る動作の速さを変更することができる。
5A and 5B are examples of screens (500A, 500B) displayed on the HMD according to the present embodiment generated based on the tap operation of the user. When the output data received from the input detection unit corresponds to the tap operation, the display object (
図6は、ユーザのタップ操作に基づいて生成された本実施例に従ったHMDに表示される画面600の一例である。図6の表示画面600は仮想空間上に仮想的に表示されたセンサディスプレイ602を含む。仮想的に表示されたセンサディスプレイ602は、仮想的にユーザの指604(操作指)を表示することができる。仮想空間に没入しているユーザは、HMDを装着しており外界情報を遮断されるため、実空間にあるコントローラを詳細に認識することができない。実空間にあるコントローラのセンサディスプレイを仮想的に仮想空間上に表示することで、ユーザはヘッドマウントディスプレイを外すことなく、コントローラへの各種操作を把握することができる。
FIG. 6 is an example of the
図7A、B、Cは、ユーザのピンチイン・ピンチアウト操作に基づいて生成された本実施例に従ったHMDに表示される画面の一例である。入力検出部より受け取った出力データがピンチアウト操作に対応する場合に、操作対象である表示オブジェクト(図7Aでは黒い円内の画像)に対して、該操作入力に対応付けられた表示オブジェクトのズームイン動作を行う。さらに入力検出部より受け取った出力データに操作の変位量が含まれる場合には、その変位量に基づき、ズームイン動作の画面操作量を決定することができる。さらに、入力検出部より受け取った出力データの種類がピンチアウト操作である場合に、ユーザにより選択された操作対象である表示オブジェクト(図7Bでは4と描かれた中心の○)に対してピンチアウト操作が行われると、該表示オブジェクトは2つのオブジェクト(図7Bでは水滴)に分離される(オブジェクトが2つにちぎられる)。オブジェクトの分離は、スワイプ操作により実現することもできる。入力検出部より受け取った出力データがピンチイン操作である場合に、操作対象である表示オブジェクト(図7Cでは2と描かれた2つの丸)を結合して、大きな4と描かれた1つの丸にすることができる(2つのオブジェクトがくっつけられる)。 7A, B, and C are examples of screens displayed on the HMD according to the present embodiment generated based on the pinch-in / pinch-out operation of the user. When the output data received from the input detection unit corresponds to the pinch-out operation, the display object (the image in the black circle in FIG. 7A) to be operated is zoomed in on the display object associated with the operation input. Do the action. Further, when the output data received from the input detection unit includes the displacement amount of the operation, the screen operation amount of the zoom-in operation can be determined based on the displacement amount. Further, when the type of output data received from the input detection unit is a pinch-out operation, the pinch-out is performed on the display object (the center circle drawn as 4 in FIG. 7B) which is the operation target selected by the user. When the operation is performed, the display object is separated into two objects (water droplets in FIG. 7B) (the objects are torn into two). Object separation can also be achieved by swiping. When the output data received from the input detector is a pinch-in operation, the display objects to be operated (two circles drawn as 2 in FIG. 7C) are combined into one large circle drawn as 4. Can be (two objects are stuck together).
図8A、B、Cは、本実施例に従ったHMDに表示される画面の一例である。入力検出部より受け取った出力データが加速度センサ・ジャイロセンサからのユーザの動作入力情報に対応する場合に、操作対象である表示オブジェクト(図8Aでは剣、図8Bでは釣り竿、図8Cではダーツ)に対して、該表示オブジェクトに、図8Aでは剣を振り回す動作、又は図8B及びCでは釣り竿、ダーツを投げる動作を行わせる。さらに入力検出部より受け取った出力データに含まれる加速度に基づき、表示オブジェクトを所定の速度、加速度で移動させ、又は表示オブジェクトを所定の強さで振る・投げることができる。動作判定部はさらに入力検出部より受け取った出力データが角速度を含む場合には、表示オブジェクトを所定の方向へ移動させることができる。 8A, B, and C are examples of screens displayed on the HMD according to this embodiment. When the output data received from the input detector corresponds to the user's motion input information from the accelerometer / gyro sensor, the display object (sword in FIG. 8A, fishing rod in FIG. 8B, darts in FIG. 8C) to be operated is displayed. On the other hand, the display object is made to swing the sword in FIG. 8A, or to throw a fishing rod or darts in FIGS. 8B and 8C. Further, based on the acceleration included in the output data received from the input detection unit, the display object can be moved at a predetermined speed and acceleration, or the display object can be shaken / thrown at a predetermined strength. The motion determination unit can further move the display object in a predetermined direction when the output data received from the input detection unit includes the angular velocity.
図9A、B、Cは、本実施例に従った加速度センサ・ジャイロセンサからの入力に基づいてHMDに表示される画面の一例である。入力検出部より受け取った出力データが加速度センサ・ジャイロセンサからのユーザの動作入力情報に対応する場合に、操作対象である表示オブジェクト(図9Aではレース画面背景全体、図9Bでは人、又は画面全体、図9Cではドアノブ)に対して、該動作入力情報に対応付けられた表示オブジェクトを回転させる動作を行わせる。さらに入力検出部より受け取った出力データに含まれる角速度に基づき、表示オブジェクトを所定の角速度で回転させることができる。 9A, B, and C are examples of screens displayed on the HMD based on the input from the accelerometer / gyro sensor according to this embodiment. When the output data received from the input detection unit corresponds to the user's motion input information from the acceleration sensor / gyro sensor, the display object to be operated (the entire race screen background in FIG. 9A, the person in FIG. 9B, or the entire screen). , In FIG. 9C, the door knob) is made to perform an operation of rotating the display object associated with the operation input information. Further, the display object can be rotated at a predetermined angular velocity based on the angular velocity included in the output data received from the input detection unit.
図10A、Bは、本実施例に従ったマイクセンサからの入力に基づいてHMDに表示される画面の一例である。入力検出部より受け取った出力データの種類がマイクからのユーザの音声入力である場合に、音声入力に対応付けられた表示オブジェクト(図10Aでは猫、図10Bでは「ワー」という文字)に対して、所定の動作(図10Aでは猫が驚く動作、図10Bでは「ワー」という文字が拡大される動作)を行わせる。さらに、マイクセンサからの音量、方向に基づいて、拡大表示される表示オブジェクトの大きさや速度を変化させることができる。 10A and 10B are examples of screens displayed on the HMD based on the input from the microphone sensor according to this embodiment. When the type of output data received from the input detector is the user's voice input from the microphone, for the display object (cat in FIG. 10A, the character "wa" in FIG. 10B) associated with the voice input. , A predetermined motion (in FIG. 10A, the cat is surprised, and in FIG. 10B, the character "wa" is enlarged). Furthermore, the size and speed of the enlarged display object can be changed based on the volume and direction from the microphone sensor.
図11はコントローラ100の処理の流れを示すフローチャート図である。
まず、インターネットを介してコントローラ100に備えられたアンテナによりインタフェースプログラム106Aをコントローラ100へダウンロードし、インストールする(ステップ1100)。コントローラは、インタフェースプログラム106Aをインストールすることにより、本体装置に専用のコントローラでなくとも、例えば公知の携帯端末(スマートフォン)によりHMD140の画面操作を行うことができる。
FIG. 11 is a flowchart showing a processing flow of the
First, the
次に、操作部202は、ユーザによりコントローラに対して行われた所定の動作・操作に関する入力情報を取得しメモリへ格納する(ステップ1102)。
次に、送信部204は、所定の動作に関する各種入力、所定の操作に関する各種入力情報、及び/又はコントローラのメモリに格納されている画像、動画、位置情報、又はこれらの組み合わせを出力データとして、本体装置120へ送信する(ステップ1104)。送信部204は、本体装置の入力検出部304からの要求に従って、出力データのうち実行中のアプリケーションの内容に応じて、求められるユーザ操作に対応する出力データを送信することができる。
Next, the
Next, the
図12は本体装置120の処理の流れを示すフローチャート図である。
本体装置には本体装置側インタフェースプログラム126Aがインストールされている。本体装置は、外部ネットワークに接続してインタフェースプログラム126Aを取得してもよいし、記憶媒体を用いてインタフェースプログラム126Aを取得してもよい(ステップ1200)。
FIG. 12 is a flowchart showing a processing flow of the
The
操作判定部302は、本体装置において実行中のアプリケーションの内容等に応じてアプリケーションが操作中のユーザに対して入力を許可する、求められるユーザ操作を判定する(ステップ1202)。
The
次に、入力検出部304は、コントローラ100の送信部204から送信された出力データのうち、実行中のアプリケーションにより求められるユーザ操作に対応する出力データを、コントローラ100の送信部204よりネットワーク180を介して受信して検出する。(ステップ1204)。
Next, the
次に、動作判定部306は、求められるユーザ操作に対応する出力データに応じて、実行中のアプリケーションの仮想空間内で表示オブジェクトに行わせる動作を判定する(ステップ1206)。
Next, the
次に、表示演算部308は、動作判定部306が判定した動作、及び該動作に対応付けられた表示オブジェクトに対する操作データに基づいて、表示オブジェクトの表示演算を行い、これにより表示オブジェクトの画像を生成する(ステップ1208)。
Next, the
次に、画像生成出力部310は、起動しているヘッドマウント装置のディスプレイに表示されている画面に、生成された表示オブジェクトを配置した画像をフレーム毎に生成し、HMDへ出力する(ステップ1210)。
Next, the image
図13は、コントローラ100と本体装置120をアプリケーション上で接続する処理の流れを示すフローチャート図である。コントローラ100と本体装置120とはネットワーク180を介して互いに通信可能に接続されている。
FIG. 13 is a flowchart showing a flow of processing for connecting the
まず、本体装置120において、HMDと接続してHMDを操作するためのアプリケーションを起動する(ステップ1300)。
次に、コントローラ100側でインタフェースプログラム106Aを実行して、コントローラ100は本体装置内にインタフェースプログラム126Aを含むアプリケーションが格納されているかを検索する(ステップ1302)。
First, in the
Next, the
次に、コントローラ100は、本体装置120内にインタフェースプログラム126Aを含むアプリケーションが検索された場合に、その検索に対する認識情報を本体装置100のインタフェースプログラム126Aに送信する(ステップ1304)。
Next, when an application including the
次に、コントローラ100は、認識したインタフェースプログラム126Aを含むアプリケーションを、ディスプレイ108へ表示する。そして、コントローラ100は、表示された認識したアプリケーションがユーザによりタップされると、ペアリングリクエストを本体装置側インタフェースプログラム126Aへ送信する(ステップ1306)。
Next, the
次に、本体装置側インタフェースプログラム126Aはコントローラから送信されたペアリングリクエストに応答してペアリングレスポンスをコントローラ100のインタフェースプログラム106Aへ送信する(ステップ1308)。
Next, the main unit device
次に、コントローラ100のインタフェースプログラム106Aは、コントローラ100と本体装置120とがペアリングしたことを示す情報を、本体装置側インタフェースプログラム126Aへ送信する(ステップ1310)。これにより、コントローラ100と本体装置120とのアプリケーション上の接続が完了する。
Next, the
図14は、本発明の第2の実施例に従った、複数のコントローラにより構成されるシステムのシステム構成図を示す。複数のコントローラ100同士はそれぞれ本体装置120ではなく、インターネットを介して接続されている。以下、第1のコントローラ100A、第2のコントローラ100Bはそれぞれ図1に記載のようにプロセッサ、メモリ、インタフェース、センサディスプレイを備えることができる。また、第1のコントローラ、第2のコントローラはそれぞれ図2に記載の機能的構成、又は図2に記載の機能的構成の一部を備えることができる。また、コントローラ100A、100Bは3台以上で構成することもできる。
FIG. 14 shows a system configuration diagram of a system composed of a plurality of controllers according to a second embodiment of the present invention. The plurality of
従来のシステムにおいては、1つの操作画面を同じ空間に位置する複数のユーザで共有して操作する場合に、複数のコントローラはそれぞれ1つの本体装置に接続されていたため、本体装置への負荷が高かった。また従来のシステムにおいては、1つの操作画面を、別個の空間に位置する複数のユーザで共有して操作する場合には、複数のコントローラは別個の空間にそれぞれ存在する本体装置に接続する。そして本体装置は、それぞれネットワークを介してサーバに接続する。この場合、複数のコントローラに対し外部ネットワークと接続可能な本体装置がそれぞれ必要となる。 In a conventional system, when one operation screen is shared and operated by a plurality of users located in the same space, the load on the main body device is high because the plurality of controllers are connected to one main body device. It was. Further, in the conventional system, when one operation screen is shared and operated by a plurality of users located in different spaces, the plurality of controllers are connected to the main body devices existing in the separate spaces. Then, each main unit connects to the server via the network. In this case, a main unit capable of connecting to an external network is required for each of the plurality of controllers.
本実施例においては、1つのコントローラのみが1つの本体装置へ接続されており、コントローラ同士はインターネットを介してサーバに接続されている。これにより、一つの本体装置の負荷を高めることなく、複数のユーザ間で、一つの操作画面に対し様々な操作を行うことができる。また、複数のユーザは同じ空間に位置する必要は無く、別の空間に位置することができる。 In this embodiment, only one controller is connected to one main unit, and the controllers are connected to the server via the Internet. As a result, various operations can be performed on one operation screen among a plurality of users without increasing the load on one main unit. Further, a plurality of users do not have to be located in the same space, but can be located in different spaces.
図15は、複数のユーザ間で一つの操作画面に対し操作を行っている例示的なユーザ表示画面である。図15に係る実施例おいては、ユーザAはヘッドマウント装置を装着しており、ユーザBはヘッドマウント装置を装着していない。ヘッドマウント装置を装着していないユーザBも、第2のコントローラのディスプレイを介してユーザAの操作画面を見ることや、ユーザAの操作中画面に対して、第2のコントローラのセンサディスプレイによるスワイプ、タップ、又はピンチ操作入力、第2のコントローラの加速度センサ、角速度センサによる動作入力を行うことができる。例えば、図に示されるように、ユーザAがレーシングゲームをしている最中に、他のユーザBがユーザBのコントローラのセンサディスプレイを用いて、ユーザAの操作中画面に障害物(図ではバナナ)を配置することができる。 FIG. 15 is an exemplary user display screen in which a plurality of users perform operations on one operation screen. In the embodiment according to FIG. 15, user A is equipped with a head mount device, and user B is not equipped with a head mount device. User B, who is not equipped with the head mount device, can also see the operation screen of user A through the display of the second controller, or swipe the screen during operation of user A by the sensor display of the second controller. , Tap or pinch operation input, operation input by the acceleration sensor of the second controller, angular velocity sensor can be performed. For example, as shown in the figure, while user A is playing a racing game, another user B uses the sensor display of user B's controller to display an obstacle on the user A's operating screen (in the figure, in the figure). Bananas) can be placed.
以上、本発明の一実施形態に付き説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施態様の変更がなされうることを当業者は理解するであろう。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment. Those skilled in the art will appreciate that various embodiments may be modified without departing from the spirit and scope of the invention described in the preceding claims.
Claims (9)
ユーザが保持する操作装置から出力される出力データを取得するステップと、
前記取得された出力データに基づいて前記仮想空間を制御するステップと、
前記仮想空間の画像を前記没入型のヘッドマウントディスプレイへ出力するステップと、
実空間にある前記操作装置のセンサディスプレイを仮想的に前記仮想空間上に表示するステップと、
を実行させ、
前記制御するステップは、前記出力データが、前記操作装置が有する、前記操作装置の動きを検出する動きセンサから出力されるデータである場合、前記仮想空間に表示された第1オブジェクトに第1の動作を行わせ、前記出力データが、前記操作装置が有するタッチセンサに対する前記ユーザのタッチ操作により、前記タッチセンサから出力されるデータである場合、前記第1オブジェクトに前記第1の動作とは異なる第2の動作を行わせる、プログラム。 A program that is run on a computer to provide virtual space via an immersive head-mounted display, said program to the computer.
The step of acquiring the output data output from the operating device held by the user, and
A step of controlling the virtual space based on the acquired output data,
The step of outputting the image of the virtual space to the immersive head-mounted display, and
A step of virtually displaying the sensor display of the operating device in the real space on the virtual space,
To run,
When the output data is data output from a motion sensor that detects the motion of the operating device, the control step is the first object displayed in the virtual space. When the operation is performed and the output data is data output from the touch sensor by the user's touch operation on the touch sensor of the operating device, the first object is different from the first operation. A program that causes the second operation to be performed.
前記制御するステップでは、前記操作するためのデータに基づいて、前記仮想空間内で前記画像データに基づくオブジェクトの動作を制御する請求項4に記載のプログラム。 The output data further includes data for manipulating an object based on the image data.
The program according to claim 4, wherein in the control step, the operation of an object based on the image data is controlled in the virtual space based on the data for the operation.
前記コンピュータが
プロセッサと、
プログラムを格納するメモリとを備え、
前記プロセッサは、前記プログラムを実行することにより、
ユーザが保持する操作装置から出力される出力データを取得し、
前記取得された出力データに基づいて前記仮想空間を制御し、
前記仮想空間の画像を前記没入型のヘッドマウントディスプレイへ出力し、
実空間にある前記操作装置のセンサディスプレイを仮想的に前記仮想空間上に表示し、
前記仮想空間の制御では、前記出力データが、前記操作装置が有する、前記操作装置の動きを検出する動きセンサから出力されるデータである場合、前記仮想空間に表示された第1オブジェクトに第1の動作を行わせ、前記出力データが、前記操作装置が有するタッチセンサに対する前記ユーザのタッチ操作により、前記タッチセンサから出力されるデータである場合、前記第1オブジェクトに前記第1の動作とは異なる第2の動作を行わせる、コンピュータ。 A computer for providing virtual space through an immersive head-mounted display.
The computer is a processor
Equipped with memory to store programs
The processor executes the program.
Acquires the output data output from the operating device held by the user,
The virtual space is controlled based on the acquired output data, and the virtual space is controlled.
The image of the virtual space is output to the immersive head-mounted display, and the image is output to the immersive head-mounted display.
The sensor display of the operating device in the real space is virtually displayed on the virtual space.
In the control of the virtual space, when the output data is the data output from the motion sensor that detects the movement of the operating device, the first object displayed in the virtual space is the first. When the output data is data output from the touch sensor by the user's touch operation on the touch sensor of the operating device, the first object is referred to as the first operation. A computer that causes a different second action.
ユーザが保持する操作装置から出力される出力データを取得するステップと、
前記取得された出力データに基づいて前記仮想空間を制御するステップと、
実空間にある前記操作装置のセンサディスプレイを仮想的に前記仮想空間上に表示するステップと、
前記仮想空間の画像を前記没入型のヘッドマウントディスプレイへ出力するステップと、
を含み、
前記制御するステップは、前記出力データが、前記操作装置が有する、前記操作装置の動きを検出する動きセンサから出力されるデータである場合、前記仮想空間に表示された第1オブジェクトに第1の動作を行わせ、前記出力データが、前記操作装置が有するタッチセンサに対する前記ユーザのタッチ操作により、前記タッチセンサから出力されるデータである場合、前記第1オブジェクトに前記第1の動作とは異なる第2の動作を行わせる、方法。 A computer-run method for providing virtual space through an immersive head-mounted display.
The step of acquiring the output data output from the operating device held by the user, and
A step of controlling the virtual space based on the acquired output data,
A step of virtually displaying the sensor display of the operating device in the real space on the virtual space,
The step of outputting the image of the virtual space to the immersive head-mounted display, and
Including
When the output data is data output from a motion sensor that detects the motion of the operating device, the control step is the first object displayed in the virtual space. When the operation is performed and the output data is data output from the touch sensor by the user's touch operation on the touch sensor of the operating device, the first object is different from the first operation. A method of performing a second operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016152763A JP6883394B2 (en) | 2016-08-03 | 2016-08-03 | Programs, computers and methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016152763A JP6883394B2 (en) | 2016-08-03 | 2016-08-03 | Programs, computers and methods |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014214266A Division JP5996605B2 (en) | 2014-10-21 | 2014-10-21 | System, program, and method for operating screen by interlocking head mounted display and controller |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019212719A Division JP6854869B2 (en) | 2019-11-25 | 2019-11-25 | A system, program, and method for operating the screen by linking the head-mounted display and the controller. |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017004545A JP2017004545A (en) | 2017-01-05 |
JP2017004545A5 JP2017004545A5 (en) | 2017-11-24 |
JP6883394B2 true JP6883394B2 (en) | 2021-06-09 |
Family
ID=57752577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016152763A Active JP6883394B2 (en) | 2016-08-03 | 2016-08-03 | Programs, computers and methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6883394B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102389185B1 (en) | 2017-10-17 | 2022-04-21 | 삼성전자주식회사 | Electronic device and method for executing function using input interface displayed via at least portion of content |
JP7118189B2 (en) * | 2021-02-15 | 2022-08-15 | グリー株式会社 | Information processing system, information processing method and computer program |
CN115967854A (en) * | 2022-12-21 | 2023-04-14 | 维沃移动通信有限公司 | Photographing method and device and electronic equipment |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08263698A (en) * | 1995-03-20 | 1996-10-11 | Matsushita Electric Ind Co Ltd | Environmental experience simulator |
JP2000276325A (en) * | 1999-03-25 | 2000-10-06 | Shimadzu Corp | Display device |
JP2006294032A (en) * | 2002-09-05 | 2006-10-26 | Sony Computer Entertainment Inc | Display system, display control device, display apparatus, display method, and user interface device |
JP2008272123A (en) * | 2007-04-26 | 2008-11-13 | Namco Bandai Games Inc | Program, information memory medium and game apparatus |
JP5428943B2 (en) * | 2010-03-02 | 2014-02-26 | ブラザー工業株式会社 | Head mounted display |
EP2485119A3 (en) * | 2011-02-02 | 2012-12-12 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
JP5957875B2 (en) * | 2011-12-26 | 2016-07-27 | ソニー株式会社 | Head mounted display |
WO2013124913A1 (en) * | 2012-02-21 | 2013-08-29 | パナソニック株式会社 | Scanning device and display device |
CN104335574B (en) * | 2013-02-22 | 2018-07-17 | 索尼公司 | Head-mounted display |
-
2016
- 2016-08-03 JP JP2016152763A patent/JP6883394B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017004545A (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5996605B2 (en) | System, program, and method for operating screen by interlocking head mounted display and controller | |
US9983687B1 (en) | Gesture-controlled augmented reality experience using a mobile communications device | |
US11534681B2 (en) | Virtual console gaming controller | |
US11467658B2 (en) | Application processing system, method of processing application, and storage medium storing program for processing application | |
JP5898756B1 (en) | SYSTEM, PROGRAM, AND METHOD FOR OPERATING SCREEN BY LINKING DISPLAY AND MULTIPLE CONTROLLERS CONNECTED BY NETWORK | |
KR20150141151A (en) | Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity | |
US11161047B2 (en) | Game processing system, method of processing game, and storage medium storing program for processing game | |
JP6883394B2 (en) | Programs, computers and methods | |
JP6854869B2 (en) | A system, program, and method for operating the screen by linking the head-mounted display and the controller. | |
US12029973B2 (en) | Game program, game method, and information terminal device | |
JP6999847B1 (en) | Game control method and program | |
JP6869412B1 (en) | Game control methods, programs, servers and communication devices | |
JP7361736B2 (en) | Game programs, game methods, and terminal devices | |
US20170221269A1 (en) | System and method for interfacing between a display and a controller | |
JP7163526B1 (en) | Information processing system, program and information processing method | |
JP7286857B2 (en) | Information processing system, program and information processing method | |
JP7286856B2 (en) | Information processing system, program and information processing method | |
JP7440401B2 (en) | Game program, game method, and information terminal device | |
WO2023002907A1 (en) | Information processing system, program, and information processing method | |
JP2023015979A (en) | Information processing system, program, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180531 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181210 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190408 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191008 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191125 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20191125 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191202 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20191203 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20200207 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20200212 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200904 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20201028 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20201224 |
|
C19 | Decision taken to dismiss amendment |
Free format text: JAPANESE INTERMEDIATE CODE: C19 Effective date: 20210107 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210201 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210331 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20210428 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6883394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |