JP6629528B2 - Virtual reality display system, virtual reality display method, and computer program - Google Patents

Virtual reality display system, virtual reality display method, and computer program Download PDF

Info

Publication number
JP6629528B2
JP6629528B2 JP2015121010A JP2015121010A JP6629528B2 JP 6629528 B2 JP6629528 B2 JP 6629528B2 JP 2015121010 A JP2015121010 A JP 2015121010A JP 2015121010 A JP2015121010 A JP 2015121010A JP 6629528 B2 JP6629528 B2 JP 6629528B2
Authority
JP
Japan
Prior art keywords
image
display
displayed
virtual reality
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015121010A
Other languages
Japanese (ja)
Other versions
JP2017004457A (en
Inventor
武志 古川
武志 古川
Original Assignee
株式会社ファイン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ファイン filed Critical 株式会社ファイン
Priority to JP2015121010A priority Critical patent/JP6629528B2/en
Publication of JP2017004457A publication Critical patent/JP2017004457A/en
Application granted granted Critical
Publication of JP6629528B2 publication Critical patent/JP6629528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、仮想現実(Virtual Reality )世界の三次元画像を表示するシステムに関し、不快感を低減させ、手軽に利用することを可能とする仮想現実表示システム、仮想現実表示方法及びコンピュータプログラムに関する。   The present invention relates to a system for displaying a three-dimensional image of a virtual reality world, and more particularly to a virtual reality display system, a virtual reality display method, and a computer program which can reduce discomfort and can be easily used.

仮想現実のビューアとして、従来ヘッドマウントディスプレイ(以下、HMD(Head Mounted Display )という。)が利用されている。HMDは一般的には、シューティングゲーム、アドベンチャーゲーム等、没入感が求められる画像を表示するためのディスプレイとして利用されることが多い。   Conventionally, a head mounted display (hereinafter, referred to as an HMD (Head Mounted Display)) has been used as a viewer of virtual reality. In general, the HMD is often used as a display for displaying an image that requires an immersive feeling, such as a shooting game and an adventure game.

ディスプレイの精細化及び小型化、並びにセンサ類の技術の進歩及び低コスト化等が進んだことで、視野角が広いHMDの一般への普及が進みつつある。これにより近年、HMDを利用したコンテンツが多数提案されている。   HMDs with a wide viewing angle have been widely used due to advances in miniaturization and miniaturization of displays, and advances in sensor technology and cost reduction. Accordingly, in recent years, many contents using the HMD have been proposed.

住宅販売の分野においてもHMDを利用して三次元CADデータに基づき、屋内外の視点位置から見た状態を表すCG画像を表示させ、建築予定の住宅での生活をエンドユーザに体感させることができるウォークスルーを実現するCG画像の表示方法が提案されている(特許文献1、2等)。   Even in the field of home sales, HMD can be used to display CG images showing the state viewed from indoor and outdoor viewpoints based on three-dimensional CAD data, so that end users can experience life in houses to be built. A display method of a CG image that realizes a possible walk-through has been proposed (Patent Documents 1 and 2, etc.).

特開平11−316855号公報JP-A-11-316855 特開平09−106409号公報JP-A-09-106409

しかしながら、特許文献1,2に開示されている表示方法はウォークスルーを実現することを目的としている。そのため、HMDの装着者の体の動きの一部、手の動き、視線の向きをセンサで捉えて画像を変化させることがなされているが、表示される動画、画像の切り替え等はオペレータによって行なわれ、装着者であるエンドユーザは切替えなどの操作に対して受け身であった。装着者は能動的に画像の切替、変化を操作することが困難であるため、HMDを利用する場合には、三次元酔い(3D酔い)等による不快感を生じることがある。   However, the display methods disclosed in Patent Literatures 1 and 2 aim at realizing walk-through. Therefore, a part of the body movement of the wearer of the HMD, the movement of the hand, and the direction of the line of sight are captured by the sensor to change the image, but the displayed moving image, switching of the image, and the like are performed by the operator. Thus, the end user who is the wearer was passive for operations such as switching. Since it is difficult for the wearer to actively switch and change the image, when using the HMD, discomfort such as three-dimensional sickness (3D sickness) may occur.

特許文献2には、HMDを装着しながら、ジョイスティックなど手で操作するコントローラを用いて能動的に操作する方法も提案されている。しかしながらHMDに現実世界の視界を奪われながらコントローラを操作するには、技術又は慣れが必要になり、住宅販売の客層にとっては、利用することが困難であった。   Patent Literature 2 proposes a method of actively operating a hand-operated controller such as a joystick while wearing an HMD. However, in order to operate the controller while the HMD deprives the real world of the field of view, technology or familiarity is required, and it has been difficult for the home sales customer group to use the controller.

また、特許文献1に開示されている表示方法は、ウォークスルーの実現を目的としているため、装着者であるエンドユーザの全身の動きを捉える必要があるから必要とする機器類が大規模である。更に、HMDに没入する装着者の全身の動きを捉えるために安全に自由に動けるような空間が必要となる。このようにエンドユーザにとっては、手軽に利用できるものではなかった。   Further, the display method disclosed in Patent Literature 1 is intended to realize a walk-through, and it is necessary to capture the movement of the whole body of an end user who is a wearer, so that the necessary devices are large-scale. . Furthermore, in order to capture the movement of the whole body of the wearer who is immersed in the HMD, a space that can safely and freely move is required. Thus, it was not easy to use for the end user.

本発明は斯かる事情に鑑みてなされたものであり、装着者への不快感を低減し、手軽に利用することが可能な仮想現実表示システム、仮想現実表示方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a virtual reality display system, a virtual reality display method, and a computer program which can reduce discomfort to a wearer and can be easily used. Aim.

本発明に係る仮想現実表示システムは、画像を表示するヘッドマウント型の表示装置と、該表示装置へ三次元画像を出力する画像出力装置とを含み、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示システムにおいて、前記表示装置の装着者の操作を検知する検知部を更に備え、前記画像出力装置は、前記検知部にて操作を検知している間、表示中の三次元画像中に、三次元で描画した操作用のオブジェクト画像を重畳させた画像を作成して出力する手段と、前記検知部にて検知した操作と、操作用のオブジェクト画像が表示されている表示位置とに基づいて、表示中の三次元画像を変化させる変化手段とを備えることを特徴とする。   A virtual reality display system according to the present invention includes a head-mounted display device that displays an image, and an image output device that outputs a three-dimensional image to the display device, and outputs a three-dimensional image according to virtual reality to the display device. The virtual reality display system further includes a detecting unit that detects an operation of a wearer of the display device, wherein the image output device displays the three-dimensional image while the operation is detected by the detecting unit. Means for creating and outputting an image in which an operation object image drawn in three dimensions is superimposed on the image, an operation detected by the detection unit, and a display position where the operation object image is displayed And changing means for changing the three-dimensional image being displayed based on the above.

本発明に係る仮想現実表示システムは、前記三次元画像は建造物の屋内又は屋外の画像であり、該屋内又は屋外に設置されている設備の画像を含み、前記オブジェクト画像はボタンの画像を含み、前記変化手段は、前記検知部にて検知した操作が前記ボタンを押下する操作である場合、前記設備の画像を他の画像へ切り替えて変化させることを特徴とする。   In the virtual reality display system according to the present invention, the three-dimensional image is an indoor or outdoor image of a building, includes an image of equipment installed indoor or outdoor, and the object image includes an image of a button. When the operation detected by the detection unit is an operation of pressing the button, the changing unit switches the image of the facility to another image and changes the image.

本発明に係る仮想現実表示システムは、前記三次元画像は建造物の屋内又は屋外の画像であり、前記オブジェクト画像はスライドバーの画像を含み、前記変化手段は、前記検知部にて検知した操作が前記スライドバーをなぞる操作である場合、前記屋内又は屋外の画像を連続的に変化させることを特徴とする。   In the virtual reality display system according to the present invention, the three-dimensional image is an indoor or outdoor image of a building, the object image includes a slide bar image, and the changing unit detects an operation detected by the detection unit. Is an operation of tracing the slide bar, wherein the indoor or outdoor image is continuously changed.

本発明に係る仮想現実表示方法は、画像を表示するヘッドマウント型の表示装置と、該表示装置の装着者の操作を検知する検知装置と、前記表示装置へ三次元画像を出力する画像出力装置とを含み、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示方法であって、前記画像出力装置は、前記検知装置にて操作を検知している間、表示中の三次元画像中に、三次元で描画した操作用のオブジェクト画像を重畳させた画像を作成して出力し、前記検知装置にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、表示中の三次元画像を変化させることを特徴とする。   A virtual reality display method according to the present invention includes a head-mounted display device that displays an image, a detection device that detects an operation of a wearer of the display device, and an image output device that outputs a three-dimensional image to the display device And a virtual reality display method for displaying a three-dimensional image related to virtual reality on the display device, wherein the image output device displays the three-dimensional image while the detection device detects an operation. In the image, an image in which an operation object image drawn in three dimensions is superimposed is created and output, and the operation movement detected by the detection device and the display position where the operation object image is displayed The three-dimensional image being displayed is changed based on the above.

本発明に係るコンピュータプログラムは、画像を表示する表示部と接続されるプロセッサに、前記表示部を視認するユーザの操作を検知する検知部からの検知結果を受信させ、該検知結果に応じた仮想現実に係る三次元画像を前記表示部に出力させるコンピュータプログラムにおいて、前記プロセッサに、前記検知部にて操作を検知している間、表示中の三次元画像中に、三次元で描画した操作用のオブジェクト画像を重畳させた画像を作成して出力させ、前記検知部にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、表示中の三次元画像を変化させることを特徴とする。   A computer program according to the present invention causes a processor connected to a display unit that displays an image to receive a detection result from a detection unit that detects an operation of a user who visually recognizes the display unit, and performs a virtual process according to the detection result. In a computer program for outputting a three-dimensional image according to reality to the display unit, the processor is configured to perform an operation for three-dimensionally drawing in a three-dimensional image being displayed while detecting an operation by the detection unit. A three-dimensional image being displayed based on the movement of the operation detected by the detection unit and the display position where the object image for operation is displayed, by creating and outputting an image in which the object image of the object is superimposed. Is changed.

本発明では、仮想現実に係る三次元画像を表示するヘッドマウント型の表示装置を装着する装着者の操作を検知する検知部が更に備えられ、操作が検知されている間は、操作用のオブジェクト画像が三次元的に表示されており、これにより、装着者は自身の操作によって、好きなタイミングで能動的に画像を変化させることができる。   In the present invention, a detection unit that detects an operation of a wearer who wears a head-mounted display device that displays a three-dimensional image according to virtual reality is further provided, and an operation object is detected while the operation is detected. The image is displayed three-dimensionally, so that the wearer can actively change the image at his / her desired timing by his / her own operation.

本発明では、オブジェクト画像はボタンの画像を含み、ボタンの押下の操作に応じて画像が切り替えられる。仮想現実空間における眼前にボタンが表示された場合にはそれを押下してみようとするという自然な動きで、手軽に操作が可能である。   In the present invention, the object image includes the image of the button, and the image is switched according to the operation of pressing the button. When a button is displayed in front of the eyes in the virtual reality space, the operation can be easily performed by a natural movement of trying to press the button.

本発明では、オブジェクト画像はスライドバーの画像を含み、スライドバーをなぞる操作に応じて画像が連続的に変化する。広い視野角で三次元画像をHMDで表示する場合、連続的な変化は不快感を発生させる可能性があるが、装着者が能動的に操作することにより、不快感が低減される。   In the present invention, the object image includes the image of the slide bar, and the image continuously changes according to the operation of tracing the slide bar. When displaying a three-dimensional image on an HMD with a wide viewing angle, continuous changes may cause discomfort, but discomfort is reduced by the wearer's active operation.

本発明による場合、HMDの装着者は表示される画像を自身の操作によって能動的に変化させることが可能になり、受け身であることが回避されて不快感が低減される。また、別体でコントローラを設けないからコントローラを操作する慣れ又は技術も不要となって直感的に操作が可能であり、手軽に利用できる。   According to the present invention, the wearer of the HMD can actively change the displayed image by his / her own operation, thereby avoiding being passive and reducing discomfort. In addition, since a controller is not provided separately, familiarity or technology for operating the controller is not required, so that the operation can be performed intuitively and can be easily used.

本実施の形態における仮想現実表示システムを示す模式図である。FIG. 1 is a schematic diagram illustrating a virtual reality display system according to the present embodiment. 本実施の形態における仮想現実表示システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a virtual reality display system according to the present embodiment. 情報処理装置の制御部にて実行される処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of a processing procedure executed by a control unit of the information processing device. 本実施の形態におけるHMDを通して装着者が視認できる画像を二次元的に表現した説明図である。FIG. 5 is an explanatory diagram two-dimensionally expressing an image that can be visually recognized by a wearer through the HMD according to the present embodiment. 本実施の形態におけるHMDを通して装着者が視認できる画像を二次元的に表現した説明図である。FIG. 5 is an explanatory diagram two-dimensionally expressing an image that can be visually recognized by a wearer through the HMD according to the present embodiment. 本実施の形態におけるHMDを通して装着者が視認できる画像を二次元的に表現した説明図である。FIG. 5 is an explanatory diagram two-dimensionally expressing an image that can be visually recognized by a wearer through the HMD according to the present embodiment. 本実施の形態におけるHMDを通して装着者が視認できる画像を二次元的に表現した説明図である。FIG. 5 is an explanatory diagram two-dimensionally expressing an image that can be visually recognized by a wearer through the HMD according to the present embodiment. 本実施の形態におけるHMDを通して装着者が視認できる画像を二次元的に表現した説明図である。FIG. 5 is an explanatory diagram two-dimensionally expressing an image that can be visually recognized by a wearer through the HMD according to the present embodiment.

以下、本発明をその実施形態を示す図面に基づいて具体的に説明する。なお、以下に示す実施形態は例示であって、本発明は以下の構成に限られないことは勿論である。   Hereinafter, the present invention will be specifically described with reference to the drawings showing the embodiments. The embodiment described below is an example, and the present invention is not limited to the following configuration.

図1は、本実施の形態における仮想現実表示システムを示す模式図であり、図2は、本実施の形態における仮想現実表示システムの構成を示すブロック図である。仮想現実表示システムは、ヘッドマウント型の表示装置であるHMD1、ヘッドフォン型のスピーカ2及び画像出力装置である情報処理装置3を含む。   FIG. 1 is a schematic diagram illustrating a virtual reality display system according to the present embodiment, and FIG. 2 is a block diagram illustrating a configuration of the virtual reality display system according to the present embodiment. The virtual reality display system includes an HMD 1 that is a head-mounted display device, a headphone-type speaker 2, and an information processing device 3 that is an image output device.

HMD1は、表示部11、動き検知部12、位置検知部13、操作検知部14及び接続部15を備える。HMD1の本体に、表示部11、動き検知部12、位置検知部13の一部、及び操作検知部14が設けられており、位置検知部13の他部と接続部15とは各々別体として本体とケーブルを介して接続されている。   The HMD 1 includes a display unit 11, a motion detection unit 12, a position detection unit 13, an operation detection unit 14, and a connection unit 15. The display unit 11, the motion detection unit 12, a part of the position detection unit 13, and the operation detection unit 14 are provided on the main body of the HMD 1, and the other part of the position detection unit 13 and the connection unit 15 are separately provided. It is connected to the main unit via a cable.

表示部11は例えば、小型の液晶ディスプレイ及び光学レンズを備え、視野角110°以上で三次元画像を表示することが可能である。表示部11は情報処理装置3から出力される画像信号(映像信号を含む)を受け付けて表示させる。   The display unit 11 includes, for example, a small liquid crystal display and an optical lens, and can display a three-dimensional image with a viewing angle of 110 ° or more. The display unit 11 receives and displays an image signal (including a video signal) output from the information processing device 3.

動き検知部12は、本体(表示部11のカバー及び装着ベルト)の各所に、多様な向きで設けられた複数の三軸加速度センサ及びジャイロセンサと、これらのセンサ群からの信号を集約して出力する制御回路とを備える。動き検知部12により、装着者の頭部の動きが検知される。   The motion detection unit 12 collects signals from a plurality of three-axis acceleration sensors and gyro sensors provided in various directions on the main body (the cover and the mounting belt of the display unit 11) and signals from these sensor groups. And a control circuit for outputting. The motion detector 12 detects the motion of the head of the wearer.

位置検知部13は、別体として載置型の赤外線カメラ131を用い、本体の各所に設けられて外向きに赤外線を照射する複数の赤外線を照射する赤外線LED132から照射される光を夫々直接的に検知する。赤外線カメラ131は、本体を捉えることが出来る適切な位置に載置される。位置検知部13は、赤外線カメラ131によって本体表面に設けられた赤外線LED132からの照射光の強度を検知し、これにより、載置場所を基準としたHMD1本体の各所の距離を算出して出力する回路を更に備える。   The position detection unit 13 uses a mounting type infrared camera 131 as a separate body, and directly emits light emitted from infrared LEDs 132 that are provided in various parts of the main body and emits infrared rays outward and emits infrared rays. Detect. The infrared camera 131 is mounted at an appropriate position where the infrared camera 131 can capture the main body. The position detection unit 13 detects the intensity of the irradiation light from the infrared LED 132 provided on the surface of the main body by the infrared camera 131, thereby calculating and outputting the distance of each location of the main body of the HMD 1 with respect to the mounting location. The circuit further includes a circuit.

操作検知部14は、本体の外面に外向きに並設された2つの赤外線カメラと、該赤外線カメラの中間位置に同様に外向きに赤外線を照射するように設けられた赤外線LEDとを用いる。詳細には操作検知部14は、図1に示すように、本体における目が当てられる位置を基準として、本体外面上における目線の先に位置する箇所に外向きに設けられている。操作検知部14は、赤外線LEDから照射された光の反射を2つの赤外線カメラで撮像した結果に基づいて、赤外線カメラ又は赤外線LEDの位置を基準とする所定範囲の実空間内におけるユーザの手指の位置を検知する装置である。操作検知部14は、2つの赤外線カメラにて捉えた手指の画像に基づき手指上の各箇所(例えば手の甲及び各指の関節の位置)の座標を算出し、算出した座標の情報を出力する制御回路を含む。   The operation detection unit 14 uses two infrared cameras arranged side by side on the outer surface of the main body, and an infrared LED provided to radiate infrared rays similarly to an intermediate position between the infrared cameras. Specifically, as shown in FIG. 1, the operation detection unit 14 is provided outward at a location located beyond the line of sight on the outer surface of the main body with reference to the position where the eye is applied on the main body. The operation detection unit 14 is configured to detect the reflection of the light emitted from the infrared LED by the two infrared cameras based on a result of the user's finger in a real space within a predetermined range based on the position of the infrared camera or the infrared LED. It is a device that detects the position. The operation detection unit 14 calculates the coordinates of each part (for example, the position of the back of the hand and the joint of each finger) on the finger based on the image of the finger captured by the two infrared cameras, and outputs information of the calculated coordinates. Including circuits.

接続部15は、HMD1の本体とはケーブルで接続された別体として設けられている。接続部15は、動き検知部12から出力される信号と、位置検知部13の赤外線カメラ131に基づき出力される距離に係る信号とを同期させて出力する。   The connection unit 15 is provided as a separate body connected to the main body of the HMD 1 by a cable. The connection unit 15 synchronizes and outputs a signal output from the motion detection unit 12 and a signal related to a distance output based on the infrared camera 131 of the position detection unit 13.

スピーカ2は、情報処理装置から出力される音声信号を受け付けて出力する。なおスピーカ2はHMD1と一体に構成されてもよい。なおスピーカ2は必須ではない。   The speaker 2 receives and outputs an audio signal output from the information processing device. Note that the speaker 2 may be configured integrally with the HMD 1. Note that the speaker 2 is not essential.

情報処理装置3は、図1に示す如くノートブック型(ラップトップ型)のPC(Personal Computer )を用い、制御部30、一時記憶部31、記憶部32、表示部33、操作部34、入出力部35、画像出力部36及び音声出力部37を備える。なお情報処理装置3はノートブック型のPCに限られないことは勿論であり、例えばデスクトップ型のPCであってもサーバ型のコンピュータであってもよい。また十分な速度で画像を描画し、画像信号及び制御信号を同時並行的に送受信することができるコンピュータであればタブレット型のコンピュータであってもよい。音声出力部37は必須ではない。   The information processing apparatus 3 uses a notebook (laptop) PC (Personal Computer) as shown in FIG. 1, and includes a control unit 30, a temporary storage unit 31, a storage unit 32, a display unit 33, an operation unit 34, An output unit 35, an image output unit 36, and an audio output unit 37 are provided. Note that the information processing apparatus 3 is not limited to a notebook PC, and may be, for example, a desktop PC or a server computer. A tablet-type computer may be used as long as it can draw an image at a sufficient speed and transmit and receive an image signal and a control signal simultaneously and in parallel. The audio output unit 37 is not essential.

制御部30は、CPU(Central Processing Unit )を用いる。制御部30は、記憶部32に記憶されている各種プログラムを読み出して実行することにより、情報処理装置3に多様な機能を発揮させる。一時記憶部31は、DRAM(Dynamic Random Access Memory)等のRAMを用いる。一時記憶部31は、制御部30の処理によって生成される情報を一時的に記憶する。   The control unit 30 uses a CPU (Central Processing Unit). The control unit 30 causes the information processing device 3 to perform various functions by reading and executing various programs stored in the storage unit 32. The temporary storage unit 31 uses a RAM such as a dynamic random access memory (DRAM). The temporary storage unit 31 temporarily stores information generated by the processing of the control unit 30.

記憶部32は、ハードディスク又はフラッシュメモリ等の不揮発性の記憶媒体を用いる。記憶部32には、HMD1に三次元画像を表示させるための画像作成及び出力を実現するための表示制御プログラム3Pが記憶されている。記憶部32には更に、作成される画像信号の素材となる三次元のオブジェクト画像の情報を含む画像データ3Iが記憶されている。   The storage unit 32 uses a nonvolatile storage medium such as a hard disk or a flash memory. The storage unit 32 stores a display control program 3P for realizing image creation and output for displaying a three-dimensional image on the HMD 1. The storage unit 32 further stores image data 3I including information on a three-dimensional object image serving as a material of an image signal to be created.

表示部33は、例えば液晶ディスプレイを用いる。勿論、表示部33は有機EL(Electro Luminescence)など他の種類のディスプレイを用いてもよい。制御部30は、表示部33へ文字又は画像を含む各種画面を表示させる。表示部33は、HMD1へ出力される画像信号に基づく画像のモニタとしても使用され、装着者が視認している画像の内容をオペレータ及び他の複数人でリアルタイムに認識することが可能である。操作部34は、キーボード及びポインティングデバイス等の入力インタフェースを用いる。制御部30は、入力インタフェースによって入力した操作情報に基づいて各構成部を制御する。なお表示部33及び操作部34は、タッチパネル内蔵型ディスプレイとして一体的に構成されてもよい。   The display unit 33 uses, for example, a liquid crystal display. Of course, the display unit 33 may use another type of display such as an organic EL (Electro Luminescence). The control unit 30 causes the display unit 33 to display various screens including characters or images. The display unit 33 is also used as a monitor of an image based on the image signal output to the HMD 1, and allows the operator and a plurality of other persons to recognize the contents of the image visually recognized by the wearer in real time. The operation unit 34 uses an input interface such as a keyboard and a pointing device. The control unit 30 controls each component based on the operation information input through the input interface. The display unit 33 and the operation unit 34 may be integrally configured as a display with a built-in touch panel.

入出力部35は、USB(Universal Serial Bus)インタフェースを用いる。制御部30は、入出力部35を介して外部装置と制御に係る信号を入出力する。本実施の形態では制御部30は、入出力部35によりHMD1の動き検知部12及び位置検知部13から出力される信号及び操作検知部14から出力される信号を各入力する。   The input / output unit 35 uses a USB (Universal Serial Bus) interface. The control unit 30 inputs and outputs signals related to control with an external device via the input / output unit 35. In the present embodiment, the control unit 30 inputs a signal output from the motion detection unit 12 and the position detection unit 13 of the HMD 1 and a signal output from the operation detection unit 14 via the input / output unit 35.

画像出力部36は、HDMI(High Definition Multimedia Interface:登録商標)と、三次元画像を高速に描画するためのグラフィックボードとを含む。画像出力部36は、制御部30からの制御により、記憶部32に記憶されている画像データ3Iに基づき、三次元画像として視認できるようにするための右目用の画像及び左目用の各画像の画像信号を作成して出力する。   The image output unit 36 includes HDMI (High Definition Multimedia Interface: registered trademark) and a graphic board for rendering a three-dimensional image at high speed. Based on the image data 3I stored in the storage unit 32, the image output unit 36 controls the right-eye image and the left-eye image to be visually recognized as a three-dimensional image based on the image data 3I stored in the storage unit 32. Create and output an image signal.

音声出力部37は、記憶部32に記憶されている音声データに基づき、制御部30からの制御により音声信号を出力する。   The audio output unit 37 outputs an audio signal under the control of the control unit 30 based on the audio data stored in the storage unit 32.

上述のようなハードウェア構成を有する仮想現実表示システムにおいては、HMD1の装着者の頭の動き及び位置を動き検知部12及び位置検知部13で検知してその信号を情報処理装置3へ出力し、その動き及び位置に基づいて情報処理装置3にて作成される画像の画像信号を入力し表示部11にて表示する。これにより装着者は、仮想現実に係る画像を自身の動作に応じて表示することが可能になる。本実施の形態における仮想現実表示システムにおいては特に、建物の屋内又は屋外を視点とする仮想現実の画像が表示される。例えば住宅展示場、モデルルーム展示場、建築工事又はリフォーム工事前の打ち合わせの場等において、施主が工事予定の建物の内外のイメージを把握し易くなるように利用される。   In the virtual reality display system having the above-described hardware configuration, the motion detection unit 12 and the position detection unit 13 detect the movement and position of the head of the wearer of the HMD 1 and output the signal to the information processing device 3. The image signal of the image created by the information processing device 3 based on the movement and the position is input and displayed on the display unit 11. This allows the wearer to display an image relating to virtual reality according to his / her own motion. In the virtual reality display system according to the present embodiment, in particular, a virtual reality image from the viewpoint of a building indoors or outdoors is displayed. For example, it is used in a house exhibition hall, a model room exhibition hall, a meeting place before construction work or renovation work, or the like so that the owner can easily grasp the inside and outside images of the building to be constructed.

図3は、情報処理装置3の制御部30にて実行される処理手順の一例を示すフローチャートである。制御部30は、記憶部32に記憶されている表示制御プログラム3Pをアプリケーションプログラムとして実行すると、以下に示す処理を開始する。   FIG. 3 is a flowchart illustrating an example of a processing procedure executed by the control unit 30 of the information processing device 3. When executing the display control program 3P stored in the storage unit 32 as an application program, the control unit 30 starts the following processing.

まず制御部30は、表示部33にオペレータ用画面を表示し、HMD1の装着者のタイプの選択を受け付ける(ステップS1)。タイプとは例えば、性別及び身長である。性別により、表示される画像の内容が変更され、身長により初期的な目線の高さが設定される。性別による画像の内容の変更とは例えば以下である。装着者が女性の場合、キッチンの屋内画像であってキッチン設備の高さ、吊戸棚の高さ、キッチン内又はキッチンと洗面室等との間の導線、キッチン設備の色などを体感してもらうための画像とする。装着者が男性の場合、建物の構造のスケルトン表示、経年劣化の過程を体感してもらうなどの画像とする。   First, the control unit 30 displays an operator screen on the display unit 33 and accepts selection of the type of the wearer of the HMD 1 (step S1). The types are, for example, gender and height. The content of the displayed image is changed depending on the gender, and the height of the initial line of sight is set according to the height. The change of the content of the image by gender is, for example, as follows. If the wearer is a woman, the image is an indoor image of the kitchen, and the user can experience the height of the kitchen equipment, the height of the cabinet, the conductive lines in the kitchen or between the kitchen and the washroom, and the colors of the kitchen equipment. Image for When the wearer is a male, the image is a skeleton display of the structure of the building, and an image that allows the user to experience the process of deterioration over time.

次に制御部30は、ステップS1で選択したタイプに応じて、記憶部32に記憶されてある画像データ321に基づいて、左目及び右目用の各画像の画像信号を、入出力部35により入力した動き検知部12及び位置検知部13からの信号に基づいて変更することにより、装着者の頭の向きに追従した三次元画像の画像信号の画像出力部36による作成及び出力を開始する(ステップS2)。なおこのとき、左目用及び右目用の各画像の画像信号は、画像内に鼻の三次元モデル画像が視認できるように作成される。また装着者が下を向いたときの左目用及び右目用の各画像の画像信号には、画像内に胸元から足元に対応する画像が含まれるように作成される。このように表示される三次元画像には、見えるべき体の一部が表示されるように画像信号が作成される。これにより、HMD1における三次元酔いが軽減される。   Next, the control unit 30 inputs the image signal of each image for the left eye and the right eye through the input / output unit 35 based on the image data 321 stored in the storage unit 32 according to the type selected in step S1. By making a change based on the signals from the motion detection unit 12 and the position detection unit 13, the image output unit 36 starts creating and outputting an image signal of a three-dimensional image that follows the head direction of the wearer (step). S2). At this time, the image signals of the left-eye image and the right-eye image are created such that the three-dimensional model image of the nose can be visually recognized in the image. Further, the image signals of the left-eye image and the right-eye image when the wearer faces downward are created so that the images include images corresponding to the steps from the chest to the feet. In the three-dimensional image displayed in this way, an image signal is created so that a part of the body to be seen is displayed. Thereby, three-dimensional sickness in the HMD 1 is reduced.

制御部30は、操作検知部14により、HMD1の外側における装着者の目線の先の所定範囲内に、装着者の手指を検知しているか否かを判断する(ステップS3)。   The control unit 30 determines whether or not the finger of the wearer is detected by the operation detection unit 14 within a predetermined range beyond the line of sight of the wearer outside the HMD 1 (step S3).

ステップS3にて操作検知部14が手指を検知していると判断した場合(S3:YES)、制御部30は操作用の三次元のオブジェクト画像を、装着者の頭の動きに追従する三次元画像中に重畳させ、更に手指の画像を重畳させた画像を作成して出力する(ステップS4)。三次元のオブジェクト画像とは例えば、球体(スクロール)、プッシュボタン、ロッカースイッチ、スライドバー等の立体的な画像である。複数種類のオブジェクト画像が並べて表示されていてもよい。これにより、手指が所定範囲内に検知されている間は、操作用のオブジェクト画像が視界に浮遊するように表示され、更に操作検知部14により検知される手の甲及び手指の各所の位置に基づき、手指の動きに合わせて該手指の画像がリアルタイムに動いて表示される(図5〜8参照)。   If it is determined in step S3 that the operation detection unit 14 has detected a finger (S3: YES), the control unit 30 converts the three-dimensional object image for operation into a three-dimensional object image that follows the movement of the wearer's head. An image in which the image is superimposed on the image and further the image of the finger is generated and output (step S4). The three-dimensional object image is, for example, a three-dimensional image such as a sphere (scroll), a push button, a rocker switch, and a slide bar. A plurality of types of object images may be displayed side by side. As a result, while the finger is detected within the predetermined range, the operation object image is displayed so as to float in the field of view, and further based on the positions of the back of the hand and various positions of the finger detected by the operation detection unit 14, The image of the finger moves and is displayed in real time in accordance with the movement of the finger (see FIGS. 5 to 8).

制御部30は、三次元のオブジェクト画像の、表示中の三次元画像内における表示位置と、操作検知部14にて検知している手指の位置と、検知される手指の動きとに基づいて、表示中のオブジェクト画像に対する操作が行なわれたか否かを判断する(ステップS5)。例えば制御部30は、プッシュボタンであるオブジェクト画像の表示位置で、指で押す動きが操作検知部14にて検知された場合、操作が行なわれたと判断する。また制御部30は、スライドバーであるオブジェクト画像の表示位置で、指で左右方向になぞる動きが操作検知部14にて検知された場合、操作が行なわれたと判断する。   The control unit 30 determines a three-dimensional object image based on the display position in the displayed three-dimensional image, the position of the finger detected by the operation detection unit 14, and the detected movement of the finger. It is determined whether an operation has been performed on the displayed object image (step S5). For example, the control unit 30 determines that an operation has been performed when the operation detection unit 14 detects a movement of pushing with a finger at a display position of an object image that is a push button. The control unit 30 determines that an operation has been performed when the operation detection unit 14 detects a movement of tracing a finger in the left-right direction at the display position of the object image as a slide bar.

ステップS5にて操作が行なわれたと判断された場合(S5:YES)、制御部30は操作の対象のオブジェクト画像の種類(スクロール、プッシュボタン、ロッカースイッチ、スライドバーのいずれか等)と、動きの位置及び種類とに応じて、操作の内容を識別し(ステップS6)、識別した操作の内容に応じて、表示中の三次元画像を変化させる(ステップS7)。「ボタンを押す」という操作、及び「スライドバーをなぞる」という操作の識別については、手の甲の位置、指の関節の位置を夫々示す信号のパターンを学習しておき、パターンマッチングに基づいて識別が可能である。   If it is determined in step S5 that the operation has been performed (S5: YES), the control unit 30 determines the type of the object image to be operated (one of scroll, push button, rocker switch, slide bar, etc.) and the motion The content of the operation is identified according to the position and the type of (Step S6), and the displayed three-dimensional image is changed according to the identified content of the operation (Step S7). For the operation of “pressing a button” and the operation of “tracing a slide bar”, the signal patterns indicating the position of the back of the hand and the position of the finger joint are learned, and the identification is performed based on the pattern matching. It is possible.

ステップS7において例えば、制御部30は、プッシュボタンを押すという操作が検知される都度、屋内画像における設備、家具又は家電(例えば、床材の種類又は色、壁紙の種類又は色、巾木の種類又は色、ドアの種類又は色、窓枠の種類若しくは色、キッチンパネルの種類若しくは色、戸棚の種類若しくは色、カーテンの種類若しくは色、テーブル及び椅子の種類若しくは色、ベッドの種類若しくは色、ライトの種類若しくは場所、家電の種類又は色等)を変化させる。屋外画像であれば、外装(屋根の種類若しくは色、外壁パネルの種類若しくは色、外壁塗装の種類若しくは色等)、設備(ドア、窓の種類若しくは色、屋上設備)、又は外構設備(門扉、塀、アプローチ、車庫、駐車スペース、庭、デッキ、若しくは植栽の種類、色等)を変化させる。制御部30は、窓の種類(引違、内倒し、回転、嵌め殺し、格子付等)又は大きさ(腰窓又は掃出窓等)を変化させるようにしてもよいし、設備又は家電(キッチンカウンター、吊戸棚、テーブル、家電)の高さ、天井の高さを変更するようにしてもよい。また制御部30は例えば、ロッカースイッチを切り替えるという操作が検知された場合、屋内外の昼夜の切り替え、ライトのオンオフの切り替え、ライトの種類(灯りの色)の変化を実行する。更に制御部30は例えば、スクロール又はスライドバーをなぞるという操作が検知された場合、スクロール位置又はスライドバーのノブ部分の位置に応じて、日中の時間の経過に応じた屋内外画像の明るさ、屋内外画像内の日射角度を連続的に変化させる。またスライドバーのノブ部分の位置に応じて、制御部30は、建物の屋内外の経年劣化のシミュレーション画像を連続的に変化させる。   In step S7, for example, every time an operation of pressing a push button is detected, the control unit 30 checks the facilities, furniture, or home appliances (for example, the type or color of flooring, the type or color of wallpaper, or the type of baseboard) in the indoor image. Or color, door type or color, window frame type or color, kitchen panel type or color, closet type or color, curtain type or color, table and chair type or color, bed type or color, light Of the home appliance, the type or color of the home appliance, etc.). In the case of an outdoor image, exterior (type or color of roof, type or color of exterior wall panel, type or color of exterior wall painting, etc.), equipment (type or color of door and window, rooftop equipment), or external equipment (gate) , Fence, approach, garage, parking space, garden, deck or planting type, color, etc.). The control unit 30 may change the type (drawing, falling down, turning, fitting, attaching a grid, etc.) or the size (lumbar window, sweep window, etc.) of the window, equipment or home appliance (kitchen counter). , Cabinets, tables, home appliances) and the height of the ceiling may be changed. In addition, for example, when an operation of switching the rocker switch is detected, the control unit 30 executes switching between indoor and outdoor day and night, switching on and off the light, and changing the type of light (color of light). Further, for example, when an operation of tracing a scroll or a slide bar is detected, the control unit 30 adjusts the brightness of the indoor / outdoor image according to the elapse of daytime in accordance with the scroll position or the position of the knob portion of the slide bar. , The solar radiation angle in the indoor and outdoor images is continuously changed. In addition, the control unit 30 continuously changes the simulation image of the aging deterioration inside and outside the building according to the position of the knob portion of the slide bar.

なお制御部30はステップS7において、三次元画像の変更のみならず、識別した操作の内容に応じて音声の出力のオンオフを切り替えるようにしてもよい。例えば制御部30は、ロッカースイッチをオンに切り替えるという操作が検知された場合、生活音を音声出力部37から出力する。生活音は例えば、屋外の音、流水音、話し声、ドアの開閉音、床への物が落ちた場合の衝突音、階下で聞こえる音等である。上述の設備、家具又は家電の種類の変更と併せることにより、装着者は、床材の種類、ドアの種類、窓の種類などによる生活音の違いを自身の操作によって体感することも可能である。   In step S7, the control unit 30 may switch on / off the output of the sound according to the content of the identified operation as well as the change of the three-dimensional image. For example, when an operation of turning on the rocker switch is detected, the control unit 30 outputs a life sound from the audio output unit 37. The living sound is, for example, an outdoor sound, a running water sound, a talking voice, a door opening / closing sound, a collision sound when an object falls on the floor, a sound heard downstairs, and the like. In combination with the above-described change in the type of equipment, furniture, or home appliances, the wearer can also experience the difference in living sounds depending on the type of flooring, the type of door, the type of window, and the like by his / her own operation. .

ステップS5にて操作が行なわれていないと判断された場合(S5:NO)、制御部30は処理をステップS3へ戻す。   If it is determined in step S5 that no operation has been performed (S5: NO), control unit 30 returns the process to step S3.

ステップS7の後、制御部30はオペレータ又は装着者によって表示終了の操作が行なわれたか否か判断する(ステップS8)。ステップS3にて操作検知部14は所定範囲内に手指を検知していないと判断された場合(S3:NO)も、ステップS8へ処理を進める。ステップS8にて表示終了の操作が行なわれたと判断された場合(S8:YES)、制御部30は三次元画像の画像出力部36による作成及び出力を停止し(ステップS9)、処理を終了する。ステップS8において表示終了の操作が行なわれていないと判断された場合(S8:NO)、制御部30は、処理をステップS3へ戻す。   After step S7, control unit 30 determines whether or not an operation of terminating display has been performed by the operator or the wearer (step S8). If it is determined in step S3 that the operation detection unit 14 has not detected a finger in the predetermined range (S3: NO), the process proceeds to step S8. When it is determined in step S8 that the operation of terminating the display has been performed (S8: YES), the control unit 30 stops the creation and output of the three-dimensional image by the image output unit 36 (step S9), and ends the processing. . If it is determined in step S8 that the operation of ending the display has not been performed (S8: NO), control unit 30 returns the process to step S3.

なお制御部30は更に、表示中の三次元画像内の設備、家具又は家電が含まれている場合に、操作検知部14にて設備、家具又は家電の場所に対応する位置に手指の位置を検知し、それらを操作するような動きが検知された場合は、操作の対象となった設備、家具又は家電を手指の動きに応じて変化させるようにしてもよい。表示される三次元画像は、壁(外壁)、屋根、床、家具夫々の三次元のオブジェクト情報から描画されているものであり、いずれのオブジェクトにおいても、操作されようとしているか否かを手指の位置に応じて検知することが可能である。例えばキッチンカウンターの画像が含まれている場合、キッチンカウンター上にキッチン用具がカウンター上に載置されている画像が表示され、装着者の手指の動きに合わせてキッチン用具が三次元画像内で動くようにする。これにより、装着者はカウンターの高さを体感することができる。同様にして棚又は押し入れ等の収納への荷物の上げ下ろしを三次元画像内で体感することも可能である。他に例えば内壁、外壁、キッチンなどの壁面を触るような操作が操作検知部14にて検知された場合、操作の対象の壁の色又は種類(クロス、塗装、又はタイル等の仕上げの種類)が切り替えられるようにしてもよい。更には、電気配線に関し、室内外の照明のスイッチの画像が壁面等に描画され、制御部30が操作検知部14にて該スイッチの位置に手指の位置を検知した場合、表示中の三次元画像を点灯時の画像と消灯時の画像とで切り替えるようにしてもよい。このように、表示中の屋内外の画像に含まれるオブジェクト(設備等)がいずれも仮想現実空間内における操作用のオブジェクト画像として用いられてもよい。   In addition, when equipment, furniture, or home appliances in the displayed three-dimensional image are included, the control unit 30 further causes the operation detection unit 14 to set the position of the finger to a position corresponding to the location of the equipment, furniture, or home appliances. If a movement that detects the movement and the operation thereof is detected, the equipment, furniture, or home appliance to be operated may be changed according to the movement of the finger. The displayed three-dimensional image is drawn from three-dimensional object information of each of a wall (outer wall), a roof, a floor, and furniture, and it is determined whether or not any object is being operated by a finger. It is possible to detect according to the position. For example, if an image of the kitchen counter is included, an image of the kitchen equipment placed on the counter is displayed on the kitchen counter, and the kitchen equipment moves in the three-dimensional image according to the movement of the wearer's finger. To do. This allows the wearer to experience the height of the counter. In the same manner, it is also possible to experience the lifting and lowering of luggage to a storage such as a shelf or a closet in a three-dimensional image. For example, when an operation of touching a wall surface such as an inner wall, an outer wall, or a kitchen is detected by the operation detection unit 14, the color or type of the wall to be operated (the type of finishing such as cloth, painting, or tile). May be switched. Furthermore, regarding the electric wiring, when an image of a switch of indoor / outdoor lighting is drawn on a wall surface or the like, and the control unit 30 detects the position of the finger at the position of the switch by the operation detection unit 14, the three-dimensional image being displayed is displayed. The image may be switched between a light-on image and a light-off image. As described above, any of the objects (equipment and the like) included in the indoor and outdoor images being displayed may be used as object images for operation in the virtual reality space.

また、操作検知部14にて特定の設備、家具又は家電の場所に対応する位置に手指の位置を検知した場合は、所定のアニメーション画像を表示させるようにしてもよい。このとき、音声出力部37により開閉に伴う音を出力するようにしてもよい。例えば特定の家具がドアである場合、手指がドアを指差したときには、ドアが開閉するアニメーション画像が表示されるようにする。これにより装着者は、仮想現実世界の臨場感を味わうことが可能である。   When the operation detection unit 14 detects the position of the finger at the position corresponding to the location of the specific equipment, furniture, or home appliance, a predetermined animation image may be displayed. At this time, the sound output unit 37 may output a sound accompanying opening and closing. For example, when a specific piece of furniture is a door, an animation image for opening and closing the door is displayed when a finger points at the door. Thus, the wearer can enjoy a sense of reality in the virtual reality world.

以下、上述の処理により表示される仮想現実のイメージについて例を挙げて詳細に説明する。図4〜8は、本実施の形態におけるHMD1を通して装着者が視認できる画像を二次元的に表現した説明図である。図4は、キッチン内に装着者が立っている場合に視認できる画像を示している。表示される画像は、装着者の身長の情報に応じて目線の高さが設定されている(S2)。図5は、図4の画像に対して操作用のオブジェクト画像O1〜O3を重畳表示した場合の画像の例である。図5中の手指の画像Hは、操作検知部14により検知された手指の手の甲及び指の各所の位置に応じて表示される。予め設定された装着者のタイプに応じて(S1)、表示される手指の画像Hを例えば女性の手指又は男性の手指とするとよい。図5に示すように、操作用のオブジェクト画像O1〜O3は仮想現実空間に浮遊しているように表示され、オブジェクト画像O1〜O3よりも奥側に視認されるべきキッチンの画像は半透明に視認できるようにしてある。図5には、操作用のオブジェクト画像O1〜O3として、複数のプッシュボタンO1、スライドバーO2、スライド式のボタンO3が並べて表示されている。   Hereinafter, the virtual reality image displayed by the above-described processing will be described in detail using an example. 4 to 8 are explanatory diagrams two-dimensionally expressing images that can be visually recognized by the wearer through the HMD 1 in the present embodiment. FIG. 4 shows an image that can be visually recognized when the wearer is standing in the kitchen. In the displayed image, the height of the line of sight is set according to the height information of the wearer (S2). FIG. 5 is an example of an image when the operation object images O1 to O3 are superimposed on the image of FIG. The image H of the finger in FIG. 5 is displayed in accordance with the positions of the back of the hand and the positions of the fingers detected by the operation detection unit 14. According to the type of the wearer set in advance (S1), the displayed finger image H may be, for example, a female finger or a male finger. As shown in FIG. 5, the operation object images O1 to O3 are displayed as floating in the virtual reality space, and the image of the kitchen to be visually recognized behind the object images O1 to O3 is translucent. It is made visible. In FIG. 5, a plurality of push buttons O1, a slide bar O2, and a slide type button O3 are displayed side by side as operation object images O1 to O3.

また図5に示すようにプッシュボタンO1の各下方には例えば、色見本が表示されている。図6に示すように、プッシュボタンO1に対応する位置でタップするような操作が操作検知部14により検知された場合、制御部30はプッシュボタンO1を押下する操作が行なわれたと識別し(S6)、制御部30は例えばキッチンパネルの色を、押下されたプッシュボタンO1の下方の色見本の色に変化させる(S7)。これにより、装着者は色の変更によってキッチン設備全体の色の雰囲気を体感することができる。装着者は視認できたボタンを押下するという自然な動作で、説明を受けるまでもなく表示を変化させる操作を能動的に実行することができる。   As shown in FIG. 5, for example, a color sample is displayed below each of the push buttons O1. As shown in FIG. 6, when an operation of tapping at a position corresponding to the push button O1 is detected by the operation detection unit 14, the control unit 30 identifies that the operation of pressing the push button O1 has been performed (S6). The control unit 30 changes the color of the kitchen panel, for example, to the color of the color sample below the pushed push button O1 (S7). This allows the wearer to experience the color atmosphere of the entire kitchen facility by changing the color. The wearer can actively execute the operation of changing the display without receiving explanation by a natural operation of pressing the visually recognized button.

図5及び図6には、キッチンにおける窓が示されている。図5に示すように窓の種類を切り替えるボタンO3に対応する位置で、装着者がボタンO3を上又は下にスライドさせる操作を行ない、操作検知部14にてこれが検知された場合、制御部30はボタンO3を切り替える操作が行なわれたと識別し(S6)、制御部30は窓の大きさを「腰窓」と「掃出窓」との間で切り替えるように変化させる(S7)。これによって装着者は、キッチンの窓の大きさによってキッチンへ入る光の雰囲気の違いを体感することができる。   5 and 6 show windows in the kitchen. As shown in FIG. 5, when the wearer performs an operation of sliding the button O3 up or down at a position corresponding to the button O3 for switching the type of window, and the operation detection unit 14 detects this, the control unit 30 Identifies that the operation of switching the button O3 has been performed (S6), and the control unit 30 changes the size of the window so as to switch between the “lumbar window” and the “sweep window” (S7). This allows the wearer to experience the difference in the atmosphere of light entering the kitchen depending on the size of the kitchen window.

このようにHMD1の装着者は、設備の色又は種類の違いから受ける印象の変化を体感することができる。変化した画像は情報処理装置3の表示部33にも表示されているから、装着者の反応が良かった色が何色だったのかオペレータ(営業担当者)及び他の複数人で把握することができ、更に、複数人で情報を共有することが出来るので、例えば仕様決めにおいて提供者と施主との間、施主の家族間の認識のギャップを埋め、設備の選択、仕様決めを効率化させることができる。   In this manner, the wearer of the HMD 1 can experience a change in the impression received from the difference in the color or type of the equipment. Since the changed image is also displayed on the display unit 33 of the information processing device 3, it is possible for the operator (sales rep) and a plurality of other persons to grasp what color the reaction of the wearer was good. Yes, and because multiple people can share information, for example, in specification specification, bridge the recognition gap between the provider and the owner, and between the owner's family, and make the selection of equipment and specification determination more efficient. Can be.

図7及び図8には、ある部屋内に装着者が立っている場合に視認できる画像を示している。図7においても表示される画像は、装着者の身長の情報に応じて目線が設定されている。図7及び図8では、操作用のオブジェクト画像O1〜O3としてスライドバーO2のみが重畳表示されている。図7及び図8においてもオブジェクト画像O1〜O3は空間に浮遊しているように表示され、オブジェクト画像O1〜O3よりも奥側に視認されるべき部屋内の画像は半透明に視認できるようにしてある。   7 and 8 show images that can be visually recognized when the wearer is standing in a certain room. In the image displayed also in FIG. 7, the eyes are set according to the height information of the wearer. 7 and 8, only the slide bar O2 is superimposed and displayed as the operation object images O1 to O3. Also in FIGS. 7 and 8, the object images O1 to O3 are displayed as floating in the space, and the images in the room to be visually recognized behind the object images O1 to O3 are made translucent. It is.

図7に示すように、スライドバーO2のノブ部分をなぞるような操作が操作検知部14により検知された場合、制御部30はスライドバーO2のノブ部分をなぞる操作が行なわれたと識別し(S6)、制御部30は、ノブ部分の位置に応じた時間に対応させて、表示している三次元の屋内画像における日射角度を変化させる(S7)。図7及び図8には、日射角度に応じた窓の影が室内に射影されている様子が示されている。図7と図8とでは、図8は図7よりも時間が進んだ様子を示しており、図7は朝頃、図8は昼頃の日射角度を示している。このように季節の違い、時間の違いによる日射角度の違いのイメージを、連続的に把握することができ、例えば施主は立地条件による日射角度の変化のイメージを容易に把握することができ、立地、又は窓の種類若しくは大きさなどの決定に役立てることが可能になる。   As illustrated in FIG. 7, when an operation that traces the knob of the slide bar O2 is detected by the operation detection unit 14, the control unit 30 identifies that the operation that traces the knob of the slide bar O2 is performed (S6). ), The control unit 30 changes the solar radiation angle in the displayed three-dimensional indoor image corresponding to the time corresponding to the position of the knob portion (S7). FIGS. 7 and 8 show a state in which the shadow of the window according to the solar radiation angle is projected into the room. 7 and 8, FIG. 8 shows a state in which time has advanced from that in FIG. 7, FIG. 7 shows a solar radiation angle around morning, and FIG. 8 shows a solar radiation angle around noon. In this way, it is possible to continuously grasp the image of the difference in the solar radiation angle due to the difference in season and time, and for example, the owner can easily grasp the image of the change in the solar radiation angle due to the location conditions, Or the type or size of the window.

このように本実施の形態における仮想現実表示システムでは、装着者は自身の操作によって、好きなタイミングで能動的に画像を変化させることができ、仮想現実の表示に対して受け身であることが回避されて不快感が低減される。また本実施の形態においては、操作検知部では全身の動きではなく、視線つまり頭部の動きと手指の動きとに、検知される情報が限定されるため、歩行をセンサで捉えてそれに応じて三次元画像内における視点位置を動かすことでウォークスルーを実現するような構成に比べ、手軽に利用が可能になる。大規模な設備も不要であるから、例えば住宅販売の業界においては、住宅展示場に手軽に体験することができるように設置しておき、任意の顧客が種々の設備の変更等を試すことを可能とする。また、各営業所で行なわれる仕様決めの打ち合わせ時に、手軽に利用することが可能になる。   As described above, in the virtual reality display system according to the present embodiment, the wearer can change the image actively at his / her desired timing by his / her own operation, and avoid being passive to the display of the virtual reality. Discomfort is reduced. In the present embodiment, since the information detected by the operation detection unit is limited to the line of sight, that is, the movement of the head and the movement of the finger, not the movement of the whole body, the walking is captured by the sensor and It can be used more easily than a configuration in which walk-through is realized by moving the viewpoint position in a three-dimensional image. Since large-scale equipment is not necessary, for example, in the home sales industry, it is necessary to install the equipment so that it can be easily experienced at the home exhibition hall, and for any customer to try various equipment changes etc. Make it possible. In addition, it can be easily used at the meeting of specification determination performed at each sales office.

なお、施主毎の設計図面の三次元CADデータに基づく三次元画像を作成して画像データ3Iとして記憶部32に記憶しておくことにより、設計段階の仕様決めの際に、具体的イメージを施主個別に体感させることも可能である。   In addition, by creating a three-dimensional image based on the three-dimensional CAD data of the design drawing for each owner and storing it in the storage unit 32 as image data 3I, a specific image can be obtained at the time of specification determination at the design stage. It is also possible to make them feel individually.

図4〜図8に示したように、本実施の形態において表示される三次元画像は視野角一杯に画像が表示される構成とした。これにより没入感は高められるが、装着者によっては不快感を生じる可能性がある。したがって、視野角を狭めるように表示するモードへの切り替えを可能とする構成としてもよい。同様に、額から見えているような画像を表示するべく、視野内に枠を表示する構成としてもよい。また、頭の動きに追従する表示に対して三次元酔いが生じる場合があるので、装着してから所定期間は視点を固定するようにし、装着者自身の操作によって視点の固定と、頭の動きに追従する表示の再開とを切り替えるようにしてもよい。また、三次元酔いを抑制するために、視点の高さを変更する場合、又は視点が配置される部屋を変更する場合に一旦、視野内を暗くしてから切り替えるように画像を作成出力するようにしてもよい。   As shown in FIGS. 4 to 8, the three-dimensional image displayed in the present embodiment has a configuration in which the image is displayed at the full viewing angle. This increases the immersion sensation, but may cause discomfort for some wearers. Therefore, a configuration in which switching to a mode in which display is performed so as to narrow the viewing angle may be possible. Similarly, a frame may be displayed in the field of view in order to display an image that is visible from the forehead. Also, there is a case where three-dimensional sickness may occur for the display following the movement of the head, so fix the viewpoint for a predetermined period after wearing it, fix the viewpoint by the wearer's own operation, and fix the head movement. May be switched between resuming display and following. In addition, in order to suppress three-dimensional sickness, when changing the height of the viewpoint, or when changing the room where the viewpoint is placed, the image is created and output so as to darken the field of view and then switch. It may be.

なおHMD1は、本実施の形態にて示したものに限られないことは勿論である。例えばHMD1は、眼鏡型のものであってもよい。HMD1と情報処理装置3との間は、無線により通信する構成であってもよい。   Of course, the HMD 1 is not limited to the one shown in the present embodiment. For example, the HMD 1 may be of an eyeglass type. The communication between the HMD 1 and the information processing device 3 may be wireless.

仮想現実表示システムは、HMD1と情報処理装置3とが一体となった構成としてもよい。具体的にはタブレット型端末装置、又は所謂スマートフォンと呼ばれる情報端末装置に備えられている表示部と光学レンズとを組み合わせてHMD1を実現する。この場合、タブレット型端末装置又はスマートフォンは、ヘッドマウント型のカバー本体に差し込むことで組み込まれる。情報処理装置3の機能は、端末装置が備えるプロセッサに、上述した処理を実現する表示制御プログラム3を実行させることで発揮される。   The virtual reality display system may have a configuration in which the HMD 1 and the information processing device 3 are integrated. Specifically, the HMD 1 is realized by combining a display unit provided in an information terminal device called a tablet terminal device or a so-called smartphone with an optical lens. In this case, the tablet terminal device or the smartphone is incorporated by being inserted into a head-mounted cover body. The function of the information processing device 3 is exerted by causing a processor included in the terminal device to execute the display control program 3 that realizes the above-described processing.

また操作検知部14は、本実施の形態にて示した赤外線を用いたものに限らないことは勿論である。可視光カメラ、深度センサ等を用いた所謂モーションキャプチャを用い、該モーションキャプチャで位置検知部13の機能も共に実現するようにしてもよい。例えば操作検知部14は、ユーザの視線を検知する装置であって、視線が画像中のいずれかで略静止した場合に、その位置に表示されているオブジェクト画像が選択されたものとする等、視線で操作を検知するものであってもよい。操作検知部14は、ユーザの発声を検知する装置であって、音声認識により操作に係るコマンドを受け付けるものであってもよく、色の名前の発声を認識して設備の色を切り替えるようにしてもよい。   In addition, the operation detecting unit 14 is not limited to the one using the infrared rays described in the present embodiment. A so-called motion capture using a visible light camera, a depth sensor, or the like may be used, and the function of the position detection unit 13 may be realized by the motion capture. For example, the operation detection unit 14 is a device that detects the user's line of sight, and when the line of sight is substantially stationary in any of the images, it is assumed that the object image displayed at that position is selected. The operation may be detected by the line of sight. The operation detection unit 14 is a device that detects a user's utterance, and may be a device that receives a command related to an operation by voice recognition, and recognizes the utterance of a color name to switch the color of the facility. Is also good.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an example in all points, and should be considered as not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 HMD(表示装置)
12 動き検知部
14 操作検知部(検知装置)
3 情報処理装置(画像出力装置)
30 制御部(変化手段)
32 記憶部
36 画像出力部
3P 表示制御プログラム
1 HMD (display device)
12 Motion detection unit 14 Operation detection unit (detection device)
3 Information processing device (image output device)
30 control part (change means)
32 storage unit 36 image output unit 3P display control program

Claims (6)

画像を表示するヘッドマウント型の表示装置と、該表示装置へ三次元画像を出力する画像出力装置とを含み、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示システムにおいて、
前記表示装置の装着者の操作を検知する検知部を更に備え、
前記画像出力装置は、
前記検知部にて操作を検知している間、表示中の三次元画像中に、三次元で描画した操作用のオブジェクト画像を重畳させた画像を作成して出力する手段と、
前記検知部にて検知した操作と、操作用のオブジェクト画像が表示されている表示位置とに基づいて、表示中の三次元画像を変化させる変化手段と
を備え
前記三次元画像は建造物の屋内又は屋外の画像であり、該屋内又は屋外に設置されている設備の画像を含み、
前記オブジェクト画像はボタンの画像を含み、
前記変化手段は、前記検知部にて検知した操作が前記ボタンを押下する操作である場合、前記設備の三次元画像を他の画像へ切り替えて変化させる
ことを特徴とする仮想現実表示システム。
In a virtual reality display system that includes a head-mounted display device that displays an image and an image output device that outputs a three-dimensional image to the display device, and that displays a three-dimensional image related to virtual reality on the display device,
The display device further includes a detection unit that detects an operation of a wearer of the display device,
The image output device,
Means for creating and outputting an image in which a three-dimensionally drawn object image for operation is superimposed on a three-dimensional image being displayed while the operation is being detected by the detection unit,
Changing means for changing the displayed three-dimensional image based on the operation detected by the detection unit and a display position at which the operation object image is displayed ,
The three-dimensional image is an image of a building indoor or outdoor, including an image of equipment installed indoors or outdoors,
The object image includes a button image,
The virtual reality display system according to claim 1, wherein the change unit changes the three-dimensional image of the facility by switching to another image when the operation detected by the detection unit is an operation of pressing the button .
画像を表示するヘッドマウント型の表示装置と、該表示装置へ三次元画像を出力する画像出力装置とを含み、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示システムにおいて、
前記表示装置の装着者の操作を検知する検知部を更に備え、
前記画像出力装置は、
前記検知部にて操作を検知している間、表示中の三次元画像中に、三次元で描画した操作用のオブジェクト画像を重畳させた画像を作成して出力する手段と、
前記検知部にて検知した操作と、操作用のオブジェクト画像が表示されている表示位置とに基づいて、表示中の三次元画像を変化させる変化手段と
を備え、
前記三次元画像は建造物の屋内又は屋外の画像であり、
前記オブジェクト画像はスライドバーの画像を含み、
前記変化手段は、
前記検知部にて検知した操作が前記スライドバーをなぞる操作である場合、前記屋内又は屋外の画像を連続的に変化させる
ことを特徴とする仮想現実表示システム。
A virtual reality display system that includes a head-mounted display device that displays an image and an image output device that outputs a three-dimensional image to the display device, and that displays a three-dimensional image related to virtual reality on the display device.
The display device further includes a detection unit that detects an operation of a wearer of the display device,
The image output device,
Means for creating and outputting an image in which a three-dimensionally drawn operation object image is superimposed on the displayed three-dimensional image while detecting the operation by the detection unit,
Changing means for changing the three-dimensional image being displayed based on the operation detected by the detection unit and the display position at which the operation object image is displayed;
With
The three-dimensional image is an indoor or outdoor image of a building,
The object image includes a slide bar image,
The changing means includes:
Wherein when the detected operation by detection unit is an operation of tracing the slide bar, the virtual reality display system that characterized by continuously changing the indoor or outdoor images.
画像を表示するヘッドマウント型の表示装置と、該表示装置の装着者の操作を検知する検知装置と、前記表示装置へ三次元画像を出力する画像出力装置とを含むシステムにて、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示方法であって、
前記画像出力装置、前記検知装置にて操作を検知している間、表示中の建造物の屋内又は屋外の画像であり、該屋内又は屋外に設置されている設備の画像を含む三次元画像中に、三次元で描画した操作用のボタンの画像を含むオブジェクト画像を重畳させた画像を作成して出力するステップと、
前記画像出力装置が、前記検知装置にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、前記検知装置にて検知した操作が、前記ボタンを押下する操作であると識別される場合、表示中の前記設備の画像を含む三次元画像を、他の画像へ切り替えて変化させるステップと
を含むことを特徴とする仮想現実表示方法。
A head mounted type display device for displaying an image, a detection device for detecting the operation of a wearer of the display device, and an image output device for outputting a three-dimensional image to the display device at including systems, virtual reality A virtual reality display method for displaying the three-dimensional image according to the display device,
The image output device is an indoor or outdoor image of the building being displayed while detecting operation by the detection device, and is a three-dimensional image including an image of equipment installed indoors or outdoors. Inside, a step of creating and outputting an image in which an object image including an image of an operation button drawn in three dimensions is superimposed , and
The operation detected by the detection device presses the button based on the movement of the operation detected by the image output device and the display position at which the operation object image is displayed. If it identified as an operation, a three-dimensional image containing an image of the equipment in the display, and step of changing by switching to another image
Virtual reality display method, which comprises a.
画像を表示するヘッドマウント型の表示装置と、該表示装置の装着者の操作を検知する検知装置と、前記表示装置へ三次元画像を出力する画像出力装置とを含むシステムにて、仮想現実に係る三次元画像を前記表示装置に表示させる仮想現実表示方法であって、
前記画像出力装置、前記検知装置にて操作を検知している間、表示中の建造物の屋内又は屋外の画像である三次元画像中に、三次元で描画した操作用のスライドバーの画像を含むオブジェクト画像を重畳させた画像を作成して出力するステップと、
前記画像出力装置が、前記検知装置にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、前記検知装置にて検知した操作が、前記スライドバーをなぞる操作であると識別される場合、表示中の前記屋内又は屋外の三次元画像を連続的に変化させるステップと
を含むことを特徴とする仮想現実表示方法。
A head mounted type display device for displaying an image, a detection device for detecting the operation of a wearer of the display device, and an image output device for outputting a three-dimensional image to the display device at including systems, virtual reality A virtual reality display method for displaying the three-dimensional image according to the display device,
While the image output device is detecting an operation by the detection device, in a three-dimensional image that is an indoor or outdoor image of the building being displayed, an image of an operation slide bar drawn in three dimensions. Creating and outputting an image in which object images including
The operation detected by the image output device based on the movement of the operation detected by the detection device and the display position at which the operation object image is displayed traces the slide bar. If the operation is identified, continuously changing the indoor or outdoor three-dimensional image being displayed ;
Virtual reality display method, which comprises a.
画像を表示する表示部と接続されるプロセッサに、前記表示部を視認するユーザの操作を検知する検知部からの検知結果を受信させ、該検知結果に応じた仮想現実に係る三次元画像を前記表示部に出力させるコンピュータプログラムにおいて、
前記プロセッサに、
前記検知部にて操作を検知している間、表示中の建造物の屋内又は屋外の画像であり、該屋内又は屋外に設置されている設備の画像を含む三次元画像中に、三次元で描画した操作用のボタンの画像を含むオブジェクト画像を重畳させた画像を作成して出力させ、
前記検知部にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、前記検知部にて検知した操作が、前記ボタンを押下する操作であると識別される場合、表示中の三次元画像に含まれる前記設備の画像を、他の画像に切り替えて変化させる
ことを特徴とするコンピュータプログラム。
A processor connected to a display unit that displays an image causes a processor to receive a detection result from a detection unit that detects an operation of a user who visually recognizes the display unit, and outputs a three-dimensional image related to virtual reality according to the detection result. In a computer program to be output to a display unit,
To the processor,
While the operation is detected by the detection unit, it is an indoor or outdoor image of the building being displayed, and in a three-dimensional image including an image of equipment installed indoor or outdoor , Create and output an image on which the object image including the drawn operation button image is superimposed,
Based on the movement of the operation detected by the detection unit and the display position where the object image for operation is displayed, the operation detected by the detection unit is identified as the operation of pressing the button. that case, the computer program characterized by the image of the facilities included in the three-dimensional image being displayed, changing by switching to another image.
画像を表示する表示部と接続されるプロセッサに、前記表示部を視認するユーザの操作を検知する検知部からの検知結果を受信させ、該検知結果に応じた仮想現実に係る三次元画像を前記表示部に出力させるコンピュータプログラムにおいて、A processor connected to a display unit that displays an image causes a processor to receive a detection result from a detection unit that detects an operation of a user who visually recognizes the display unit, and outputs a three-dimensional image related to virtual reality according to the detection result. In a computer program to be output to a display unit,
前記プロセッサに、To the processor,
前記検知部にて操作を検知している間、表示中の建造物の屋内又は屋外の画像である三次元画像中に、三次元で描画した操作用のスライドバーの画像を含むオブジェクト画像を重畳させた画像を作成して出力させ、While the operation is detected by the detection unit, an object image including an operation slide bar image drawn in three dimensions is superimposed on a three-dimensional image that is an indoor or outdoor image of the building being displayed. Create and output the image
前記検知部にて検知した操作の動きと、操作用のオブジェクト画像が表示されている表示位置とに基づいて、前記検知部にて検知した操作が前記スライドバーをなぞる操作である場合、表示中の前記屋内又は屋外の三次元画像を連続的に変化させるIf the operation detected by the detection unit is an operation of tracing the slide bar based on the movement of the operation detected by the detection unit and the display position where the object image for operation is displayed, Continuously changing the indoor or outdoor three-dimensional image of
ことを特徴とするコンピュータプログラム。A computer program characterized by the above-mentioned.
JP2015121010A 2015-06-16 2015-06-16 Virtual reality display system, virtual reality display method, and computer program Active JP6629528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015121010A JP6629528B2 (en) 2015-06-16 2015-06-16 Virtual reality display system, virtual reality display method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015121010A JP6629528B2 (en) 2015-06-16 2015-06-16 Virtual reality display system, virtual reality display method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019147741A Division JP2020013584A (en) 2019-08-09 2019-08-09 Virtual reality display system, virtual reality display method, and computer program

Publications (2)

Publication Number Publication Date
JP2017004457A JP2017004457A (en) 2017-01-05
JP6629528B2 true JP6629528B2 (en) 2020-01-15

Family

ID=57754443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015121010A Active JP6629528B2 (en) 2015-06-16 2015-06-16 Virtual reality display system, virtual reality display method, and computer program

Country Status (1)

Country Link
JP (1) JP6629528B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438399B2 (en) * 2017-02-10 2019-10-08 Sony Interactive Entertainment LLC Paired local and global user interfaces for an improved augmented reality experience
CN107479804A (en) * 2017-08-16 2017-12-15 歌尔科技有限公司 Virtual reality device and its content conditioning method
WO2019039416A1 (en) * 2017-08-24 2019-02-28 シャープ株式会社 Display device and program
DK180470B1 (en) * 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
JP6506454B1 (en) * 2018-06-14 2019-04-24 株式会社バーチャルキャスト Data replacement device, terminal, and data replacement program
JP7271909B2 (en) 2018-11-09 2023-05-12 セイコーエプソン株式会社 DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
JP2020013584A (en) * 2019-08-09 2020-01-23 株式会社ファイン Virtual reality display system, virtual reality display method, and computer program
WO2021131023A1 (en) * 2019-12-27 2021-07-01 マクセル株式会社 Head-mounted information output device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316859A (en) * 1998-04-30 1999-11-16 Sekisui House Ltd Building display method using game machine and game machine for the same
JP2003316510A (en) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> Display device for displaying point instructed on display screen and display program
JP4883774B2 (en) * 2006-08-07 2012-02-22 キヤノン株式会社 Information processing apparatus, control method therefor, and program

Also Published As

Publication number Publication date
JP2017004457A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6629528B2 (en) Virtual reality display system, virtual reality display method, and computer program
US10921949B2 (en) User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US11782513B2 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US10248189B2 (en) Presentation of virtual reality object based on one or more conditions
US9349179B2 (en) Location information determined from depth camera data
KR20200044102A (en) Physical boundary detection
JP2015127897A (en) Display control device, display control system, display control method, and program
WO2018042948A1 (en) Information processing system, method of information processing, and program
CN104380348A (en) Arrangement for physically moving two dimesional, three dimensional and/or stereoscopic three dimensional virtual objects
US20230115736A1 (en) Interactive environment with virtual environment space scanning
JP2020013584A (en) Virtual reality display system, virtual reality display method, and computer program
US10178347B2 (en) Remote communication system, method for controlling remote communication system, and program
WO2020174886A1 (en) Evaluation system, space design assistance system, evaluation method, and program
CN111882651B (en) Spatial light processing method and device, electronic equipment and storage medium
CN116841435A (en) Interaction method, interaction device, electronic device, storage medium and display device
WO2024064941A1 (en) Methods for improving user environmental awareness
WO2024064932A1 (en) Methods for controlling and interacting with a three-dimensional environment
Spassova Interactive ubiquitous displays based on steerable projection
ITRM20090153A1 (en) INTEGRATED INTERACTIVE PROJECTOR MODULE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191205

R150 Certificate of patent or registration of utility model

Ref document number: 6629528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350