JP2016110489A - Display device, and method and program for calibrating display device - Google Patents
Display device, and method and program for calibrating display device Download PDFInfo
- Publication number
- JP2016110489A JP2016110489A JP2014248951A JP2014248951A JP2016110489A JP 2016110489 A JP2016110489 A JP 2016110489A JP 2014248951 A JP2014248951 A JP 2014248951A JP 2014248951 A JP2014248951 A JP 2014248951A JP 2016110489 A JP2016110489 A JP 2016110489A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- display device
- user
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラムに関する。 The present invention relates to a display device, a display device calibration method, and a calibration program.
近年、現実の環境に、付加的な情報を重畳させて表示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術を採用したヘッドマウントディスプレイ(Smart Glass等)を用いれば、現実の環境に案内や広告等のAR画像を重畳させて表示できる。 In recent years, a technology called augmented reality (AR) that superimposes and displays additional information in an actual environment has attracted attention. If a head mounted display (such as Smart Glass) that employs AR technology is used, AR images such as guidance and advertisements can be superimposed and displayed in the actual environment.
AR画像が現実の環境内にあたかも存在しているかのようにユーザーに見せるためには、ユーザーの位置および顔の向き(以下、「直視方向」とも称する)に応じて、AR画像の表示位置、サイズ、形状等を、随時、変更する必要がある。そのためには、AR画像の生成の際に、ユーザーの位置および顔の向きを正確に特定できなければならない。 In order to make the user feel as if the AR image is present in the real environment, the display position of the AR image, depending on the position of the user and the orientation of the face (hereinafter also referred to as “direct viewing direction”), The size, shape, etc. need to be changed from time to time. For this purpose, it is necessary to accurately specify the position of the user and the orientation of the face when generating the AR image.
このような要求に応えるべく、たとえば、ジャイロセンサーを用いて、ユーザーの位置および顔の向きを特定する技術が開発されている(特許文献1)。しかし、一般的には、ジャイロセンサーの出力のみに基づいてユーザーの位置および顔の向きを特定すると、その特定結果に誤差が蓄積して、現実の環境とAR画像の間に位置ずれが発生する。 In order to meet such a demand, for example, a technique for specifying a user's position and face orientation using a gyro sensor has been developed (Patent Document 1). However, generally, if the user's position and face orientation are specified based only on the output of the gyro sensor, errors are accumulated in the identification result, and a positional deviation occurs between the actual environment and the AR image. .
そこで、ジャイロセンサーとは別のセンサーをさらに搭載して、ユーザーの位置および顔の向きを補正する技術が開発されている(特許文献2)。 In view of this, a technique has been developed in which a sensor other than the gyro sensor is further mounted to correct the position of the user and the orientation of the face (Patent Document 2).
しかし、ユーザーの位置および顔の向きを正確に特定するために複数のセンサーを搭載すると、ジャイロセンサーのみを搭載する場合と比べて、コスト、重量、消費電力の増加を招く。 However, if a plurality of sensors are mounted to accurately identify the user's position and face orientation, the cost, weight, and power consumption increase as compared to the case where only the gyro sensor is mounted.
本発明は、複数のセンサーを用いることなく、ユーザーの位置および顔の向きを従来よりも正確に特定できる表示装置等を提供することを目的とする。 An object of this invention is to provide the display apparatus etc. which can pinpoint a user's position and face direction more correctly than before without using a some sensor.
(1)表示部を有し、ユーザーの頭部に装着して用いられる表示装置であって、少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、前記表示制御部は、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させ、
前記キャリブレーション部は、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、表示装置。
(1) A display device that includes a display unit and is used by being mounted on a user's head, wherein the information acquisition unit acquires real space information about at least the position of the user and a predetermined reference position; A sensor that outputs a signal corresponding to the movement of the head, a calibration unit that calibrates the direct viewing direction determined by the signal output from the sensor, the real space information acquired by the information acquisition unit, and the sensor output A display control unit that displays an AR image on the display unit based on a direct viewing direction determined by a signal to be performed, and when executing the calibration mode, the display control unit acquires the real space acquired by the information acquisition unit. Using the information, an AR image for calibration is displayed at the position of the display unit corresponding to the predetermined reference position. ,
When the calibration unit receives an input from the user indicating that the calibration AR image appears to overlap the predetermined reference position, a direct viewing direction determined by a signal output from the sensor is used as a reference direction. Display device to be calibrated.
(2)前記所定の基準位置は、所定のスクリーンの位置であり、前記スクリーンには、所定の形状を有する図形を含む画像が表示される、上記(1)に記載の表示装置。 (2) The display device according to (1), wherein the predetermined reference position is a position of a predetermined screen, and an image including a graphic having a predetermined shape is displayed on the screen.
(3)前記キャリブレーション用のAR画像は、前記スクリーンに表示される図形に対応する形状の図形を含む、上記(2)に記載の表示装置。 (3) The display device according to (2), wherein the AR image for calibration includes a figure having a shape corresponding to the figure displayed on the screen.
(4)前記キャリブレーション部は、前記スクリーンに表示される図形に、前記キャリブレーション用のAR画像に含まれる図形が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、上記(3)に記載の表示装置。 (4) When the calibration unit receives an input from the user indicating that the graphic displayed in the AR image for calibration appears to overlap the graphic displayed on the screen, the sensor outputs The display device according to (3), wherein calibration is performed using a direct view direction determined by a signal to be performed as a reference direction.
(5)前記ユーザーの位置は、当該ユーザーが着席する座席の位置である、上記(2)〜(4)のいずれかに記載の表示装置。 (5) The display device according to any one of (2) to (4), wherein the position of the user is a position of a seat on which the user is seated.
(6)前記所定の基準位置は、所定の形状を有する物体の位置である、上記(1)に記載の表示装置。 (6) The display device according to (1), wherein the predetermined reference position is a position of an object having a predetermined shape.
(7)前記キャリブレーション用のAR画像は、前記物体に対応する形状の図形を含む、上記(6)に記載の表示装置。 (7) The display device according to (6), wherein the AR image for calibration includes a figure having a shape corresponding to the object.
(8)前記キャリブレーション部は、前記物体の形状に、前記キャリブレーション用のAR画像に含まれる図形が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、上記(7)に記載の表示装置。 (8) The calibration unit receives a signal from the sensor when receiving an input from the user indicating that the figure included in the calibration AR image appears to overlap the shape of the object. The display device according to (7), wherein calibration is performed using a fixed direct view direction as a reference direction.
(9)前記情報取得部は、前記表示装置とは独立したサーバーから取得する、上記(1)〜(8)のいずれかに記載の表示装置。 (9) The display device according to any one of (1) to (8), wherein the information acquisition unit acquires from a server independent of the display device.
(10)前記実空間情報を記憶する記憶部をさらに備え、前記情報取得部は、前記記憶部から前記実空間情報を取得する、上記(1)〜(8)のいずれかに記載の表示装置。 (10) The display device according to any one of (1) to (8), further including a storage unit that stores the real space information, wherein the information acquisition unit acquires the real space information from the storage unit. .
(11)前記入力受付部で受け付ける前記ユーザーの入力は、所定ボタンの押下、または、前記ユーザーの頭部を一定時間以上静止させることにより行われる、上記(1)〜(10)のいずれかに記載の表示装置。 (11) The input of the user received by the input receiving unit is performed by pressing a predetermined button or by holding the user's head stationary for a predetermined time or longer. The display device described.
(12)表示部を有し、ユーザーの頭部に装着して用いられる表示装置のキャリブレーション方法であって、前記表示装置は、少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を有する表示装置のキャリブレーション方法。 (12) A display device calibration method that includes a display unit and is used by being worn on a user's head, wherein the display device acquires real space information relating to at least the position of the user and a predetermined reference position. An information acquisition unit, a sensor that outputs a signal according to the movement of the user's head, a calibration unit that calibrates a direct view direction determined by a signal output from the sensor, and the information acquired by the information acquisition unit A display control unit that displays an AR image on the display unit based on real space information and a direct viewing direction determined by a signal output from the sensor, and (a) the display control unit when executing the calibration mode. The display corresponding to the predetermined reference position using the real space information acquired by the information acquisition unit (B) the calibration unit accepts an input from the user indicating that the calibration AR image appears to overlap the predetermined reference position. A calibration method for a display device, comprising: calibrating with a direct viewing direction determined by a signal output from the sensor as a reference direction.
(13)表示部を有し、ユーザーの頭部に装着して用いられる表示装置のコンピューターに実行させるためのキャリブレーションプログラムであって、前記表示装置は、少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を前記コンピューターに実行させるためのキャリブレーションプログラム。 (13) A calibration program for causing a computer of a display device used by being mounted on a user's head to have a display unit, the display device including at least the position of the user and a predetermined reference position An information acquisition unit that acquires real space information about the sensor, a sensor that outputs a signal according to the movement of the user's head, a calibration unit that calibrates a direct viewing direction determined by a signal output by the sensor, and the information A display control unit that displays an AR image on the display unit based on the real space information acquired by the acquisition unit and a direct viewing direction determined by a signal output from the sensor. a) The display control unit uses the real space information acquired by the information acquisition unit. (B) displaying a calibration AR image at a position of the display unit corresponding to the predetermined reference position; and (b) the calibration unit overlaps the calibration AR image at the predetermined reference position. A calibration program for causing the computer to execute a step of calibrating with a direct view direction determined by a signal output from the sensor as a reference direction when an input indicating that the image is visible is received from the user.
本発明によれば、少なくともユーザーの位置および所定の基準位置に関する実空間情報を用いて、ユーザーの顔の向き(直視方向)をキャリブレーションする。そのため、複数のセンサーを用いなくても、ユーザーの位置および顔の向きを従来よりも正確に特定でき、低コスト、軽量、低消費電力の表示装置等を提供できる。 According to the present invention, the orientation of the user's face (direct viewing direction) is calibrated using at least real space information regarding the user's position and a predetermined reference position. Therefore, the user's position and face orientation can be specified more accurately than before without using a plurality of sensors, and a low cost, light weight, low power consumption display device or the like can be provided.
以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may be different from the actual ratios.
図1は、本実施形態に係る表示システム1の全体構成例を示すブロック図である。図2(A)は、上映システム100が配置された映画館内部の上面図である。図2(B)は、上映システム100が配置された映画館内部の斜視図である。図3は、情報提供サーバー140のハードウェア構成例を示すブロック図である。図4は、表示装置200の外観例を示す図である。図5は、表示装置200のハードウェア構成例を示すブロック図である。以下、図1〜図5を参照して、表示システム1の概略構成、特にハードウェア構成について説明する。 FIG. 1 is a block diagram illustrating an example of the overall configuration of a display system 1 according to the present embodiment. FIG. 2A is a top view of the movie theater where the screening system 100 is arranged. FIG. 2B is a perspective view of the movie theater where the screening system 100 is arranged. FIG. 3 is a block diagram illustrating a hardware configuration example of the information providing server 140. FIG. 4 is a diagram illustrating an appearance example of the display device 200. FIG. 5 is a block diagram illustrating a hardware configuration example of the display device 200. Hereinafter, a schematic configuration of the display system 1, particularly a hardware configuration, will be described with reference to FIGS. 1 to 5.
[表示システム1(ハードウェア構成)]
(1)全体構成
図1に示すとおり、表示システム1は、上映システム100と、1台以上の表示装置200とを備える。ただし、表示システム1を構成する機器の種類および台数は、図1に示す例に限定されない。
[Display system 1 (hardware configuration)]
(1) Overall Configuration As shown in FIG. 1, the display system 1 includes a screening system 100 and one or more display devices 200. However, the types and the number of devices constituting the display system 1 are not limited to the example shown in FIG.
上映システム100は、図2(A)、(B)に示す例のように、映画館に配置される。図2(A)に示す例では、上映システム100は、座席110と、スクリーン120と、上映装置130と、情報提供サーバー140とを備える。 The screening system 100 is arranged in a movie theater as in the example shown in FIGS. In the example shown in FIG. 2A, the screening system 100 includes a seat 110, a screen 120, a screening device 130, and an information providing server 140.
座席110は、スクリーン120に投影された映画などの映像を視聴するユーザーが座るための椅子である。映画館の例では、複数の座席110が並べて配置され、各座席110には識別番号が割り当てられている。 The seat 110 is a chair for a user who views a video such as a movie projected on the screen 120 to sit. In the movie theater example, a plurality of seats 110 are arranged side by side, and an identification number is assigned to each seat 110.
スクリーン120は、上映装置130から投影された映像を映し出す大型の平面である。本実施形態においては、図2(A)に示す例のように、ユーザーが着席している座席110の背後からスクリーン120に向けて映像を投影するフロントタイプスクリーンが用いられる。ただし、これに限らず、スクリーン120の背面に向けて映像を投影するリアタイプスクリーンが用いられてもよい。 The screen 120 is a large plane that displays the image projected from the screening device 130. In the present embodiment, as in the example shown in FIG. 2A, a front type screen that projects an image from behind the seat 110 on which the user is seated toward the screen 120 is used. However, the present invention is not limited to this, and a rear type screen that projects an image toward the back of the screen 120 may be used.
上映装置130は、スクリーン120に映像を投影する装置である。上映装置130は、たとえば、上映サーバー(不図示)と、制御装置(不図示)と、プロジェクター(不図示)と、スピーカー(不図示)と、記憶装置(不図示)と、通信装置(不図示)とを備える。ここで、上映サーバーは、デジタルシネマを再生する装置である。制御装置は、上映サーバーを制御する一般的なコンピューターである。プロジェクターは、再生された映像をスクリーン120に投影し、スピーカーは、再生された音声を出力する。記憶装置は、デジタルシネマパッケージ(DCP)と呼ばれる形式のデータを格納する装置(たとえば、ハードディスク)である。通信装置は、無線LAN等によって、表示装置200と通信するための装置である。このように、本実施形態の上映装置130には、デジタルシネマ用のプロジェクターが用いられる。 The screening device 130 is a device that projects an image on the screen 120. The screening device 130 includes, for example, a screening server (not shown), a control device (not shown), a projector (not shown), a speaker (not shown), a storage device (not shown), and a communication device (not shown). ). Here, the screening server is a device that plays back a digital cinema. The control device is a general computer that controls the screening server. The projector projects the reproduced video on the screen 120, and the speaker outputs the reproduced audio. The storage device is a device (for example, a hard disk) that stores data in a format called a digital cinema package (DCP). The communication device is a device for communicating with the display device 200 via a wireless LAN or the like. Thus, a projector for digital cinema is used for the screening device 130 of the present embodiment.
情報提供サーバー140は、表示装置200からの問い合わせに応じて、映画館内部の実空間情報を提供する情報処理装置(コンピューター)である。なお、情報提供サーバー140の詳細な構成、および実空間情報の詳細については後述する。 The information providing server 140 is an information processing device (computer) that provides real space information in the movie theater in response to an inquiry from the display device 200. The detailed configuration of the information providing server 140 and the details of the real space information will be described later.
また、表示装置200は、ユーザー(たとえば、映画の視聴者)の頭部に装着して使用されるヘッドマウントディスプレイ(HMD)装置である。表示装置200には、現実の環境(ユーザーが見ている方向)にAR画像が重畳されて表示される。たとえば、スクリーン120の下方の壁に、字幕のAR画像が重畳されて表示される。また、ユーザーの顔の向き(すなわち、直視方向)を特定する際には、その基準となる方向(以下では「基準方向」と称する)を定めておく必要があるが、当該基準方向をキャリブレーションするために使用されるAR画像が表示されてもよい。なお、以下では、ユーザーの顔の向きをキャリブレーションするために使用されるAR画像を、キャリブレーション用のAR画像と称する。 The display device 200 is a head mounted display (HMD) device that is used by being worn on the head of a user (for example, a movie viewer). On the display device 200, the AR image is superimposed and displayed in the actual environment (the direction in which the user is looking). For example, a subtitle AR image is superimposed on the lower wall of the screen 120 and displayed. In addition, when specifying the orientation of the user's face (ie, the direct viewing direction), it is necessary to determine a reference direction (hereinafter referred to as “reference direction”), and the reference direction is calibrated. The AR image used to do this may be displayed. Hereinafter, the AR image used for calibrating the orientation of the user's face is referred to as an AR image for calibration.
上映システム100の情報提供サーバー140と表示装置200は、通信ネットワークを介して相互に通信可能に接続される。ここで、通信ネットワークには、無線LAN(Local Area Network)等のコンピューターネットワークが含まれる。 The information providing server 140 and the display device 200 of the screening system 100 are connected to each other via a communication network so that they can communicate with each other. Here, the communication network includes a computer network such as a wireless LAN (Local Area Network).
(2)情報提供サーバー140(ハードウェア構成)
次に、情報提供サーバー140のハードウェア構成について説明する。
(2) Information providing server 140 (hardware configuration)
Next, the hardware configuration of the information providing server 140 will be described.
図3に示すとおり、情報提供サーバー140は、制御装置141と、ディスプレイ142と、入力装置143と、通信装置144とを有し、これらは信号をやり取りするための信号線(バス等)145を介して相互に接続されている。 As shown in FIG. 3, the information providing server 140 includes a control device 141, a display 142, an input device 143, and a communication device 144, which have signal lines (such as a bus) 145 for exchanging signals. Are connected to each other.
制御装置141は、情報提供サーバー140全体を制御する。たとえば、制御装置141は、CPU(Central Processing Unit)146と、メモリー147と、ストレージ148とを有する。 The control device 141 controls the entire information providing server 140. For example, the control device 141 includes a CPU (Central Processing Unit) 146, a memory 147, and a storage 148.
CPU146は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するマルチコアのプロセッサ等から構成される制御回路であり、情報提供サーバー140の各機能は、それに対応するプログラムをCPU146が実行することにより発揮される。 The CPU 146 is a control circuit composed of a multi-core processor or the like that executes control of the above-described units and various arithmetic processes according to a program. Each function of the information providing server 140 is executed by the CPU 146 as a corresponding program. It is demonstrated by.
メモリー147は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー147には、たとえば、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等が採用される。 The memory 147 is a high-speed accessible main storage device that temporarily stores programs and data as a work area. As the memory 147, for example, a DRAM (Dynamic Random Access Memory), an SDRAM (Synchronous Dynamic Access Memory), an SRAM (Static Random Access Memory), or the like is adopted.
ストレージ148は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ148には、たとえば、ハードディスク、ソリッドステートドライブ、フラッシュメモリー、ROM等が採用される。 The storage 148 is a large-capacity auxiliary storage device that stores various programs including an operating system and various data. As the storage 148, for example, a hard disk, a solid state drive, a flash memory, a ROM, or the like is employed.
ディスプレイ142は、情報提供サーバー140を操作するために必要な情報や設定情報など、各種データを表示する。ディスプレイ142には、たとえば、液晶ディスプレイ、有機EL(Electro−Luminescence)等が採用される。 The display 142 displays various data such as information necessary for operating the information providing server 140 and setting information. As the display 142, for example, a liquid crystal display, an organic EL (Electro-Luminescence), or the like is employed.
入力装置143は、ユーザーの指示に従って各種データを入力する。入力装置143には、たとえば、キーボードやマウス等のポインティングデバイスが採用される。 The input device 143 inputs various data according to a user instruction. For the input device 143, for example, a pointing device such as a keyboard and a mouse is employed.
通信装置144は、無線LAN等によって、表示装置200と通信するための装置である。 The communication device 144 is a device for communicating with the display device 200 via a wireless LAN or the like.
(3)表示装置200(ハードウェア構成)
次に、表示装置200のハードウェア構成について説明する。
(3) Display device 200 (hardware configuration)
Next, the hardware configuration of the display device 200 will be described.
図4に示すとおり、表示装置200は、視力矯正用のメガネを模した構造で構成されている。すなわち、表示装置200は、左右一対のテンプルL1、L2と、ブリッジBと、左右一対の透明部材G1、G2とを備えて構成される。 As shown in FIG. 4, the display device 200 has a structure simulating eyeglasses for correcting vision. That is, the display device 200 includes a pair of left and right temples L1 and L2, a bridge B, and a pair of left and right transparent members G1 and G2.
テンプルL1、L2は、たとえば、弾性素材から構成される長尺棒状の部材である。テンプルL1、L2のそれぞれの一方端部には、ユーザーの耳に掛けられる耳掛け部分が設けられ、他方端部には、透明部材G1、G2が固定される。また、ユーザーの片方の耳に掛けられる耳掛け部分付近には、制御ユニット210が装着されている。 Temples L1 and L2 are, for example, long bar-shaped members made of an elastic material. Each of the temples L1 and L2 is provided with an ear hook portion that is hung on the user's ear, and the transparent members G1 and G2 are fixed to the other end portion. In addition, a control unit 210 is mounted in the vicinity of the ear hook portion that is hung on one ear of the user.
ブリッジBは、左右一対の透明部材G1、G2を互いに連結するための短尺棒状の部材である。ブリッジBの両端には、透明部材G1、G2が固定される。左右一対の透明部材G1、G2は、一定の間隔を空けて保持される。 The bridge B is a short bar-shaped member for connecting the pair of left and right transparent members G1 and G2 to each other. Transparent members G1 and G2 are fixed to both ends of the bridge B. The pair of left and right transparent members G1 and G2 are held at a predetermined interval.
透明部材G1、G2は、表示装置200を装着したユーザーが外界を観察できるように、外界からの光を透過してユーザーの眼に届けることが可能な透明な材料(ガラス、プラスチック、フィルムなど)により形成される。 The transparent members G1 and G2 are transparent materials (glass, plastic, film, etc.) that can transmit light from the outside world to the user's eyes so that the user wearing the display device 200 can observe the outside world. It is formed by.
本実施形態では、ユーザーの右眼に対応する透明部材G1の上部には、撮像装置220が設けられ、透明部材G1に重なるようにディスプレイ230が設けられている。 In the present embodiment, an imaging device 220 is provided above the transparent member G1 corresponding to the user's right eye, and a display 230 is provided so as to overlap the transparent member G1.
撮像装置220は、カメラレンズの光軸方向の外界を撮像する。撮像装置220は、カメラレンズの光軸がユーザーの視線方向に略一致するように、表示装置200に対し固定的に保持されている。これによって撮像装置220は、ユーザーの前方視野内を撮影することが可能となる。たとえば、撮像装置220は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサーを備えたデジタルカメラあるいはビデオカメラである。 The imaging device 220 images the external world in the optical axis direction of the camera lens. The imaging device 220 is fixedly held with respect to the display device 200 so that the optical axis of the camera lens substantially coincides with the direction of the user's line of sight. As a result, the imaging device 220 can take an image of the user's front visual field. For example, the imaging device 220 is a digital camera or a video camera provided with an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
ディスプレイ230は、所定の画像(映像)等の各種コンテンツを透明部材G1、G2上に表示する。また、ディスプレイ230は、外界からの光に付加的に重畳させる画像(AR画像)を表示してもよい。たとえば、ディスプレイ230は、ユーザーの視線方向に存在する特定の対象物(たとえば、スクリーン120)の近くに、映画の字幕などの情報を含む画像があたかも存在するかのように表示することもできる。なお、ディスプレイ230は、図4に示すような単眼式ではなく、双眼式でもよい。 The display 230 displays various contents such as a predetermined image (video) on the transparent members G1 and G2. The display 230 may display an image (AR image) that is additionally superimposed on light from the outside. For example, the display 230 may be displayed as if an image including information such as movie subtitles exists near a specific object (for example, the screen 120) that exists in the direction of the user's line of sight. The display 230 may be a binocular type instead of the monocular type as shown in FIG.
また、図4には示していないが、撮像装置220の近傍には、慣性センサー240が設けられる。慣性センサー240は、ユーザーの頭部の動きに応じた信号を出力するセンサーである。たとえば、慣性センサー240は、加速度センサー、ジャイロセンサー等により構成される。なお、慣性センサー240は、ユーザーの頭部の動きに応じた信号を出力可能なものであれば、どのような形態、名称、構造のものであってもよい。 Although not shown in FIG. 4, an inertial sensor 240 is provided in the vicinity of the imaging device 220. The inertial sensor 240 is a sensor that outputs a signal corresponding to the movement of the user's head. For example, the inertial sensor 240 is configured by an acceleration sensor, a gyro sensor, or the like. The inertial sensor 240 may have any form, name, or structure as long as it can output a signal corresponding to the movement of the user's head.
制御ユニット210は、撮像装置220と、ディスプレイ230と、慣性センサー240とを制御し、全体としてヘッドマウントディスプレイ装置として機能させるために必要な構成を有する。 The control unit 210 has a configuration necessary for controlling the imaging device 220, the display 230, and the inertial sensor 240 to function as a head-mounted display device as a whole.
(制御ユニット210の具体的な構成)
次に、制御ユニット210の具体的な構成について説明する。
(Specific configuration of the control unit 210)
Next, a specific configuration of the control unit 210 will be described.
図5に示すとおり、制御ユニット210は、CPU211と、メモリー212と、ストレージ213と、入力装置214と、表示コントローラー215と、通信装置216とを備える。 As illustrated in FIG. 5, the control unit 210 includes a CPU 211, a memory 212, a storage 213, an input device 214, a display controller 215, and a communication device 216.
CPU211は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するプロセッサ等から構成される制御回路であり、表示装置200の各機能は、それに対応するプログラムをCPU211が実行することにより発揮される。 The CPU 211 is a control circuit configured by a processor or the like that executes control of the above-described units and various arithmetic processes according to a program. Each function of the display device 200 is exhibited by the CPU 211 executing a corresponding program. The
メモリー212は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー212には、たとえば、DRAM、SDRAM、SRAM等が採用される。 The memory 212 is a high-speed accessible main storage device that temporarily stores programs and data as a work area. For the memory 212, for example, DRAM, SDRAM, SRAM or the like is employed.
ストレージ213は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ213には、たとえば、フラッシュメモリー等が採用される。 The storage 213 is a large-capacity auxiliary storage device that stores various programs including an operating system and various data. For example, a flash memory or the like is employed as the storage 213.
入力装置214は、表示装置200の電源投入などの指示を入力するための物理的なキーやボタンにより構成される。また、入力装置214として、外部のコントローラー(たとえば、スマートフォン、リモートコントローラーなど)を利用してもよい。 The input device 214 includes physical keys and buttons for inputting instructions such as turning on the power of the display device 200. An external controller (for example, a smartphone, a remote controller, etc.) may be used as the input device 214.
表示コントローラー215は、映画の字幕などの情報を含むAR画像や、キャリブレーション用のAR画像をディスプレイ230に表示させる。たとえば、表示コントローラー215は、所定の周期でメモリー212からAR画像を読み出して、ディスプレイ230へ入力するための信号に変換するとともに、水平同期信号、垂直同期信号などのパルス信号を生成する。 The display controller 215 causes the display 230 to display an AR image including information such as movie subtitles and an AR image for calibration. For example, the display controller 215 reads an AR image from the memory 212 at a predetermined cycle, converts it into a signal for input to the display 230, and generates a pulse signal such as a horizontal synchronization signal and a vertical synchronization signal.
通信装置216は、無線LAN等によって、上映装置130および情報提供サーバー140等と通信するための装置である。 The communication device 216 is a device for communicating with the screening device 130, the information providing server 140, and the like via a wireless LAN or the like.
[表示システム1(機能構成)]
以上のようなハードウェア構成を有する表示システム1は、以下の機能構成を有する。
[Display system 1 (functional configuration)]
The display system 1 having the hardware configuration as described above has the following functional configuration.
図6は、上映システム100および表示装置200の機能構成例を示すブロック図である。 FIG. 6 is a block diagram illustrating a functional configuration example of the screening system 100 and the display device 200.
(1)上映システム100の上映装置130(機能構成)
図6に示すとおり、上映装置130は、投影制御部310と、投影コンテンツ記憶部320とを有する。
(1) Screening device 130 (functional configuration) of screening system 100
As shown in FIG. 6, the screening device 130 includes a projection control unit 310 and a projection content storage unit 320.
投影制御部310は、スクリーン120への映像の投影を制御する。具体的には、投影制御部310は、投影コンテンツ記憶部320に記憶されている投影コンテンツを、適切なタイミングで読み出して再生することを上映サーバーへ指示する。この指示に基づき、上映サーバーにおいて再生された映像は、プロジェクター(不図示)に出力され、再生された音声は、スピーカー(不図示)に出力される。また、上映サーバーにおいて再生された字幕(データ)は、通信装置を介して、各表示装置200に送信される。このようにして、映画館内においてデジタルシネマが上映される。 The projection control unit 310 controls the projection of the image on the screen 120. Specifically, the projection control unit 310 instructs the screening server to read out and reproduce the projection content stored in the projection content storage unit 320 at an appropriate timing. Based on this instruction, the video reproduced on the screening server is output to a projector (not shown), and the reproduced audio is output to a speaker (not shown). In addition, captions (data) reproduced on the screening server are transmitted to each display device 200 via the communication device. In this way, a digital cinema is shown in the movie hall.
投影コンテンツ記憶部320は、スクリーン120に投影される投影コンテンツを記憶する。ここで、投影コンテンツには、デジタルシネマパッケージ(DCP)と呼ばれる形式のデータや、各表示装置200のキャリブレーションモード時にスクリーン120に投影されるデータ等が含まれる。ここで、キャリブレーションモードとは、表示装置200においてキャリブレーション処理が実行されている状態を指す。 The projection content storage unit 320 stores the projection content projected on the screen 120. Here, the projection content includes data in a format called a digital cinema package (DCP), data projected on the screen 120 when the display device 200 is in the calibration mode, and the like. Here, the calibration mode refers to a state in which calibration processing is being executed in the display device 200.
なお、投影制御部310は、上映装置130の制御装置(不図示)において、CPU(不図示)がストレージ(不図示)にインストールされているプログラムをメモリー(不図示)に読み出して実行することにより実現される。また、投影コンテンツ記憶部320は、ハードディスク等の記憶装置(不図示)によって実現される。 In addition, in the control device (not shown) of the screening device 130, the projection control unit 310 causes a CPU (not shown) to read a program installed in a storage (not shown) into a memory (not shown) and execute it. Realized. The projection content storage unit 320 is realized by a storage device (not shown) such as a hard disk.
(2)上映システム100の情報提供サーバー140(機能構成)
図6に示すとおり、上映システム100の情報提供サーバー140は、情報提供部410と、実空間情報記憶部420とを有する。
(2) Information providing server 140 of screening system 100 (functional configuration)
As shown in FIG. 6, the information providing server 140 of the screening system 100 includes an information providing unit 410 and a real space information storage unit 420.
情報提供部410は、問い合わせに応じて、映画館内の実空間情報421を表示装置200へ提供する。具体的には、情報提供部410は、表示装置200からの問い合わせを受け付けると、実空間情報記憶部420に記憶されている全ての実空間情報421の中から、その表示装置200に必要な実空間情報421を読み出し、通信装置144を介して送信する。 The information providing unit 410 provides real space information 421 in the movie theater to the display device 200 in response to the inquiry. Specifically, when the information providing unit 410 receives an inquiry from the display device 200, the information providing unit 410 selects the real space information necessary for the display device 200 from all the real space information 421 stored in the real space information storage unit 420. The spatial information 421 is read and transmitted via the communication device 144.
実空間情報記憶部420は、映画館内の実空間情報421を記憶する。たとえば、実空間情報421には、ユーザーの位置を示す3次元座標と、固定された特定の対象物の位置を示す3次元座標と、投影コンテンツの位置を示す3次元座標が含まれている。 The real space information storage unit 420 stores real space information 421 in the movie theater. For example, the real space information 421 includes three-dimensional coordinates indicating the position of the user, three-dimensional coordinates indicating the position of the fixed specific object, and three-dimensional coordinates indicating the position of the projection content.
ここで、ユーザーの位置とは、具体的には、ユーザーが着席している座席110の位置であって、推定される顔の位置を指す。この座席110の位置(識別番号等)は、後述するように表示装置200に保持されている。 Here, the user's position is specifically the position of the seat 110 where the user is seated and the estimated face position. The position (identification number or the like) of the seat 110 is held in the display device 200 as will be described later.
また、特定の対象物の位置とは、具体的には、スクリーン120の右上の角および左下の角の位置を指す。スクリーン120の右上の角および左下の角の中点、すなわち、スクリーン120の中心位置を、以下では「所定の基準位置S」と称する。なお、以下では、キャリブレーションモード時にスクリーン120に投影される投影コンテンツを、キャリブレーション用の投影コンテンツと称する。また、所定の基準位置Sは、これに限らず、ユーザーが見ている方向の目標物となり得る物体の位置であれば、どのような位置でもよい。 Further, the position of the specific object specifically refers to the positions of the upper right corner and the lower left corner of the screen 120. The midpoint of the upper right corner and the lower left corner of the screen 120, that is, the center position of the screen 120 is hereinafter referred to as “predetermined reference position S”. Hereinafter, the projection content projected onto the screen 120 in the calibration mode is referred to as calibration projection content. Further, the predetermined reference position S is not limited to this, and may be any position as long as it is a position of an object that can be a target in the direction in which the user is looking.
また、投影コンテンツの位置とは、具体的には、スクリーン120に投影されたキャリブレーション用の投影コンテンツの右上の角および左下の角の位置を指す。 Further, the position of the projection content specifically refers to the positions of the upper right corner and the lower left corner of the calibration projection content projected on the screen 120.
(実空間情報421の詳細)
なお、図7は、実空間情報421の概略データ構造の例を示す図である。また、図8は、実空間情報421として位置情報が与えられる映画館内部の対象物について説明するための図である。
(Details of real space information 421)
FIG. 7 is a diagram illustrating an example of a schematic data structure of the real space information 421. FIG. 8 is a diagram for explaining an object in a movie theater where position information is given as real space information 421.
実空間情報記憶部420には、図7に示すように、映画館内部に配置されている座席110の識別番号422ごとに、複数の実空間情報421が記憶されている。各実空間情報421には、位置情報が与えられる映画館内部の対象物の名称423と、その位置情報424とが対応付けられている。 As shown in FIG. 7, the real space information storage unit 420 stores a plurality of real space information 421 for each identification number 422 of the seat 110 arranged in the movie theater. Each real space information 421 is associated with the name 423 of the object in the movie theater where the position information is given, and the position information 424.
位置情報が与えられる映画館内部の対象物には、少なくとも、映画を視聴するユーザーと、スクリーン120と、投影コンテンツとが含まれる。これらの対象物を識別可能な情報が、名称423として登録されている。 The objects in the movie hall where the position information is given include at least a user who watches the movie, the screen 120, and projection content. Information that can identify these objects is registered as a name 423.
位置情報424には、ユーザーの位置を示す座標と、スクリーン120の位置を示す座標と、投影コンテンツの位置を示す座標とが登録されている。 In the position information 424, coordinates indicating the position of the user, coordinates indicating the position of the screen 120, and coordinates indicating the position of the projection content are registered.
ここで、図8に示すとおり、ユーザーの位置Pに対応する位置情報424としては、ユーザーが着席している座席110の位置であって、推定される顔の位置を示す3次元座標(Px,Py,Pz)が登録されている。なお、映画館内部の空間には、点O(たとえば、左下奥の隅の点)を原点とするXYZ座標系が設定されている。また、3次元座標(Px,Py,Pz)は、対応付けられている識別番号422により一意に定まる値である。 Here, as shown in FIG. 8, the position information 424 corresponding to the position P of the user is the position of the seat 110 where the user is seated, and the three-dimensional coordinates (Px, Py, Pz) are registered. Note that an XYZ coordinate system having a point O (for example, a point at the lower left corner) as an origin is set in the space in the movie room. The three-dimensional coordinates (Px, Py, Pz) are values that are uniquely determined by the associated identification number 422.
スクリーン120の位置に対応する位置情報424としては、スクリーン120の右上の角の位置Aを示す3次元座標(Ax,Ay,Az)と、スクリーン120の左下の角の位置Bを示す3次元座標(Bx,By,Bz)とが登録されている。なお、3次元座標(Ax,Ay,Az)および(Bx,By,Bz)は、それぞれ、全ての実空間情報421において共通の値である。 The position information 424 corresponding to the position of the screen 120 includes three-dimensional coordinates (Ax, Ay, Az) indicating the position A of the upper right corner of the screen 120 and three-dimensional coordinates indicating the position B of the lower left corner of the screen 120. (Bx, By, Bz) are registered. The three-dimensional coordinates (Ax, Ay, Az) and (Bx, By, Bz) are values common to all the real space information 421, respectively.
投影コンテンツCの位置に対応する位置情報424としては、投影コンテンツCの右上の角の位置Mを示す3次元座標(Mx,My,Mz)と、投影コンテンツCの左下の角の位置Nを示す3次元座標(Nx,Ny,Nz)とが登録されている。なお、3次元座標(Mx,My,Mz)および(Nx,Ny,Nz)は、それぞれ、全ての実空間情報421において共通の値である。 As the position information 424 corresponding to the position of the projection content C, three-dimensional coordinates (Mx, My, Mz) indicating the position M of the upper right corner of the projection content C and the position N of the lower left corner of the projection content C are indicated. Three-dimensional coordinates (Nx, Ny, Nz) are registered. The three-dimensional coordinates (Mx, My, Mz) and (Nx, Ny, Nz) are values common to all the real space information 421, respectively.
なお、情報提供部410は、情報提供サーバー140において、CPU146がストレージ148にインストールされているプログラムをメモリー147に読み出して実行することにより実現される。また、実空間情報記憶部420は、ストレージ148またはメモリー147によって実現される。 Note that the information providing unit 410 is realized in the information providing server 140 by the CPU 146 reading the program installed in the storage 148 into the memory 147 and executing it. The real space information storage unit 420 is realized by the storage 148 or the memory 147.
(3)表示装置200(機能構成)
図6に示すとおり、表示装置200の制御ユニット210は、表示制御部510と、入力受付部520と、情報取得部530と、直視方向特定部540と、AR画像生成部550と、AR画像記憶部560と、キャリブレーション部570とを有する。
(3) Display device 200 (functional configuration)
As shown in FIG. 6, the control unit 210 of the display device 200 includes a display control unit 510, an input reception unit 520, an information acquisition unit 530, a direct view direction identification unit 540, an AR image generation unit 550, and an AR image storage. Part 560 and a calibration part 570.
表示制御部510は、表示コントローラー215に対して、各種画像をディスプレイ230に表示させるための指示を出力する。たとえば、表示制御部510は、情報提供サーバー140から取得した実空間情報421と、慣性センサー240が出力する信号により定まるユーザーの顔の向き(直視方向)とに基づき、映画の字幕などの情報を含むAR画像をディスプレイ230に表示させる。また、キャリブレーションモード時においては、表示制御部510は、キャリブレーション用のAR画像をディスプレイ230に表示させる。 The display control unit 510 outputs an instruction for displaying various images on the display 230 to the display controller 215. For example, the display control unit 510 displays information such as movie subtitles based on the real space information 421 acquired from the information providing server 140 and the user's face orientation (direct viewing direction) determined by a signal output from the inertial sensor 240. The included AR image is displayed on the display 230. In the calibration mode, the display control unit 510 causes the display 230 to display an AR image for calibration.
入力受付部520は、ユーザーからの入力を受け付ける。たとえば、入力受付部520は、入力装置214に対してなされたユーザーの操作に基づき、キャリブレーションを開始する指示などの各種指示を特定する。 The input receiving unit 520 receives input from the user. For example, the input reception unit 520 specifies various instructions such as an instruction to start calibration based on a user operation performed on the input device 214.
情報取得部530は、少なくともユーザーの位置Pおよび所定の基準位置Sに関する実空間情報421を取得する。具体的には、情報取得部530は、通信装置216を介して、情報提供サーバー140に対して問い合わせデータを送信し、これに応答して情報提供サーバー140から提供された実空間情報421を受信する。 The information acquisition unit 530 acquires real space information 421 related to at least the position P of the user and the predetermined reference position S. Specifically, the information acquisition unit 530 transmits inquiry data to the information providing server 140 via the communication device 216, and receives the real space information 421 provided from the information providing server 140 in response thereto. To do.
直視方向特定部540は、慣性センサー240が出力する信号に基づいて、ユーザーの顔の向き(すなわち、直視方向)を特定する。具体的には、直視方向特定部540は、事前に定めておいた基準方向(後述の基準方向S)にユーザーが顔を向けているときの慣性センサー240のセンサー値(登録値)と、現在の慣性センサー240のセンサー値を比較して、その変化量から現在のユーザーの顔の向きを特定する。 The direct viewing direction identification unit 540 identifies the orientation of the user's face (that is, the direct viewing direction) based on the signal output from the inertial sensor 240. Specifically, the direct-viewing direction specifying unit 540 detects the sensor value (registered value) of the inertial sensor 240 when the user is facing the face in a reference direction (reference direction S described later) that has been determined in advance, The sensor values of the inertial sensors 240 are compared, and the direction of the current user's face is specified from the amount of change.
AR画像生成部550は、AR画像が現実の環境内にあたかも存在しているかのように見えるAR画像を生成する。たとえば、映画の字幕などの情報を含むAR画像や、キャリブレーション用のAR画像を生成する。なお、AR画像が現実の環境内にあたかも存在しているかのようにユーザーに見せるためには、ユーザーの位置Pおよび顔の向き(すなわち、直視方向)に応じて、AR画像の表示位置、サイズ、形状等を、変更すればよい。AR画像の具体的な生成方法については後述する。 The AR image generation unit 550 generates an AR image that looks as if the AR image exists in the actual environment. For example, an AR image including information such as movie subtitles and an AR image for calibration are generated. In order to make the user feel as if the AR image exists in the actual environment, the display position and size of the AR image are determined according to the user's position P and the face direction (ie, the direct viewing direction). What is necessary is just to change a shape etc. A specific method for generating the AR image will be described later.
AR画像記憶部560は、AR画像生成部550によって生成されたAR画像を記憶する。また、AR画像記憶部560は、AR画像生成部550によって生成されたAR画像の元データとなる字幕データなども記憶する。これとともに、AR画像記憶部560は、キャリブレーション用のAR画像に関する情報(以下では、「AR画像情報561」と称する)も記憶する。 The AR image storage unit 560 stores the AR image generated by the AR image generation unit 550. In addition, the AR image storage unit 560 stores subtitle data that is the original data of the AR image generated by the AR image generation unit 550. At the same time, the AR image storage unit 560 also stores information related to the AR image for calibration (hereinafter referred to as “AR image information 561”).
(AR画像情報561の詳細)
図9は、AR画像情報561の概略データ構造の例を示す図である。図9に示すように、AR画像情報561には、AR画像のファイル名562と、AR画像の位置情報563とが対応付けられている。
(Details of AR image information 561)
FIG. 9 is a diagram illustrating an example of a schematic data structure of the AR image information 561. As shown in FIG. 9, the AR image information 561 is associated with an AR image file name 562 and AR image position information 563.
ファイル名562は、AR画像記憶部560に記憶されているAR画像のファイル名を示すデータである。たとえば、「001」、「002」等のデータが登録される。 The file name 562 is data indicating the file name of the AR image stored in the AR image storage unit 560. For example, data such as “001” and “002” is registered.
位置情報563は、AR画像の表示位置を示すデータであり、表示装置200のディスプレイ230内での位置を示す2次元座標が登録される。具体的には、AR画像の先頭または中心の表示位置を示す2次元座標が登録される。 The position information 563 is data indicating the display position of the AR image, and two-dimensional coordinates indicating the position in the display 230 of the display device 200 are registered. Specifically, a two-dimensional coordinate indicating the display position of the head or center of the AR image is registered.
図6に戻り、キャリブレーション部570は、慣性センサー240が出力する信号により定まるユーザーの顔の向き(直視方向)をキャリブレーションする。具体的には、キャリブレーション部570は、慣性センサー240の出力する信号により定まるユーザーの顔の向き(直視方向)に誤差が生じないように、上述した基準方向を修正する。 Returning to FIG. 6, the calibration unit 570 calibrates the face direction (direct viewing direction) of the user determined by the signal output from the inertial sensor 240. Specifically, the calibration unit 570 corrects the above-described reference direction so that an error does not occur in the user's face orientation (direct viewing direction) determined by a signal output from the inertial sensor 240.
なお、表示制御部510、入力受付部520、情報取得部530、直視方向特定部540、AR画像生成部550、キャリブレーション部570は、それぞれ、表示装置200において、CPU211がストレージ213にインストールされているプログラムをメモリー212に読み出して実行することにより実現される。ただし、これに限らず、各機能部510〜550、570は、ASIC等のハードウェアにより実現されてもよい。また、AR画像記憶部560は、ストレージ213またはメモリー212によって実現される。 Note that the display control unit 510, the input reception unit 520, the information acquisition unit 530, the direct-viewing direction identification unit 540, the AR image generation unit 550, and the calibration unit 570 are respectively installed in the storage 213 in the display device 200. This is realized by reading a program stored in the memory 212 and executing it. However, the present invention is not limited to this, and each of the functional units 510 to 550 and 570 may be realized by hardware such as an ASIC. The AR image storage unit 560 is realized by the storage 213 or the memory 212.
[表示システム1の動作]
次に、本実施形態に係る表示システム1の特徴的な動作について説明する。
[Operation of display system 1]
Next, a characteristic operation of the display system 1 according to the present embodiment will be described.
(1)投影処理
図10は、上映装置130において実行される投影処理の手順を示すフローチャートである。
(1) Projection Process FIG. 10 is a flowchart showing the procedure of the projection process executed in the screening device 130.
上映装置130は、電源が投入されたタイミングで図10に示す投影処理を開始する。ただし、投影処理を開始するタイミングは、これに限定されず、入力装置(キーボード、マウス等)に対して、投影処理を開始するための操作や、キャリブレーションモードを開始するための操作がなされたときに、投影処理を開始してもよい。 The screening device 130 starts the projection process shown in FIG. 10 at the timing when the power is turned on. However, the timing of starting the projection process is not limited to this, and an operation for starting the projection process or an operation for starting the calibration mode is performed on the input device (keyboard, mouse, etc.). Sometimes, the projection process may be started.
(ステップS101)
投影処理を開始すると、上映装置130は、投影制御部310として機能し、キャリブレーション用の投影コンテンツを投影コンテンツ記憶部320から取得する。具体的には、投影制御部310が、投影コンテンツ記憶部320からキャリブレーション用の投影コンテンツを読み出し、上映サーバー(不図示)へ送信するとともに、再生を指示する。
(Step S101)
When the projection process is started, the screening device 130 functions as the projection control unit 310 and acquires the projection content for calibration from the projection content storage unit 320. Specifically, the projection control unit 310 reads the projection content for calibration from the projection content storage unit 320, transmits it to a screening server (not shown), and instructs playback.
(ステップS102)
上映装置130は、キャリブレーション用の投影コンテンツを再生して、スクリーン120へ投影する。具体的には、投影制御部310からの指示に基づいて、上映サーバー(不図示)が、キャリブレーション用の投影コンテンツを再生し、再生した映像をプロジェクターから出力する。
(Step S102)
The screening device 130 reproduces the projection content for calibration and projects it onto the screen 120. Specifically, based on an instruction from the projection control unit 310, a screening server (not shown) reproduces the projection content for calibration and outputs the reproduced video from the projector.
図11は、スクリーン120に投影されたキャリブレーション用の投影コンテンツCの例を示す図である。所定の形状を有する図形を含む画像(図11の太線で示す例では、長方形の図形を含む画像)が、キャリブレーション用の投影コンテンツCとしてスクリーン120の中央に投影される。 FIG. 11 is a diagram showing an example of the projection content C for calibration projected on the screen 120. An image including a graphic having a predetermined shape (in the example shown by a thick line in FIG. 11, an image including a rectangular graphic) is projected on the center of the screen 120 as the projection content C for calibration.
(ステップS103)
上映装置130は、投影制御部310として機能し、キャリブレーション用の投影コンテンツCの投影を終了するタイミングか否か判別する。たとえば、上映装置130は、キャリブレーション用の投影コンテンツCの投影を開始してから、所定時間が経過した場合には、その投影を終了するタイミングと判断して(ステップS103:YES)、投影処理を終了する。一方、上映装置130は、キャリブレーション用の投影コンテンツCの投影を開始してから、所定時間が経過していない場合には、その投影を終了するタイミングではないと判断して(ステップS103:NO)、処理をステップS101に戻す。
(Step S103)
The screening device 130 functions as the projection control unit 310 and determines whether or not it is time to end projection of the projection content C for calibration. For example, when a predetermined time has elapsed since the projection of the projection content C for calibration has been started, the screening device 130 determines that the projection is to end (step S103: YES), and performs projection processing. Exit. On the other hand, if the predetermined time has not elapsed since the projection of the projection content C for calibration has started, the screening device 130 determines that it is not time to end the projection (step S103: NO). ), The process returns to step S101.
以上の投影処理が上映装置130において実行されることにより、キャリブレーション用の投影コンテンツCを、所定時間の間(たとえば、映画の上映開始前の30分間)に、スクリーン120に投影できる。キャリブレーション用の投影コンテンツCがスクリーン120に投影されている間、ユーザーは、座席110に着席した状態で表示装置200を使用し、ユーザーの顔の向き(直視方向)の基準方向についてキャリブレーションできる。 By executing the above projection processing in the screening device 130, the projection content C for calibration can be projected on the screen 120 for a predetermined time (for example, 30 minutes before the start of movie screening). While the projection content C for calibration is projected on the screen 120, the user can calibrate the reference direction of the user's face direction (direct viewing direction) using the display device 200 while sitting on the seat 110. .
(2)キャリブレーション処理
図12は、表示装置200において実行されるキャリブレーション処理の手順を示すフローチャートである。
(2) Calibration Process FIG. 12 is a flowchart illustrating a calibration process performed in the display device 200.
キャリブレーション用の投影コンテンツCがスクリーン120に投影されている間、表示装置200は、電源が投入されたタイミングで図12に示すキャリブレーション処理を開始する。ただし、キャリブレーション処理を開始するタイミングは、これに限定されず、入力装置214に対して、キャリブレーション処理を開始するための操作がなされたときに、キャリブレーション処理を開始してもよい。また、スクリーン120による映画の上映を開始する前に、情報提供サーバー140等からの開始信号に基づいて、表示装置200を装着して座席110に着席した複数のユーザーに対して、一斉にキャリブレーション処理を開始させるようにしてもよい。あるいは、一定のサイクルで、定期的にキャリブレーション処理を開始してもよい。なお、キャリブレーション処理は、ユーザーが上映システム100の座席110に着席した状態で行われる。 While the projection content C for calibration is projected on the screen 120, the display device 200 starts the calibration process shown in FIG. 12 at the timing when the power is turned on. However, the timing for starting the calibration process is not limited to this, and the calibration process may be started when an operation for starting the calibration process is performed on the input device 214. In addition, before starting the movie showing on the screen 120, based on a start signal from the information providing server 140 or the like, calibration is simultaneously performed for a plurality of users who are seated on the seat 110 with the display device 200 mounted. You may make it start a process. Alternatively, the calibration process may be started periodically at a constant cycle. The calibration process is performed in a state where the user is seated on the seat 110 of the screening system 100.
(ステップS201)
キャリブレーション処理を開始すると、表示装置200は、情報取得部530として機能し、映画館内部の実空間情報421を、情報提供サーバー140から取得する。
(Step S201)
When the calibration process is started, the display device 200 functions as the information acquisition unit 530 and acquires the real space information 421 in the movie theater from the information providing server 140.
具体的には、表示装置200は、通信装置216を介して、問い合わせデータを情報提供サーバー140へ送信する。ここで、問い合わせデータには、表示装置200を装着したユーザーが着席している座席110に割り当てられている識別番号が含まれている。座席110の識別番号は、ユーザーが座席110に着席したときに、手入力によって表示装置200に登録されるデータとしてもよいし、近距離無線通信などの所定の通信によって座席110から取得され、表示装置200に登録されるデータとしてもよい。 Specifically, the display device 200 transmits inquiry data to the information providing server 140 via the communication device 216. Here, the inquiry data includes an identification number assigned to the seat 110 where the user wearing the display device 200 is seated. The identification number of the seat 110 may be data registered in the display device 200 by manual input when the user sits on the seat 110, or is acquired from the seat 110 by predetermined communication such as short-range wireless communication and displayed. Data registered in the apparatus 200 may be used.
表示装置200は、上記のような問い合わせデータに応じて情報提供サーバー140から送信された実空間情報421を、通信装置216を介して受信することによって、映画館内部の実空間情報421を取得できる。なお、情報提供サーバー140が、実空間情報421を表示装置200に提供する情報提供処理の詳細については後述する。 The display device 200 can acquire the real space information 421 in the movie theater by receiving the real space information 421 transmitted from the information providing server 140 according to the inquiry data as described above via the communication device 216. . The details of the information providing process in which the information providing server 140 provides the real space information 421 to the display device 200 will be described later.
(ステップS202)
実空間情報421を取得後、表示装置200は、直視方向特定部540として機能し、当該表示装置200を頭部に装着しているユーザーの位置Pと、所定の基準位置Sとの位置関係を特定する。
(Step S202)
After acquiring the real space information 421, the display device 200 functions as the direct-viewing direction specifying unit 540, and determines the positional relationship between the position P of the user wearing the display device 200 on the head and the predetermined reference position S. Identify.
たとえば、表示装置200は、スクリーン120の中心位置を所定の基準位置Sとして、当該表示装置200を頭部に装着しているユーザーの位置Pから見て、所定の基準位置Sまでの距離、およびその方向を特定する。具体的には、表示装置200は、ステップS201において取得された実空間情報421に含まれるスクリーン120の右上の角の位置Aと、左下の角の位置Bとの中点を、基準位置Sとして算出する。ここで、基準位置Sの3次元座標(Sx,Sy,Sz)は、(Sx,Sy,Sz)=((Ax+Bx)/2,(Ay+By)/2,(Az+Bz)/2)の計算式により算出される。その後、表示装置200は、{(Sx−Px)2+(Sy−Py)2+(Sz−Pz)2}(1/2)の計算によって、ユーザーの位置Pから基準位置Sまでの距離を算出する。また、表示装置200は、(Sx−Px,Sy−Py,Sz−Pz)の計算によって、ユーザーの位置Pから基準位置Sへ向かう方向ベクトルを算出する。 For example, the display device 200 uses the center position of the screen 120 as the predetermined reference position S, and the distance to the predetermined reference position S when viewed from the position P of the user wearing the display device 200 on the head, and Specify the direction. Specifically, the display device 200 uses, as the reference position S, the midpoint between the position A of the upper right corner and the position B of the lower left corner of the screen 120 included in the real space information 421 acquired in step S201. calculate. Here, the three-dimensional coordinates (Sx, Sy, Sz) of the reference position S are calculated by the calculation formula of (Sx, Sy, Sz) = ((Ax + Bx) / 2, (Ay + By) / 2, (Az + Bz) / 2). Calculated. Thereafter, the display device 200 calculates the distance from the user position P to the reference position S by calculating {(Sx−Px) 2 + (Sy−Py) 2 + (Sz−Pz) 2 } (1/2). calculate. The display device 200 calculates a direction vector from the user position P to the reference position S by calculating (Sx−Px, Sy−Py, Sz−Pz).
(ステップS203)
表示装置200は、AR画像生成部550として機能し、キャリブレーション用のAR画像を生成する。キャリブレーション用のAR画像は、スクリーン120に投影される投影コンテンツCの図形に対応する形状の図形を含む。
(Step S203)
The display device 200 functions as the AR image generation unit 550 and generates an AR image for calibration. The AR image for calibration includes a figure having a shape corresponding to the figure of the projection content C projected on the screen 120.
図13(A)は、キャリブレーション用のAR画像の生成方法を説明するための図である。図13(B)は、表示装置200のディスプレイ230に表示されるキャリブレーション用のAR画像の例を示す図である。 FIG. 13A is a diagram for explaining a method for generating an AR image for calibration. FIG. 13B is a diagram illustrating an example of an AR image for calibration displayed on the display 230 of the display device 200.
図13(A)に示すとおり、表示装置200は、基準方向Sにユーザーの顔が向けられていると仮定する。ここで、基準方向Sとは、ユーザーの位置Pからみた所定の基準位置Sの方向を指す。表示装置200は、基準方向Sにユーザーの顔が向けられているときに、上述の投影処理によってスクリーン120に投影されている投影コンテンツCの図形(図示する例では長方形)に重なって見える図形からなるキャリブレーション用のAR画像を生成する。そのためには、ユーザーの位置Pから基準位置Sまでの距離Rと、基準方向Sのスクリーン120の投影面に対する傾きとに応じて、キャリブレーション用のAR画像の表示位置、サイズ、形状等を決定すればよい。ただし、基準方向Sのスクリーン120の投影面に対する傾きは、ステップS202において算出した方向ベクトル(Sx−Px,Sy−Py,Sz−Pz)と、スクリーン120の平面の法線ベクトルとの内積等を利用して求められる。結果として、たとえば、図13(B)に示す例のような形状(頂点K1、K2、K3、K4を持つ四角形)の図形からなるキャリブレーション用のAR画像が生成される。さらに、図13(B)に示す例のように、ユーザーに適切な操作方法を促すために、「※スクリーンに投影されている四角形に重ねて下さい」等の文字列を、ディスプレイ230に表示してもよい。 As illustrated in FIG. 13A, the display device 200 assumes that the user's face is directed in the reference direction S. Here, the reference direction S refers to the direction of a predetermined reference position S viewed from the user position P. When the face of the user is directed in the reference direction S, the display device 200 starts from a figure that appears to overlap the figure of the projection content C (rectangular in the illustrated example) projected onto the screen 120 by the above-described projection processing. An AR image for calibration is generated. For this purpose, the display position, size, shape, etc. of the AR image for calibration are determined according to the distance R from the user position P to the reference position S and the inclination of the reference direction S with respect to the projection surface of the screen 120. do it. However, the inclination of the reference direction S with respect to the projection surface of the screen 120 is the inner product of the direction vector (Sx−Px, Sy−Py, Sz−Pz) calculated in step S202 and the normal vector of the plane of the screen 120, or the like. Required to use. As a result, an AR image for calibration composed of a figure having a shape (rectangle having vertices K1, K2, K3, and K4) as shown in the example of FIG. 13B is generated. Furthermore, as in the example shown in FIG. 13B, in order to prompt the user to perform an appropriate operation method, a character string such as “* Please overlay the rectangle projected on the screen” is displayed on the display 230. May be.
その後、表示装置200は、生成したキャリブレーション用のAR画像とともに、当該キャリブレーション用のAR画像に関する情報(たとえば、図9に示すAR画像情報561)をAR画像記憶部560に記憶する。 After that, the display device 200 stores the information related to the calibration AR image (for example, the AR image information 561 shown in FIG. 9) in the AR image storage unit 560 together with the generated calibration AR image.
(ステップS204)
表示装置200は、表示制御部510として機能し、ステップS203において生成されたキャリブレーション用のAR画像を、ディスプレイ230に表示する。
(Step S204)
The display device 200 functions as the display control unit 510, and displays the calibration AR image generated in step S203 on the display 230.
具体的には、表示装置200は、表示装置200は、AR画像記憶部560に記憶されているキャリブレーション用のAR画像と、対応付けられているAR画像情報561を読み出す。そして、表示装置200は、読み出したAR画像情報561の内容に従って、キャリブレーション用のAR画像をディスプレイ230に表示する。たとえば、図9の先頭レコードの例では、ファイル名が「001」のキャリブレーション用のAR画像が読み出され、ディスプレイ230の(G1x,G1y)の位置に表示される。 Specifically, the display device 200 reads the AR image for calibration stored in the AR image storage unit 560 and the AR image information 561 associated therewith. Then, the display device 200 displays an AR image for calibration on the display 230 according to the content of the read AR image information 561. For example, in the example of the top record in FIG. 9, the calibration AR image with the file name “001” is read and displayed at the position (G1x, G1y) on the display 230.
(ステップS205)
表示装置200は、入力受付部520として機能し、ユーザーから、ディスプレイ230に表示されたキャリブレーション用のAR画像に含まれる図形が、スクリーン120に投影されている投影コンテンツCの図形に重なって見えることを示す入力を受け付ける。たとえば、表示装置200は、入力装置214に備わる所定のボタンが押下されたときに、当該入力を受け付けたものとみなす。
(Step S205)
The display device 200 functions as the input receiving unit 520, and a graphic included in the AR image for calibration displayed on the display 230 appears to overlap with the graphic of the projection content C projected on the screen 120 from the user. Is received. For example, the display device 200 considers that the input is accepted when a predetermined button provided in the input device 214 is pressed.
図14は、キャリブレーション用のAR画像が投影コンテンツCに重なって見えないときの状態を示す図である。図14に示す例のように、ユーザーの実際の顔の向き(直視方向)Tが基準方向Sと一致していないときは、キャリブレーション用のAR画像と投影コンテンツCは重なって見えない。これは、ユーザーが基準方向Sに顔を向けていることを想定して、ステップS203でキャリブレーション用のAR画像を生成しているからである。 FIG. 14 is a diagram illustrating a state when the AR image for calibration cannot be seen overlapping the projection content C. As in the example illustrated in FIG. 14, when the user's actual face direction (direct viewing direction) T does not match the reference direction S, the calibration AR image and the projection content C do not overlap each other. This is because the AR image for calibration is generated in step S203 on the assumption that the user faces his face in the reference direction S.
この場合には、ユーザーは、入力装置214に備わる所定のボタンを押下せず、キャリブレーション用のAR画像と投影コンテンツCは重なって見えるようになるまで、頭部を動かす動作を継続する。表示装置200は、所定のボタンが押下されない間は、キャリブレーション用のAR画像と投影コンテンツCは重なっていないと判定して(ステップS205:NO)、待機する。 In this case, the user does not press a predetermined button provided on the input device 214, and continues the operation of moving the head until the AR image for calibration and the projection content C appear to overlap each other. While the predetermined button is not pressed, the display device 200 determines that the AR image for calibration and the projection content C do not overlap (step S205: NO) and stands by.
図15は、キャリブレーション用のAR画像が投影コンテンツCに重なって見えるときの状態を示す図である。図15に示す例のように、ユーザーの実際の顔の向き(直視方向)Tが基準方向Sと一致すると、キャリブレーション用のAR画像と投影コンテンツCが重なって見える。 FIG. 15 is a diagram illustrating a state when the AR image for calibration appears to overlap the projection content C. When the user's actual face direction (direct viewing direction) T matches the reference direction S as in the example shown in FIG. 15, the calibration AR image and the projected content C appear to overlap.
この場合には、ユーザーは、入力装置214に備わる所定のボタンを押下する。表示装置200は、所定のボタンが押下された場合には、キャリブレーション用のAR画像と投影コンテンツCが重なっていると判定して(ステップS205:YES)、処理をステップS206に進める。 In this case, the user presses a predetermined button provided on the input device 214. When the predetermined button is pressed, the display device 200 determines that the calibration AR image and the projection content C overlap (step S205: YES), and advances the processing to step S206.
(ステップS206)
表示装置200は、キャリブレーション部570として機能し、ユーザーの顔の向き(直視方向)に関する基準方向を設定(キャリブレーション)する。具体的には、表示装置200は、ステップS205においてキャリブレーション用のAR画像が投影コンテンツCに重なって見えることを示す入力を受け付けたときに、慣性センサー240が出力する信号を、基準方向Sにユーザーが顔を向けているときのセンサー値としてメモリー212に登録する。
(Step S206)
The display device 200 functions as the calibration unit 570, and sets (calibrates) a reference direction related to the orientation (direct viewing direction) of the user's face. Specifically, the display device 200 outputs a signal output from the inertial sensor 240 in the reference direction S when receiving an input indicating that the calibration AR image appears to overlap the projection content C in step S205. The value is registered in the memory 212 as a sensor value when the user is facing his face.
その後、表示装置200は、キャリブレーション処理を終了する。 Thereafter, the display device 200 ends the calibration process.
以上のキャリブレーション処理が表示装置200において実行されることにより、少なくともユーザーの位置Pおよび所定の基準位置Sに関する実空間情報421を用いて、ユーザーの顔の向き(直視方向)に関する基準方向を定めている。そのため、複数のセンサーを用いなくても、ユーザーの顔の向き(直視方向)に関する基準方向を定めることができる。 By executing the above calibration processing in the display device 200, the reference direction regarding the orientation of the user's face (direct viewing direction) is determined using at least the real space information 421 regarding the user position P and the predetermined reference position S. ing. Therefore, it is possible to determine the reference direction related to the user's face orientation (direct viewing direction) without using a plurality of sensors.
また、ユーザーの位置Pを、当該ユーザーが着席する座席110の位置としているため、ユーザーがどの座席110に着席しても正確にユーザーの顔の向き(直視方向)に関する基準方向を定めることができる。 Further, since the position P of the user is the position of the seat 110 where the user is seated, the reference direction regarding the user's face direction (direct viewing direction) can be accurately determined regardless of which seat 110 the user is seated on. .
(3)情報提供処理
図16は、情報提供サーバー140において実行される情報提供処理の手順を示すフローチャートである。
(3) Information Providing Process FIG. 16 is a flowchart showing the procedure of the information providing process executed in the information providing server 140.
情報提供サーバー140は、電源が投入されたタイミングで図16に示す情報提供処理を開始する。ただし、情報提供処理を開始するタイミングは、これに限定されず、入力装置143に対して、情報提供処理を開始するための操作がなされたときに、情報提供処理を開始してもよい。 The information providing server 140 starts the information providing process shown in FIG. 16 at the timing when the power is turned on. However, the timing for starting the information providing process is not limited to this, and the information providing process may be started when an operation for starting the information providing process is performed on the input device 143.
(ステップS301)
情報提供処理を開始すると、情報提供サーバー140は、情報提供部410として機能し、表示装置200からの問い合わせデータを受信したか否か判別する。問い合わせデータは、上述したキャリブレーション処理のステップS201において、表示装置200から送信されたデータである。
(Step S301)
When the information providing process is started, the information providing server 140 functions as the information providing unit 410 and determines whether inquiry data from the display device 200 has been received. The inquiry data is data transmitted from the display device 200 in step S201 of the calibration process described above.
情報提供サーバー140は、表示装置200からの問い合わせデータを受信していない場合には(ステップS301:NO)、待機する。一方、情報提供サーバー140は、通信装置144を介して、表示装置200からの問い合わせデータを受信すると(ステップS301:YES)、処理をステップS302に進める。 The information providing server 140 stands by when the inquiry data from the display device 200 is not received (step S301: NO). On the other hand, when the information providing server 140 receives the inquiry data from the display device 200 via the communication device 144 (step S301: YES), the information providing server 140 advances the process to step S302.
(ステップS302)
情報提供サーバー140は、情報提供部410として機能し、問い合わせデータに含まれている識別番号を有する実空間情報421を、実空間情報記憶部420から抽出する(図7)。そして、情報提供サーバー140は、抽出した実空間情報421を、通信装置144を介して表示装置200へ送信する。
(Step S302)
The information providing server 140 functions as the information providing unit 410, and extracts the real space information 421 having the identification number included in the inquiry data from the real space information storage unit 420 (FIG. 7). Then, the information providing server 140 transmits the extracted real space information 421 to the display device 200 via the communication device 144.
その後、情報提供サーバー140は、情報提供処理を終了する。 Thereafter, the information providing server 140 ends the information providing process.
以上の情報提供処理が情報提供サーバー140において実行されることにより、表示装置200からの問い合わせに応じて、キャリブレーションに必要な実空間情報421を提供できる。 By executing the above information provision processing in the information provision server 140, it is possible to provide real space information 421 necessary for calibration in response to an inquiry from the display device 200.
(4)上映処理
上記のキャリブレーション処理により、表示装置200においてユーザーの顔の向き(直視方向)に関する基準方向が正確に定められた後、上映装置130は、スクリーン120に映画等の映像を投影する。これとともに、上映装置130は、音声をスピーカーから出力し、通信装置を介して字幕(データ)を送信する。
(4) Screening Process After the reference direction regarding the user's face direction (direct viewing direction) is accurately determined on the display device 200 by the above-described calibration processing, the screening device 130 projects an image such as a movie on the screen 120. To do. At the same time, the screening device 130 outputs audio from the speaker and transmits subtitles (data) via the communication device.
スクリーン120に映像が投影されている間、表示装置200は、上映装置130の上映サーバーから送信された字幕(データ)を受信し、スクリーン120の下方などにあたかも当該字幕が存在するかのようなAR画像をディスプレイ230に表示する。そのためには、以下の(a)〜(c)の処理を行えばよい。 While the image is projected on the screen 120, the display device 200 receives the subtitle (data) transmitted from the screening server of the screening device 130, and it appears as if the subtitle exists under the screen 120 or the like. The AR image is displayed on the display 230. For this purpose, the following processes (a) to (c) may be performed.
(a)まず、表示装置200は、キャリブレーション部570として機能し、上記のステップS206で定められた基準方向を基準として、慣性センサー240が出力する信号からユーザーの現在の顔の向き(直視方向)Tを特定する。つまり、表示装置200は、基準方向に顔を向けた状態から、現在の顔の向きTに頭部を動かすまでの、慣性センサー240が出力する信号(センサー値)の変化量に基づいて、ユーザーの現在の顔の向き(直視方向)Tを特定する。 (A) First, the display device 200 functions as the calibration unit 570, and the direction of the user's current face (direct viewing direction) from the signal output from the inertial sensor 240 with reference to the reference direction defined in step S206. ) Specify T. In other words, the display device 200 is based on the amount of change in the signal (sensor value) output from the inertial sensor 240 from the state in which the face is directed in the reference direction to the movement of the head in the current face direction T. The current face direction (direct viewing direction) T is specified.
(b)表示装置200は、AR画像生成部550として機能し、特定されたユーザーの現在の顔の向き(直視方向)Tに応じて、スクリーン120に投影されている映像に重ね合わせる字幕を含むAR画像を生成する。 (B) The display device 200 functions as the AR image generation unit 550 and includes subtitles to be superimposed on the video projected on the screen 120 according to the current user's current face direction (direct viewing direction) T. An AR image is generated.
図17は、上映処理時におけるAR画像の生成方法を説明するための図である。図17に示すとおり、表示装置200は、特定された現在のユーザーの顔の向きTのときに、スクリーン120の下方にあたかも当該字幕が存在するかのようなAR画像を生成する。具体的には、ユーザーの位置Pから基準位置Sまでの距離Rと、ユーザーの現在の顔の向きTに応じて、字幕の表示位置、サイズ、形状等を決定すればよい。 FIG. 17 is a diagram for explaining a method of generating an AR image during the screening process. As shown in FIG. 17, the display device 200 generates an AR image as if the subtitles exist below the screen 120 when the current user's face orientation T is identified. Specifically, the subtitle display position, size, shape, and the like may be determined according to the distance R from the user position P to the reference position S and the current face orientation T of the user.
(c)表示装置200は、表示制御部510として機能し、生成した字幕のAR画像を、決定した表示位置、サイズ、形状によって、ディスプレイ230に表示する。 (C) The display device 200 functions as the display control unit 510, and displays the generated caption AR image on the display 230 according to the determined display position, size, and shape.
以上の上映処理が表示装置200において実行されることにより、スクリーン120に投影された映画等の映像に、字幕のAR画像を重ね合わせることができる。また、キャリブレーション処理によってキャリブレーションされた基準方向を基準として、ユーザーの現在の顔の向きTを特定しているため、AR画像を期待通りの正確な位置に表示できる。そして、複数のセンサーを用いずに、ユーザーの現在の顔の向きTを特定しているため、低コスト、軽量、低消費電力の表示装置等を提供できる。 By performing the above-described screening process in the display device 200, it is possible to superimpose a caption AR image on a video such as a movie projected on the screen 120. Further, since the user's current face direction T is specified with reference to the reference direction calibrated by the calibration process, the AR image can be displayed at an accurate position as expected. And since the direction T of the user's current face is specified without using a plurality of sensors, a low-cost, lightweight, low power consumption display device and the like can be provided.
上記した各フローチャートの各処理単位は、表示システム1の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。表示システム1で行われる処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。 Each processing unit in each flowchart described above is divided according to the main processing contents in order to facilitate understanding of the display system 1. The invention of the present application is not limited by the method of classification of the processing steps and the names thereof. The processing performed in the display system 1 can be divided into more processing steps. One processing step may execute more processes.
<変形例>
なお、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。
<Modification>
In addition, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.
たとえば、上記実施形態では、スクリーン120には、長方形の図形を含む画像が、キャリブレーション用の投影コンテンツCとして投影されている。しかし、本発明は、これに限定されず、キャリブレーション用の投影コンテンツCの画像には、どのような形状の図形が含まれていてもよい。また、キャリブレーション用の投影コンテンツCには、動画が含まれていてもよい。 For example, in the above embodiment, an image including a rectangular figure is projected on the screen 120 as the projection content C for calibration. However, the present invention is not limited to this, and the figure of the projection content C for calibration may include any shape figure. The projection content C for calibration may include a moving image.
また、上記実施形態では、表示装置200のディスプレイ230に表示するキャリブレーション用のAR画像には、キャリブレーション用の投影コンテンツCに対応させて、四角形の図形が含まれている。しかし、本発明は、これに限定されない。 In the above-described embodiment, the calibration AR image displayed on the display 230 of the display device 200 includes a square figure corresponding to the calibration projection content C. However, the present invention is not limited to this.
図18(A)は、キャリブレーション用のAR画像の変形例を示す図である。図18(A)に示すように、キャリブレーション用のAR画像には、円形の図形が含まれてもよい。 FIG. 18A is a diagram illustrating a modification of the AR image for calibration. As shown in FIG. 18A, the AR image for calibration may include a circular figure.
図18(B)は、図18(A)のキャリブレーション用のAR画像を用いてキャリブレーションするときの、ユーザーの視線方向の状態を示す図である。図18(B)に示すように、ディスプレイ230に表示されたキャリブレーション用のAR画像に含まれる円形が、スクリーン120に投影されている投影コンテンツCの四角形を囲むように重なって見えるときに、上記ステップS205の入力を受け付けてもよい。 FIG. 18B is a diagram illustrating a state in the user's line-of-sight direction when calibration is performed using the calibration AR image in FIG. As shown in FIG. 18B, when the circles included in the calibration AR image displayed on the display 230 appear to overlap so as to surround the rectangle of the projection content C projected on the screen 120, You may receive the input of said step S205.
また、上記実施形態では、スクリーン120の位置(具体的には、中心位置)を、ユーザーが見ている方向の目標物となり得る所定の基準位置Sとしている。しかし、本発明は、これに限定されず、任意の位置を、基準位置Sとしてもよい。たとえば、所定の基準位置Sは、所定の形状を有する物体の位置としてもよい。この場合、キャリブレーション用のAR画像には、その物体の形状に対応する形状の図形が含まれていればよい。 In the above embodiment, the position of the screen 120 (specifically, the center position) is set as the predetermined reference position S that can be a target in the direction in which the user is looking. However, the present invention is not limited to this, and an arbitrary position may be set as the reference position S. For example, the predetermined reference position S may be a position of an object having a predetermined shape. In this case, the AR image for calibration only needs to include a figure having a shape corresponding to the shape of the object.
また、上記実施形態では、ユーザーの位置Pは、ユーザーが着席している座席110の位置である。しかし、本発明、これに限定されず、ユーザーの位置Pが特定される方法であれば、どのような方法でユーザーの位置Pを特定してもよい。 In the above embodiment, the position P of the user is the position of the seat 110 where the user is seated. However, the present invention is not limited to this, and the user position P may be specified by any method as long as the user position P is specified.
また、上記実施形態では、情報提供サーバー140は、表示装置200や、上映装置130から独立したサーバーである。しかし、本発明は、これに限定されず、情報提供サーバー140を、上映装置130と一体化させてもよい。また、実空間情報421を表示装置200のストレージ213等に予め記憶させておいてもよい。この場合、表示装置200は、ステップS201において、情報取得部530として機能し、ストレージ213から実空間情報421を取得する。 In the above embodiment, the information providing server 140 is a server independent of the display device 200 and the screening device 130. However, the present invention is not limited to this, and the information providing server 140 may be integrated with the screening device 130. The real space information 421 may be stored in advance in the storage 213 of the display device 200 or the like. In this case, the display device 200 functions as the information acquisition unit 530 and acquires the real space information 421 from the storage 213 in step S201.
また、上記実施形態のステップS205では、入力装置214に備わる所定のボタンの押下によって、ユーザーの入力を受け付けている。しかし、本発明は、これに限定されず、ユーザーの頭部を一定時間以上静止させることによって、ユーザーの入力を受け付けてもよい。 In step S205 of the above embodiment, the user's input is accepted by pressing a predetermined button provided in the input device 214. However, the present invention is not limited to this, and the user's input may be received by allowing the user's head to stand still for a certain period of time.
また、上記実施形態では、表示システム1が映画館内で使用される例について説明している。しかし、本発明は、映画館内で使用される場合に限定されず、実空間情報421が得られる状況であれば、任意のシーンで使用され得る。 Moreover, the said embodiment demonstrated the example in which the display system 1 is used in a movie theater. However, the present invention is not limited to use in a movie theater, and can be used in any scene as long as real space information 421 can be obtained.
また、上記実施形態および変形例では、表示装置200は、シースルー型のヘッドマウントディスプレイ装置としている。しかし、本発明は、これに限定されず、表示装置200は、非透過型のヘッドマウントディスプレイ装置であってもよい。 In the embodiment and the modification, the display device 200 is a see-through type head mounted display device. However, the present invention is not limited to this, and the display device 200 may be a non-transmissive head mounted display device.
また、上記実施形態では、現実の環境等に付加的に重畳させて表示する画像を「AR画像」と称しているが、この名称に限定されず、現実の環境等に付加的に重畳させて表示する画像であれば、どのような画像であってもよい。たとえば、CG画像等の名称が用いられた画像も含む。 In the above-described embodiment, an image that is additionally superimposed on the actual environment or the like is referred to as an “AR image”. However, the image is not limited to this name, and may be additionally superimposed on the actual environment or the like. Any image may be used as long as it is an image to be displayed. For example, an image using a name such as a CG image is also included.
以上の表示システム1の構成は、上記の実施形態および変形例の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的な表示システム1が備える構成を排除するものではない。 The configuration of the display system 1 described above is not limited to the above-described configuration because the main configuration has been described in describing the features of the above-described embodiments and modifications. Further, the configuration of the general display system 1 is not excluded.
また、上記した表示システム1の各機能構成は、各機能構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。各機能構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、一つの構成要素がさらに多くの処理を実行するように分類することもできる。 In addition, each functional configuration of the display system 1 described above is classified according to main processing contents in order to facilitate understanding of each functional configuration. The present invention is not limited by the way of classification and names of the constituent elements. Each functional configuration can be classified into more components according to the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.
また、上記した表示システム1の各機能構成の処理は、専用のハードウェア回路によっても実現することもできる。この場合には、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。 The processing of each functional configuration of the display system 1 described above can also be realized by a dedicated hardware circuit. In this case, it may be executed by one hardware or a plurality of hardware.
また、表示システム1を動作させるプログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリーやストレージ等に転送され記憶される。また、このプログラムは、たとえば、単独のアプリケーションソフトとして提供されてもよいし、表示システム1の一機能としてその各装置のソフトウェアに組み込んでもよい。 The program for operating the display system 1 may be provided by a computer-readable recording medium such as a USB memory, a flexible disk, or a CD-ROM, or may be provided online via a network such as the Internet. . In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a memory or storage. Further, this program may be provided as, for example, a single application software, or may be incorporated in the software of each device as one function of the display system 1.
1 表示システム、
100 上映システム、
110 座席、
120 スクリーン、
130 上映装置、
140 情報提供サーバー、
141 制御装置、
146 CPU、
147 メモリー、
148 ストレージ、
142 ディスプレイ、
143 入力装置、
144 通信装置、
145 信号線、
200 表示装置、
210 制御ユニット、
211 CPU、
212 メモリー、
213 ストレージ、
214 入力装置、
215 表示コントローラー、
216 通信装置、
220 撮像装置、
230 ディスプレイ、
240 慣性センサー、
310 投影制御部、
320 投影コンテンツ記憶部、
410 情報提供部、
420 実空間情報記憶部、
421 実空間情報、
422 識別番号、
423 名称、
424 位置情報、
510 表示制御部、
520 入力受付部、
530 情報取得部、
540 直視方向特定部、
550 AR画像生成部、
560 AR画像記憶部、
561 AR画像情報、
562 ファイル名、
563 位置情報、
570 キャリブレーション部。
1 display system,
100 screening system,
110 seats,
120 screens,
130 Screening device,
140 Information providing server,
141 control device,
146 CPU,
147 memory,
148 storage,
142 display,
143 input device,
144 communication device,
145 signal line,
200 display device,
210 control unit,
211 CPU,
212 memory,
213 storage,
214 input devices,
215 display controller,
216 communication device,
220 imaging device,
230 display,
240 inertial sensor,
310 projection control unit,
320 projection content storage unit,
410 Information provider,
420 real space information storage unit,
421 Real space information,
422 identification number,
423 name,
424 location information,
510 display control unit,
520 input reception unit,
530 Information acquisition unit,
540 direct view direction specifying part,
550 AR image generator,
560 AR image storage unit,
561 AR image information,
562 file name,
563 location information,
570 Calibration unit.
Claims (13)
少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
キャリブレーションモード実行時において、
前記表示制御部は、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させ、
前記キャリブレーション部は、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、表示装置。 A display device having a display unit and being used on a user's head,
An information acquisition unit for acquiring real space information relating to at least the position of the user and a predetermined reference position;
A sensor that outputs a signal corresponding to the movement of the user's head;
A calibration unit for calibrating the direct viewing direction determined by the signal output from the sensor;
A display control unit that displays an AR image on the display unit based on the real space information acquired by the information acquisition unit and a direct viewing direction determined by a signal output from the sensor;
When executing calibration mode,
The display control unit displays the AR image for calibration at the position of the display unit corresponding to the predetermined reference position using the real space information acquired by the information acquisition unit,
When the calibration unit receives an input from the user indicating that the calibration AR image appears to overlap the predetermined reference position, a direct viewing direction determined by a signal output from the sensor is used as a reference direction. Display device to be calibrated.
前記スクリーンには、所定の形状を有する図形を含む画像が表示される、請求項1に記載の表示装置。 The predetermined reference position is a predetermined screen position;
The display device according to claim 1, wherein an image including a graphic having a predetermined shape is displayed on the screen.
前記情報取得部は、前記記憶部から前記実空間情報を取得する、請求項1〜8のいずれか一項に記載の表示装置。 A storage unit for storing the real space information;
The display device according to claim 1, wherein the information acquisition unit acquires the real space information from the storage unit.
所定ボタンの押下、または、前記ユーザーの頭部を一定時間以上静止させることにより行われる、請求項1〜10のいずれか一項に記載の表示装置。 The user input received by the input receiving unit is:
The display device according to claim 1, wherein the display device is performed by pressing a predetermined button or by allowing the user's head to remain stationary for a predetermined time or more.
前記表示装置は、
少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
キャリブレーションモード実行時において、
(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、
(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を有する表示装置のキャリブレーション方法。 A method for calibrating a display device having a display unit and being used on a user's head,
The display device
An information acquisition unit for acquiring real space information relating to at least the position of the user and a predetermined reference position;
A sensor that outputs a signal corresponding to the movement of the user's head;
A calibration unit for calibrating the direct viewing direction determined by the signal output from the sensor;
A display control unit that displays an AR image on the display unit based on the real space information acquired by the information acquisition unit and a direct viewing direction determined by a signal output from the sensor;
When executing calibration mode,
(A) The display control unit displays an AR image for calibration at the position of the display unit corresponding to the predetermined reference position using the real space information acquired by the information acquisition unit;
(B) When the calibration unit receives an input from the user indicating that the calibration AR image appears to overlap the predetermined reference position, a direct viewing direction determined by a signal output from the sensor is determined. Calibrating as a reference direction, and a method for calibrating a display device.
前記表示装置は、
少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
キャリブレーションモード実行時において、
(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、
(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を前記コンピューターに実行させるためのキャリブレーションプログラム。 A calibration program for causing a computer of a display device to be used by being mounted on a user's head, having a display unit,
The display device
An information acquisition unit for acquiring real space information relating to at least the position of the user and a predetermined reference position;
A sensor that outputs a signal corresponding to the movement of the user's head;
A calibration unit for calibrating the direct viewing direction determined by the signal output from the sensor;
A display control unit that displays an AR image on the display unit based on the real space information acquired by the information acquisition unit and a direct viewing direction determined by a signal output from the sensor;
When executing calibration mode,
(A) The display control unit displays an AR image for calibration at the position of the display unit corresponding to the predetermined reference position using the real space information acquired by the information acquisition unit;
(B) When the calibration unit receives an input from the user indicating that the calibration AR image appears to overlap the predetermined reference position, a direct viewing direction determined by a signal output from the sensor is determined. A calibration program for causing the computer to execute calibration as a reference direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014248951A JP6515512B2 (en) | 2014-12-09 | 2014-12-09 | Display device, display device calibration method, and calibration program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014248951A JP6515512B2 (en) | 2014-12-09 | 2014-12-09 | Display device, display device calibration method, and calibration program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016110489A true JP2016110489A (en) | 2016-06-20 |
JP6515512B2 JP6515512B2 (en) | 2019-05-22 |
Family
ID=56124146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014248951A Active JP6515512B2 (en) | 2014-12-09 | 2014-12-09 | Display device, display device calibration method, and calibration program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6515512B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018078448A (en) * | 2016-11-09 | 2018-05-17 | セイコーエプソン株式会社 | Program and head-mounted type display device |
JPWO2020017327A1 (en) * | 2018-07-17 | 2021-08-02 | ソニーグループ株式会社 | Head-mounted display, control method of head-mounted display, information processing device, display device, and program |
JP2021166732A (en) * | 2017-03-02 | 2021-10-21 | 株式会社フジ医療器 | Massage system |
US20240291940A1 (en) * | 2022-07-18 | 2024-08-29 | Nanjing Lopu Co., Ltd. | Display Module Set and Display Screen |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013021458A1 (en) * | 2011-08-09 | 2013-02-14 | パイオニア株式会社 | Mixed reality device |
-
2014
- 2014-12-09 JP JP2014248951A patent/JP6515512B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013021458A1 (en) * | 2011-08-09 | 2013-02-14 | パイオニア株式会社 | Mixed reality device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018078448A (en) * | 2016-11-09 | 2018-05-17 | セイコーエプソン株式会社 | Program and head-mounted type display device |
JP2021166732A (en) * | 2017-03-02 | 2021-10-21 | 株式会社フジ医療器 | Massage system |
JP7050991B2 (en) | 2017-03-02 | 2022-04-08 | 株式会社フジ医療器 | Massage system |
JPWO2020017327A1 (en) * | 2018-07-17 | 2021-08-02 | ソニーグループ株式会社 | Head-mounted display, control method of head-mounted display, information processing device, display device, and program |
JP7409307B2 (en) | 2018-07-17 | 2024-01-09 | ソニーグループ株式会社 | Head-mounted display, head-mounted display control method, information processing device, display device, and program |
US20240291940A1 (en) * | 2022-07-18 | 2024-08-29 | Nanjing Lopu Co., Ltd. | Display Module Set and Display Screen |
Also Published As
Publication number | Publication date |
---|---|
JP6515512B2 (en) | 2019-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108292489B (en) | Information processing apparatus and image generating method | |
JP6747504B2 (en) | Information processing apparatus, information processing method, and program | |
US10539797B2 (en) | Method of providing virtual space, program therefor, and recording medium | |
CN110402415A (en) | Record the technology of augmented reality data | |
US10277814B2 (en) | Display control method and system for executing the display control method | |
CN110851095B (en) | Multi-screen interactions in virtual and augmented reality | |
US12112449B2 (en) | Camera-based transparent display | |
US12010288B2 (en) | Information processing device, information processing method, and program | |
JPWO2015098211A1 (en) | Attitude measurement apparatus and attitude measurement method, image processing apparatus and image processing method, display apparatus and display method, computer program, and image display system | |
JP2010072477A (en) | Image display apparatus, image display method, and program | |
US11749141B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6515512B2 (en) | Display device, display device calibration method, and calibration program | |
JP6978289B2 (en) | Image generator, head-mounted display, image generation system, image generation method, and program | |
JP2010153983A (en) | Projection type video image display apparatus, and method therein | |
JP2017208676A (en) | Method of providing virtual space, program, and recording medium | |
JP2018500690A (en) | Method and system for generating magnified 3D images | |
US20180041751A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2017208808A (en) | Method of providing virtual space, program, and recording medium | |
WO2019073925A1 (en) | Image generation device and image generation method | |
KR20140115637A (en) | System of providing stereoscopic image for multiple users and method thereof | |
WO2019085109A1 (en) | Image writing control method and apparatus, and electronic device | |
KR20160128735A (en) | Display apparatus and control method thereof | |
JP7357554B2 (en) | Synchronous control device, control method of synchronous control device, system | |
US20240340403A1 (en) | Head mount display, information processing apparatus, and information processing method | |
US11954269B2 (en) | Information processing apparatus, information processing method, and program for generating location data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |